JP3450792B2 - 奥行き画像計測装置及び方法、並びに複合現実感提示システム - Google Patents
奥行き画像計測装置及び方法、並びに複合現実感提示システムInfo
- Publication number
- JP3450792B2 JP3450792B2 JP2000085145A JP2000085145A JP3450792B2 JP 3450792 B2 JP3450792 B2 JP 3450792B2 JP 2000085145 A JP2000085145 A JP 2000085145A JP 2000085145 A JP2000085145 A JP 2000085145A JP 3450792 B2 JP3450792 B2 JP 3450792B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- viewpoint position
- depth image
- depth
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Description
情報を任意の視点位置で獲得するために必要な画像処理
技術に関する。本発明は更に矛盾のない複合現実感を観
測者に提供するために必要な画像融合処理技術に関す
る。本発明は更に画像処理のためのプログラムの記憶媒
体にも関する。
display)等を用いた複合現実感提示システムにおい
て、現実世界と仮想世界を3次元的に整合のとれた形で
融合しようとした場合、現実の物体と仮想物体の前後関
係を正しく認識して、その前後関係に矛盾しない形で仮
想物体を描画することが必要となる。そのためには、観
測者の視点から見た現実世界の奥行き情報(三次元情
報)を獲得する必要があり、さらに、その獲得は、実時
間に近い速度で行われる必要がある。
して、いくつかの実時間ステレオ画像処理ハードウェア
を用いた奥行き画像計測装置が作成されている。例え
ば、"CMU Video-Rate Stereo Machine", Mobile Mappin
g Symposium, May 24-26, 1995, Columbus, OHは5台の
カメラからの画像に対してパイプライン処理を行って、
処理の高速化を図っている。
うな奥行き画像計測装置は、その撮像部が非常に大掛か
りで重量があるため、観測者の頭部に装着することはで
きず、頭部から離れた位置に固定させる必要がある。従
って、観測者の1人称視点からみた奥行き情報を得るこ
とはできない。もし仮に、観測者の近くにこの装置を設
置し、そこから得られる奥行き画像をそのまま前後判定
に用いたとすると、奥行き画像計測装置のカメラ視点位
置と観測者の視点位置との相違に基づいて、計測された
奥行き情報にずれが生じてしまうため、合成される映像
は観測者に違和感を与えるものになってしまう。
る。第1図に於いて、400は実空間中の物体(例えば
ブロック)とし、複合現実感提示システム(不図示)
は、視点位置Vuにいる観測者500に、この実物体40
0の背後に仮想物体410を融合させて見せるための複
合現実感画像を提示するものとする。ここで、視点位置
Vuでは、観測者500にはシーン510が見えている。
また、視点位置V0に設置された奥行き画像計測装置60
0からはシーン511が見えており、カメラ視点位置V0
から観測したシーン511の奥行き画像521が複合現
実感提示システムへと出力されているものとする。
像(即ち、視点位置Vuから観測したこのシーンの奥行き
画像520)が得られているとすれば、複合現実感提示
システムは、この物体400の背後に、正しい隠れの関
係で仮想物体410を描画することができる(53
0)。しかし、この複合現実感提示システムが利用でき
る奥行き画像は、カメラ視点位置V0から観測した奥行き
画像521である。観測者視点位置Vuは、カメラ視点位
置V0に比して右側を向いており、シーン510に示すよ
うに、物体400は、シーン511で見えるであろう位
置と比べて、より左側に観測されることとなる、シーン
510に対応する奥行き画像520も、シーン511に
対応した奥行き画像521に比してずれたものとなる。
従って、奥行き画像521に従って現実世界と仮想世界
の前後判定を行うと、531に示すように、本来ならば
手前に実物体は存在しないので隠されるべきではない仮
想物体410の一部が、誤って隠されてしまったり、反
対に、本来隠されるべきではない現実物体の一部が誤っ
て隠されてしまうことになる。
の問題点を解決するために提案されたもので、その目的
は、位置ずれを起こさせることない、視点位置の整合性
のとれた奥行き画像を獲得することのできる奥行き画像
計測装置及び奥行き画像計測方法を提案する。
景の奥行き情報を獲得するための奥行き画像計測装置
は、第1の視点位置から撮影することにより得られる第
1の撮影画像を取得する第1の撮影画像取得手段と、第
1の撮影画像から、第1の視点位置における奥行き画像
を生成する奥行き画像生成手段と、第2の視点位置から
撮影することにより得られる第2の撮影画像を取得する
第2の撮影画像取得手段と、第2の視点位置の視点位置
情報を推定する位置情報推定手段と、第2の視点位置の
視点位置情報に基づいて、生成された第1の視点位置で
の情景の奥行き画像を、第2の視点位置における第2の
奥行き画像に変形する変形手段と、第2の撮影画像を用
いて、第2の奥行き画像を修正する修正手段と、修正さ
れた第2の奥行き画像を出力する出力手段とを具備する
ことを特徴とする。
画像処理装置とユーザが装着するヘッドマウントディス
プレイとを有する複合現実空間提示システムであって、
ヘッドマウントディスプレイは、画像を撮影する第1の
撮影部と、画像を表示する表示部とを有し、位置が固定
されている画像処理装置は、複数の位置から画像を撮影
する第2の撮影部と、複数の位置から撮影された複数の
画像から、奥行き画像を生成する奥行き画像生成手段
と、第1の撮影部によって撮影された撮影画像に対応す
る視点位置情報を取得する位置情報取得手段と、視点位
置情報に応じて、奥行き画像を変形する変形手段と、視
点位置情報に応じてCG画像を生成する生成手段と、変
形された奥行き画像を用いて、第1の撮影部によって撮
影された撮影画像とCG画像を融合する融合処理手段
と、融合された画像を表示部に表示すべく、ヘッドマウ
ントディスプレイに出力する出力手段とを有することを
特徴とする複合現実空間提示システムによっても達成さ
れる。
獲得するための奥行き画像計測方法であって、第1の視
点位置から撮影することにより得られる第1の撮影画像
を取得する工程と、第1の撮影画像から、第1の視点位
置における奥行き画像を生成する工程と、第2の視点位
置から撮影することにより得られる第2の撮影画像を取
得する工程と、第2の視点位置の視点位置情報を推定す
る工程と、第2の視点位置の視点位置情報に基づいて、
生成された第1の視点位置での情景の奥行き画像を、第
2の視点位置における第2の奥行き画像に変形する工程
と、第2の撮影画像を用いて、第2の奥行き画像を修正
する工程と、修正された第2の奥行き画像を出力する出
力工程とを具備することを特徴とする奥行き画像計測方
法によっても達成される。
得するための奥行き画像計測方法をコンピュータ装置に
実現させるためのコンピュータプログラムを格納したコ
ンピュータ装置読み取り可能な記録媒体であって、コン
ピュータプログラムが、第1の視点位置から撮影するこ
とにより得られる第1の撮影画像を取得する工程のプロ
グラムと、第1の撮影画像から、第1の視点位置におけ
る奥行き画像を生成する工程のプログラムと、第2の視
点位置から撮影することにより得られる第2の撮影画像
を取得する工程のプログラムと、第2の視点位置の視点
位置情報を推定する工程のプログラムと、第2の視点位
置の視点位置情報に基づいて、生成された第1の視点位
置での情景の奥行き画像を、第2の視点位置における第
2の奥行き画像に変形する工程のプログラムと、第2の
撮影画像を用いて、第2の奥行き画像を修正する工程の
プログラムと、修正された第2の奥行き画像を出力する
工程のプログラムとを具備することを特徴とする記録媒
体によっても達成される。
本発明を適用した好適な実施形態に係る画像処理装置を
説明する。
00の原理的構成を示す。奥行き画像計測部100は、
前方のシーンをステレオ撮影するための2台のカメラ1
01R,101Lを有する。夫々のカメラで撮影された実
空間のシーンを表す画像信号はIR,ILとして奥行き推定
モジュール102に送られる。奥行き推定モジュール1
02は、画像信号IR,ILを入力として、カメラ101R
の視点位置(視点位置V0)における奥行き画像DV0を推
定する。奥行き画像計測部100は、奥行き画像修正部
120に奥行き画像DV0を出力する。
れ固定位置におかれるもので、一方、観測者は頭部に三
次元位置方位センサ112を装着する。三次元位置方位
センサ112と画像処理装置200とは信号を伝送する
バスラインを含むケーブルで接続されている。
視点位置Vuを推定し奥行き画像修正部120に出力す
る。視点位置推定部110は、センサ112の位置
(xS,yS,zS)と方位(ωS,φS,κS)(以下ではこ
れらをまとめて視点位置VSと呼ぶ)を入力し、あらかじ
め計測しておいたところの、センサ112と観測者50
0の視点位置との相対的な位置関係(オフセットVOFF)
をセンサ自身の視点位置VSに付加することにより、観測
者500の視点位置Vuを推定する。
測部100が計測した奥行き画像DV 0に変形処理を施
し、視点位置推定部110が推定した観測者の視点位置
Vuにおける奥行き画像DVuに変形する。この変形処理の
具体的動作については後述する。
奥行き計測装置の撮像部を装着することなく、観測者の
視点位置から見た奥行き画像を得ることが可能となる。
以上が、本実施形態の基本原理の説明である。
して第2図の実施形態装置を適用した場合の同装置の動
作を説明する。即ち、光学シースルー方式の複合現実感
提示システムのために第2図の画像処理装置を用いるこ
とを考える。この場合、画像計測装置200より出力さ
れた奥行き画像Dvuと、視点位置推定部110より出力
された観測者500の視点位置情報Vuは、複合現実感提
示システムの画像生成モジュール(不図示)へと入力され
る。更に、観測者500は頭部に光学シースルー方式の
HMD(不図示)を装着しており、画像生成モジュールが生
成した仮想世界の映像はHMDへ伝送され、観測者500
へ提示される。本発明の奥行き画像推定をビデオ・シー
・スルー方式のHMDに適用する場合については別の実施
形態で説明する。
10は、第1図に示された環境における観測者500の
視点位置Vuを推定する。また、奥行き画像修正部120
は、奥行き画像計測部100によって得られたカメラ1
01Rの視点位置V0における奥行き画像521を、観測
者視点位置Vuで得られるであろう奥行き画像522(第
3図を参照)に変形する。上記変形した奥行き画像52
2は、視点位置Vuからの奥行き画像520(第1図を参
照)に類似するはずである。従って、この変形奥行き画
像522に基づいて前後関係を判定しながら仮想物体を
描画して観測者に提示することで、視点位置Vuにおい
て、仮想物体410が実物体400と正しい前後関係に
あるように、複合現実感画像を観測者の眼に映ずること
ができる。
説明した実施形態の原理を適用した更に具体的な実施例
装置を3つあげて説明する。
り具体的に、かつ、奥行き画像生成の部分に限定して説
明した奥行き画像生成装置である。
画像を実空間とズレなくリアルタイムで生成する実施形
態の原理を複合現実感提示システムに適用したものであ
る。即ち、第2実施例は、光学シースルー方式のHMDを
用いた光学シースルー方式の複合現実感提示システムで
あり、第3実施例は、ビデオシースルー方式のHMDを用
いたビデオシースルー方式の複合現実感提示システムで
ある。
奥行き画像生成のための画像処理装置300のブロック
図を示す。第1実施例の画像処理装置300は、第2図
の実地形態と異なり、奥行き画像生成のための視点位置
の計測対象は、観測者500ではなく、カメラ113で
ある。この画像処理装置300は、カメラ113が観測
する画像IVCに対応した奥行き画像DVCを生成する。要素
111は、観測者ではなく台座を表すものとし、台座1
11にセンサ112とカメラ113が装着されているも
のとする。
を説明する。第5図は、視点位置推定部110の制御手
順を示す。
は、センサ112自身の視点位置Vs(xs,ys,zs,
ωs,φs,κs)を連続的に出力する(ステップS1
0)。尚、ω,φ,κは第6図に示すように夫々X軸,
Y軸,Z軸周りの回転角度である。
2から視点位置Vsを入力して、これに、前述のオフセッ
トVOFFを付加することでカメラ113の視点位置Vcを出
力する。即ち、視点位置推定部110は、台座111上
のセンサ112の視点位置Vsから、対応するビューイン
グ変換行列(即ち、世界座標系から視点座標系への変換
行列)Msを、
13の視点位置VcとのオフセットΔVCS=(ΔxCS,Δy
CS,ΔzCS,ΔωCS,ΔφCS,ΔκCS)は、システム構
築時にあらかじめ測定することが出来るのでMSの演算時
点では既知である。このオフセットに対応する変換行列
をΔMCSとすると、カメラ113の視点位置VCに対応す
るビューイング変換行列Mcは、
4)。
行列Mcを視点位置Vcの視点位置情報として、奥行き画像
修正部120に出力する(ステップS16)。
Rとカメラ101Lと奥行き画像推定モジュール102か
ら構成される。奥行き画像推定モジュール102は、カ
メラ101R(既知の視点位置V0にある)とカメラ10
1Lから入力した画像信号IR(IV0),ILを夫々入力し
て、これらの画像信号IR,ILに基づいて周知の三角測量
の原理で奥行き情報を演算する。
あって、奥行き画像DV0を生成出力する。
えた画像IR上の点(XR i,YR i)の、画像IL上での対応点(X
L i,YL i)を探索する。ここで、1対の対応点とは、対象
物体の同一点からの投影像を記録する画素である。
応付けられた点の組(XR i,YR i)と(X L i,YL i)について三
角測量を適用し、カメラ101Rから見た点(XR i,YR i)
の奥行き値Ziを求める。尚、この例ではカメラ101R
での視点を基準にしているが、カメラ101Lからの奥
行きを求めるように変更することは容易である。
を、奥行き画像DV0の座標(XR i,YR i)に格納する。これ
らの処理を画像IR内の全ての画素または特徴的な画素に
ついて行うことで、奥行き画像DV0を生成し、奥行き画
像修正部120に出力する(ステップS28)。
20は、奥行き画像計測部100から受け取ったところ
の、カメラ101での視点位置V0における奥行き画像D
V0を、台座111に装着されたカメラ113での視点位
置Vcにおける奥行き画像DVCに変形(warping)する。
理は以下のようである。視点位置V0で獲得された奥行き
画像DV0を空間に逆投影して、視点位置Vcに想定した撮
像面に再度投影することが(即ち、奥行き画像DVCに対
応する出力画像上の点(xi’,yi’)に奥行き値ZDiを与
えることが)、奥行き画像修正部120の基本的な動作
である。
視点位置推定部110より入力されるカメラ113の視
点位置情報Mc(前述したように、カメラ113の視点位
置は変換行列Mcとして得られている)と、既知の情報と
してあらかじめ入力されているカメラ101Rの視点位
置V0を表す視点位置情報M0に基づいて、カメラ101R
の視点位置V0からカメラ113の視点位置Vcへと移動す
るような三次元運動ΔMを、
ラ101Rの焦点距離をf0とする。また、カメラ101R
の視点位置V0での奥行き画像DV0の任意の点(xi,yi)で
の値がZi=DV0(xi,yi)であったとすると、第8図から
明らかなように、この点(xi,yi)は次式に従って、カメ
ラ101Rの撮像面上の点(xi,yi,f0)から、視点位置
V0におけるカメラ101Rの視点座標系における3次元
空間中の点(Xi”,Yi”,Zi”)に、
Zi”)は、視点位置V0からカメラ113の視点位置Vcへ
と移動するような三次元運動の行列ΔMが表す3次元座
標変換により、視点位置Vcにおけるカメラ113の視点
座標系において、
Di)に移動する筈である。カメラ113の焦点距離がfC
であったとすると、カメラ113の視点位置Vcでの視点
座標系の点(XDi,YDi,ZDi)は、第9図に示すように、
下記式で表される画像面上の点(xi’,yi’)に投影さ
れるはずである。
(xi’,yi’)の画素値として出力する。
像DV0をカメラ113の視点での奥行き画像DVCに変換す
るための、奥行き画像修正部120の処理手順を説明す
る。
像DV0の1つの点(xi,yi)を取り出し、ステップS32
で、EQ4に従って、この点を視点位置V0におけるカメラ
101の視点座標系に逆射影する。即ち、カメラ101
の視点座標系における点(xi,yi)の座標(Xi”,Yi”,Z
i”)を求める。ステップS34では、点(Xi”,Yi”,
Zi”)の、視点位置Vcにおけるカメラ113の視点座標
系からみた座標(XDI,YDI,ZDI)をEQ5に従って求め
る。次に、ステップS36でEQ6に従って奥行き画像の
変形後の位置(xi’,yi’)を求め、ステップS38で
は、この出力画像D VC上の画素(xi’,yi’)をZDiで埋
める。これらの処理を奥行き画像DV0上の全ての点に対
して施すことにより、warping処理、即ち、奥行き画像
の変形が達成される。
う奥行き画像DV0上の複数の点が変形後に出力画像DVC上
で同一の座標に投影された場合には(すなわち、
(xi1’,y i1’)=(xi2’,yi2’)となった場合に
は)、奥行き値(ZDi1,ZDi2)の小さな点の(すなわ
ち、より視点位置に近い点の)奥行き値をこの画素の値
とすればよい。
には、DV0上に対応点が存在しないために画素値が与え
られない画素が存在し、その結果奥行き画像DVCが「穴
あき」状態になってしまう場合がある。この「穴あき」
状態は、値の欠落した画素の画素値を値の得られている
周辺の画素の画素値の線形補間で補うことで、解消する
ことができる。また、例えば、"View Interpolation fo
r Image Synthesis" (S. E. ChenとL. Williams, In P
roceedings of SIGGRAPH 93, pages 279-288, Anaheim,
California, August 1993)の手法を用いることによっ
ても、この穴あき状態を解消することができる。
は、右側のカメラ101Rの視点位置をV0としている
が、いずれのカメラを基準とした奥行き画像を用いても
よい。
像計測部100は、2眼ステレオカメラを用いている
が、カメラ101の数は2個に限られることはない。奥
行き推定の精度を上げるためには、2個以上の方が好ま
しい。例えば、前述の"CMU Video-Rate Stereo Machin
e"に開示されているような多眼ステレオ法、或いはアク
ティブなレンジファインダを用いてもよい。また、奥行
き画像を計測できれば、他のいかなる装置、手法を用い
てもよい。
113の視点位置は、3次元センサ112の出力に基づ
いて視点位置推定部110が推定した。カメラ113の
視点位置を、カメラ113自身の出力を用いて推定する
方法を提案する。第4図において、視点位置推定部11
0への他方の入力経路は、台座111に装着されたカメ
ラ113からの画像信号IVCである。視点位置推定部1
10が画像信号IVCを入力する場合には、視点位置推定
部110はこの画像信号IVCからカメラ113の視点位
置Vcを推定するように変更することができる。この場
合、視点位置推定部110は、時系列で入力される三次
元位置方位センサ112あるいはカメラ113のいずれ
かからの信号に基づいて、カメラ113の視点位置Vcを
時系列で抽出する。この場合、位置センサ112を装着
しない構成も考えられる。また、位置センサ112とカ
メラ113からの信号を併用して、視点位置Vcを求める
手法を用いることもできる。
求める手法は、例えば、4つの位置が既知のランドマー
クをカメラによって撮像し、これらのランドマークの画
像座標から視点位置を求める手法として、例えば、ラン
ドマークの見かけの大きさsiが視点からランドマークま
での距離に反比例することを利用した、Mellor(J. P.
Mellor: “Realtime camera calibration for enhanced
reality visualization,” Proc. CVRMed ’95, pp.47
1-475, 1995.)の方法がある。
要ではない。カメラ113に位置センサ112を装着し
てもよいし、カメラ113の信号から視点位置Vcを推定
する場合には位置センサ112を装着する必要もない。
画像を推定する視点位置はカメラ113の視点位置のみ
であったが、用途によっては、第11図に示すように、
独立して移動する複数のカメラ(113A,113B,1
13C,...)の視点位置からの奥行き画像を生成しても
よい。この場合、夫々に対応する台座(111A,11
1B,111C,...)に3次元センサ(112A,112
B,112C,...)を装着し、夫々のカメラの視点位置V
cA,VcB,VcC,...に対応する奥行き画像DVC A,DVC B,D
VC C,...を、対応する視点位置推定部(110A,11
0B,110C,...)や奥行き画像修正部(120A,1
20B,120C,...)によって推定する。
は、1台で複数の観測者のカメラについての奥行き画像
を生成するので、奥行き画像サーバとして機能する。
台座に装着されるカメラはカメラ113のみであった。
このカメラは1台に限定する必要はなく、例えば、左右
2台のカメラ113Lと113Rを台座に装着し、夫々の
視点位置VcL,VcRに対して上記と同様の処理を行い、夫
々の視点位置での奥行き画像DVC L,DVC Rを求めてもよ
い。さらに、3台以上のカメラを装着する場合も同様に
行うことができる。
点位置は、カメラ113の視点位置に限定する必要はな
い。用途に応じて、台座111のセンサ位置Vsから任意
のオフセットを付加した視点位置を設定し、その視点位
置での奥行き画像を求めてもよい。さらに、複数の視点
位置を設定し、夫々の視点位置での奥行き画像を求める
事もできる。
ある必要はない。但し、可動の場合は、視点位置推定部
110は更に、カメラ101Rの視点位置VOを表わす視
点位置情報MOをリアルタイムで推定し、奥行き画像修正
部へと出力する必要がある。カメラ101Rの視点位置V
Oを表わす視点位置情報MOの推定は、例えば、カメラ1
01Rに三次元位置方位センサ103を装着することで
行うことができる。
の位置方位の情報を含むものであれば座標変換行列の形
式でなくともよく、他のいかなる形式であっても良い。
例えば、位置と方位の情報(Xc、Yc、Zc、ωc、
φc、κc)をそのまま出力するように構成しても良
い。
行き画像計測部は1台が設けられていたが、奥行き画像
計測部は1組に限られることはない。第12図に示すよ
うに、2組以上の奥行き画像計測部100A,100
B,...を視点V0 A,V0 B,...に設置し、夫々から得られ
る奥行き画像DV0 A,DV0 B,...を用いて奥行き画像DVCを
生成することで、精度を向上させることができる。
DV0 B,...を用いて、一台のカメラのための奥行き画像D
VCを生成するための奥行き画像修正部120の制御手順
を示す。
画像計測部100A,100B,...から奥行き画像
DV0 A,DV0 B,...を入力する。次に、ステップS42に
おいて、第9図の処理手順により、夫々の奥行き画像に
基づいて、視点位置Vcに対応する奥行き画像DVC A,
DVC B,...を生成する。さらに、ステップS44で、生
成された奥行き画像DVC A,DVC B,...を統合すること
で、奥行き画像DVCを生成する。ステップS46では、
奥行き画像DVCに生じた穴埋め処理を行い、最後にステ
ップS48で、奥行き画像DVCを出力する。
々な方法で行うことができる。例えば、奥行き画像
DVC A,DVC B,...の同一座標の画素値の単純な平均値をD
VCの画素値とすればよい。ただしこの場合は、値の得ら
れていない画素を参照しない。また、奥行き画像DVC A,
DVC B,...の同一座標の画素値の最小値をDVCの画素値と
してもよい。
cに最も近い視点位置を選び、この視点位置によって得
られる奥行き画像をDVCとし、このDVCの中で値の得られ
ていない画素についてのみ、残りの視点位置から得られ
る奥行き画像の同一座標の画素値によって補完すること
もできる。本変形例における奥行き画像計測部100
は、前述の2眼ステレオカメラや多眼ステレオカメラ、
アクティブなレンジファインダのように奥行き画像を計
測可能な手段であればいかなる装置、方法を用いてもよ
い。また、奥行き画像計測部100を100A、100
B、・・・と複数設け、これらを組み合わせて用いるこ
ともできる。
実施形態の原理を光学シースルー方式の複合現実感提示
システムに適用したものである。第14図は、第2実施
例のシステムを示すブロック図であり、第2図と同じ番
号の要素は実施形態の要素と同じである。ただし、第1
4図中の要素111は光学シースルー方式のHMDを表す
ものとする。
111、画像処理装置700、画像生成モジュール40
0、三次元CGデータベース401によって構成される。
HMD111は、光学シースルー方式であるために、右目
用画像を表示するLCD114Rと左目用画像を表示するLC
D114Lが設けられている。また、視点位置を精度よく
検出するために、三次元位置方位センサ112がHMD1
11に設けられている。
4図に示すように、実施形態の画像処理装置200(第
2図)に比して、以下の点が異なっている。まず第1
に、画像処理装置700が出力しようとする奥行き画像
は、観測者500(不図示)の左右の視点位置Vu R,Vu L
における奥行き画像である。第2に、視点位置推定部1
10の出力が、奥行き画像修正部120のみならず画像
生成モジュール400にも出力されている。即ち、視点
位置推定部110は画像生成モジュール400に対し
て、画像提示時における観測者500の左右の視点位置
Vu R,Vu Lを表す行列Mu R,Mu Lを出力する。さらに奥行き
画像修正部120は、視点位置推定部110から入力し
た行列Mu L、Mu Rが表わす観測者500の左右の視点位置
Vu R、Vu Lの夫々に対応した奥行き画像DVu R,DVu Lを生成
し、画像生成モジュール400へと出力する。
定部110から入力した行列MU L、M U Rが表す視点位置Vu
R,Vu LをCG描画の視点位置として、また、画像処理装置
700より入力した奥行き画像DVu R,DVu Lが表現する現
実世界の物体までの距離にしたがって、三次元CGデータ
ベース401を用いて複合現実感画像を生成し、これを
LCD114へと提示する。
1図に示した仮想物体410のCGデータを記憶する。
D111を装着した際の観測者500の左右の視点位置V
u R,Vu Lを表すビューイング変換行列Mu R,Mu Lを、奥行
き画像修正部120と画像生成モジュール400に出力
する。ビューイング変換行列Mu R,Mu Lを求めるための処
理は、視点位置が観測者500の左右の視点位置である
ことを除けば、第1実施例のそれと同じであるので、説
明を省略する。
理は第1実施例のそれと同じであるので、説明を省略す
る。
変形後の奥行き画像は、観測者の視点位置からLCD11
4を通して観測される現実世界の奥行き画像である。即
ち、観測者の視点に等価な仮想的なカメラを想定し、そ
の仮想カメラの焦点距離をfU( Uはユーザ(観測者)を
表す)で表わした場合に、視点位置V0で獲得された奥行
き画像DV0を空間に逆投影して、視点位置Vuに想定した
焦点距離fUの仮想カメラの撮像面に再度投影すること
が、第2実施例における奥行き画像修正部120の動作
である。
すEQ6におけるカメラ113の焦点距離fCの値を、仮想
カメラの焦点距離fUに置き換えることによって達成され
る。即ち、
の奥行き画像修正部は以下の点が異なっている。即ち、
第14図に示すように、視点位置を表す行列Muとして、
第2実施例の奥行き画像修正部120には、観測者50
0の左右の視点位置Vu R,Vu Lに対応する2つの行列
Mu R,Mu Lが入力され、奥行き画像として、左右の視点位
置Vu R,Vu Lに対応する2つの奥行き画像DVu R,DVu Lが出
力される。これは、左右の視点に対して夫々独立に上記
の奥行き修正処理を行うことで実現される。
ル400の構成を示す。まず、観測者の右眼に提示され
るLCD114Rへの表示画像の生成について説明する。
ータベース401からのCGデータと、視点位置推定部1
10から入力したMU Rが表わす観測者500の右眼の視
点位置Vu Rに基づいて、そのCGの濃淡画像(或いはカラ
ー画像)と奥行き画像を生成する。生成された濃淡画像
(或いはカラー画像)はマスク処理部403に、奥行き
画像は前後判定処理部404に送られる。
部120からの変形された奥行き画像DVu Rをも入力す
る。この奥行き画像DVu Rは実空間の奥行き情報を表す。
従って、前後判定処理部404は、表示されるべきCG画
像の奥行きと実空間の奥行きとを画素ごとに比較して、
現実の奥行きがCGの奥行きより手前になる全ての画素に
“0”を、手前にならない画素に“1”を設定したマス
ク画像を生成して、マスク処理部403に出力する。
るということは、CG画像上の同一座標に描画されたCG図
形が現実空間の物体より後ろにあり、CG図形は隠されて
いて見えないはずであると判断されたことに相当する。
いて、CG画像をマスク処理する。即ち、マスク画像上の
各々の座標について、その座標の画素値が0であれば、
CG画像上の同一座標の画素値を0に設定する。マスク処
理部403からの出力はLCD114Rに出力される。
表示画像の生成も、同様の過程で行われる。かくして、
第2実施例の装置によれば、観測者の視点位置における
奥行き画像に基づいてCG画像のマスク処理が施されるの
で、現実空間とCG画像との矛盾のない複合現実感を与え
ることができる。
別個の映像を提示する例を示したが、単眼の表示系をも
つ光学シースルー方式の複合現実感提示システムの場合
には、観測者の一方の眼にのみ対応した処理を行えばよ
い。
第15図の構成をとらなくてもよく、奥行き画像DVu Rを
考慮して、現実物体の手前に来ると推測される点のみを
可視としながら視点位置Vu Rに対応したコンピュータグ
ラフィック図形を描画して出力するものであれば、周知
のコンピュータグラフィック手法を用いたいずれの構成
をとってもよい。例えば、奥行き画像DVu Rをデプスバッ
ファに入力し、その後に視点位置Vu Rに対応したコンピ
ュータグラフィック図形を描画することでも、同様の動
作が実現できる。
実施形態の原理をビデオシースルー方式の複合現実感提
示システムに適用したもので、その構成は第16図に示
される。
の構成要素は、構成的には、第14図の第3実施例のシ
ステム構成と比較すれば、前者(第3実施例)は、HMD
111が遮蔽型になっている点、位置センサ112の代
わりにカメラ113L,113Rを有しており、視点位置
推定部110がカメラ113L,113Rが取得した画像
から夫々のカメラの視点位置VcR,VcLを推定できるよう
にした点で、後者(第3実施例)と異なる。また、第3
実施例は、ビデオシースルー方式を採用しているること
から、画像生成モジュール400の構成も後述するよう
に第3実施例と異なり、更に、LCD114に表示すべき
画像の一部はカメラ113から得ることとなる。
6図)は、HMD111に装着された左右のカメラ113
R,113Lの視点位置VcR,VcLを表すビューイング変換
行列McR,McLを、奥行き画像修正部120と画像生成モ
ジュール400に出力する。
110は位置センサ112によって視点位置を検出して
いたが、この第3実施例の視点位置推定部110は、カ
メラ113R,113Lからの画像に基づいて視点位置を
推定する。
法には色々のものがある。例えば、実空間上の位置が既
知の特徴点の画像内における座標値の変化を追跡するこ
とによって、視点位置の移動を推定することができる。
物体600は特徴点として頂点Q1,Q2,Q3を有するもの
とする。頂点Q1,Q2,Q3の実空間上での座標値は既知で
あるとする。時刻t1における頂点Q1,Q2,Q3の画像上
での夫々の座標値と、それら頂点の既知の実空間上での
座標値から、視点Vt1を演算することができる。また、
カメラが移動して時刻t2において同図に示すような画
像が得られたとしても、同じようにして、視点位置Vt2
を計算することができる。
数は、アルゴリズムによって変更されるべきである。例
えば、" A self-tracking augmented reality system "
(U. NeumannとY. Cho, In Proceedings VRST'96, pag
es 109-115, 1996)のアルゴリズムでは3点の特徴点
が、"画像中の特徴点に基づく実写画像とCG画像との動
画像合成システム" (中沢,中野,小松,斎藤,映像情
報メディア学会誌,Vol.51,No.7,pages 1086-1095,1
997)のアルゴリズムでは4点の特徴点が必要とされる。
さらに、左右のカメラ113で撮影された2枚の映像か
ら、視点位置を推定する手法(例えば、"Superior augm
ented reality registration by integrating landmark
tracking and magnetic tracking," (A. State et a
l., Proceedings SIGGRAPH'96, pages 429-438, 199
6))を用いることも可能である。
10も、カメラ113R,113Lの視点位置VcR,VcLを
得た後は、第1実施例と同様の処理にしたがって、カメ
ラ113R,113Lの視点位置VcR,VcLを表すビューイ
ング変換行列McR,McLを、夫々、奥行き画像修正部12
0と画像生成モジュール400に出力する。
理は第1実施例のそれと同じであるので、説明を省略す
る。
カメラ113R,113Lの視点位置VcR,VcLを表すビュ
ーイング変換行列McR,McLと、視点位置V0における奥行
き画像DV0を入力し、左右の視点位置に対応する2つの
奥行き画像DVC R,DVC Lを出力する。
置であるので、奥行き画像DVCへの投影を表す第6式に
おける焦点距離には、カメラ113の焦点距離fCの値を
用いればよい。
ル400の構成を示す。第3実施例の画像生成モジュー
ル400(第15図)と比較すると、第3実施例のCG描
画部402と前後判定処理部404は第3実施例のそれ
らと実質的に同一である。一方、融合処理部405は、
カメラ113からの実空間の画像とCG描画部402から
の画像とを融合して出力する。
提示されるLCD114Rへの表示画像の生成についてのみ
説明する。LCD114Lへの表示画像の生成も同様の手続
きによって行われる。
は、三次元CGデータベース401からのCGデータと、視
点位置推定部110から入力した行列MC Rが表すカメラ
113Rの視点位置VcRに基づいて、そのCGの濃淡画像
(或いはカラー画像)と奥行き画像を生成する。生成さ
れた濃淡画像(或いはカラー画像)は融合処理部405
に、奥行き画像は前後判定処理部404に送られる。
のそれと同じであるので、説明を省略する。但し、第3
実施例では、前後判定処理部404が出力する画像を、
マスク画像ではなく前後判定画像と呼ぶ。
いて、描画部402からのCG画像(濃淡或いはカラー画
像)とカメラからの実空間の濃淡画像(或いはカラー画
像)IVc Rとを融合する。即ち、前後判定画像上の各々の
座標について、その座標の画素値が1であれば、CG画像
上の同一座標の画素値を出力画像上の同一座標の画素値
に、画素値が0であれば、実画像上の同一座標の画素値
を出力画像上の同一座標の画素値へと設定する。融合処
理部405からの出力はLCD114Rに出力される。
第18図の構成をとらなくてもよく、奥行き画像DVc Rを
考慮して、現実物体の手前に来ると推測される点のみを
可視としながら視点位置Vc Rに対応したコンピュータグ
ラフィック図形を描画して、実空間の濃淡画像(或いは
カラー画像)IVc Rに重畳して出力するものであれば、周
知のコンピュータグラフィック手法を用いたいずれの構
成をとってもよい。例えば、実空間の濃淡画像(或いは
カラー画像)IVc Rを描画した後に、奥行き画像DVc Rをデ
プスバッファに入力し、その後に視点位置Vc Rに対応し
たコンピュータグラフィック図形を描画することでも、
同様の動作が実現できる。
測者の視点位置における奥行き画像に基づいて融合処理
が施されるので、現実空間の画像とCG画像との矛盾のな
い複合現実感を与えることができるという、第3実施例
と同様な効果を発揮することができる。
左右のカメラ113R,113Lの映像に基づいた映像を
提示する例を示したが、単眼のLCD114を持つビデオ
シースルー方式の複合現実感提示システムの場合には、
カメラ113を1台のみ装着し、観測者の一方の眼にの
み対応した処理を行えばよい。また、左右の目に対応し
たLCD114L,114Rを持つビデオシースルー方式の
複合現実感提示システムの場合でも、単眼のカメラ11
3から得られる映像のみを処理し、同一の映像をLCD1
14L,114R双方に表示することも可能である。
記第3実施例では、カメラ113はHMD111に装着
されていたが、HMD111を用いずに、カメラ113
が取得した画像に対してコンピュータグラフィック図形
を重畳し、据え置き型のディスプレイ装置に提示するよ
うな、カメラがディスプレイに装着されていないタイプ
の複合現実感提示システムにおいても、本発明を適用す
ることができる。この場合、画像生成モジュール400
が出力する画像(複合現実感画像)は、HMD111で
はなくディスプレイ装置115に出力される。
感提示システムにおける現実世界と仮想画像との前後判
定への適用を説明したものであったが、本発明の奥行き
画像測定装置は、複合現実感提示システムにおける現実
世界と仮想画像との衝突判定にも適用可能である。
定装置は、移動ロボットの環境入力装置など、実環境の
奥行き情報を移動物体の視点位置で獲得することが要求
されるアプリケーションには、いずれも適用可能であ
る。
第2実施例における視点位置推定部は三次元位置方位セ
ンサを用い、第3実施例における視点位置推定部はカメ
ラからの画像情報を用いていたが、各実施例はいずれの
手法を用いても実現可能である。
における視点位置推定部110において、画像特徴によ
る視点位置推定を用いた場合、特徴点の実空間上の位置
が未知であっても、視点位置を得ることができる。
は、奥行き画像DV0を奥行き画像修正部120へ出力す
る他に、奥行き画像DV0と、視点位置V0でカメラ101
によって撮影された画像IV0を視点位置推定部110へ
出力する。
と、視点位置V0でカメラ101によって撮影された画像
IV0を奥行き画像計測部100より入力し、画像IV0から
特徴的な点を数点(Pi:i=1,2,3,...)抽出
し、視点位置V0の視点座標系における座標(Xi”,
Yi”,Zi”)をEQ4によって求め、世界座標系における
各点の座標(XWi,YWi,ZWi)を、
はさらに、カメラ113から画像IVCを入力し、画像IVC
上で点Piの対応点を探索し、画像IVC上で各特徴点Pi
の画像座標と3次元情報(即ち世界座標)に基づいて、
視点位置Vcを推定する。この処理は、第3実施例の視点
位置推定部110の動作で示した処理と同様に、様々な
手法を用いることが可能である。この変形例4によれ
ば、実空間とズレのない仮想画像を生成する場合などに
使用可能な視点位置センサを提供することができる。
における視点位置推定部110において、画像特徴によ
る視点位置推定を用いた場合、環境中におけるカメラ1
01の位置が不定であっても、カメラ113の視点位置
Vcからみた奥行き画像DVcを計測することができる。
画像計測部100は、奥行き画像DV 0を奥行き画像修正
部120へ出力する他に、奥行き画像DV0と、視点位置V
0でカメラ101によって撮影された画像IV0を視点位置
推定部110へ出力する。
と、画像IV0を奥行き画像計測部100より入力し、画
像IV0から特徴的な点を数点(Pi:i=1,2,
3,...)抽出し、視点位置V0の視点座標系における座
標(Xi”,Yi”,Zi”)をEQ4によって推定する。
13から画像IVCを入力し、画像IVC上において各特徴点
Piの対応点を検出する。視点位置推定部110はさら
に、対応点の得られた特徴点Piの画像IVC上での画像座
標と視点位置V0の視点座標系における3次元座標に基づ
いて、視点位置V0の視点座標系における視点位置Vcを推
定し、視点位置V0から視点位置Vcへの視点変換行列MCを
奥行き画像修正部120へと出力する。この処理には、
視点位置V0の視点座標系自身を世界座標系と定義するこ
とで、第3実施例の視点位置推定部110の動作で示し
た処理と同様に、様々な手法を用いることが可能であ
る。
の原点に位置し変換行列MOが単位行列となるので、奥行
き画像修正部120は、EQ5の座標変換演算に用いる行
列ΔMとして、視点位置推定部110から入力した視点
変換行列MCを用いることができる。
置が不定であっても、カメラ113の視点位置Vcから見
た奥行き画像DVcを計測することが可能になる。
に変形後の奥行き画像を複数生成する必要がある場合に
おいて、視点位置推定部110は、代表的な視点位置
(例えば右のカメラ113Rの視点位置)を表す行列
(例えばMcR)のみを出力しても良い。この場合、奥行
き画像修正部120は、その内部で、各視点位置の相対
的な位置関係に基づいて、夫々の視点位置を表す行列Mc
を演算する。
て、奥行き画像生成装置の出力する画像は、現実空間の
奥行き値そのものを表すものでなくても良い。即ち、奥
行き情報と一対一に対応する例えば視差の情報を保持し
た視差画像でも良く、この場合の演算は、ステレオ画像
計測において通常用いられるような奥行き情報と視差情
報との対応関係に基づいて、容易に行うことができる。
て、画像処理装置200,300,700が出力する情
報は視点位置Vcにおける奥行き画像DVCのみでなくても
よく、奥行き画像DVCと共に、奥行き画像DVCの各画素の
ステータスを同一座標の画素の画素値として記録したス
テーテス画像EVCを出力しても良い。
画像DV0を生成する際に、例えば各画素毎に対応の確か
らしさを数値化した確信度を求め、対応する座標へと記
録したステーテス画像EV0を生成し、奥行き画像DV0と共
にステーテス画像EV0を奥行き画像修正部へと出力す
る。奥行き画像修正部は、奥行き画像DV0と共にステー
テス画像EV0を入力し、奥行き画像DVCを生成するととも
に、ステーテス画像EV0にも同様な変形(Warping)を施
し、奥行き画像DVCの各画素に対応したステーテス画像E
VCを生成する。このステーテス画像EVCの生成は、例え
ば、奥行き画像DVCを生成した後に、奥行き画像DVCの各
画素に対応する奥行き画像DV0の画素の座標を求め、同
一座標におけるステーテス画像EV0の画素値を、対応す
るステーテス画像EVCの画素値へ代入することで実現さ
れる。
としては、対応するDVCの画素値が変形処理によってDV0
から投影されたものか、穴埋め処理によって補完された
ものかを記録することも可能であり、さらに、複数の情
報を夫々に格納した複数のステータス画像を出力しても
よい。
それぞれの奥行き画像DV0 A,DV0 B,...のステータス画
像EVC A,EVC B,...(視点位置Vcにおける奥行き画像DVC
A,DV C B,...のステータスをそれぞれ示している)を、
奥行き画像DVC A,DVC B,...の統合処理に利用すること
で、信頼度の高い奥行き情報を得ることが可能になる。
これは、例えばステータス画像EVC A,EVC B,...の同一
座標の画素値を比較し、最も信頼度の高いステータスに
対応する奥行き画像の画素値を選択することで実現され
る。
て、画像処理装置200,300,700が出力する情
報は、3次元センサ112やカメラ113が情報を出力
した時点(時刻t)での視点位置VC tの奥行き画像では
なく、台座またはHMD111の動きを予測して、未来の
(奥行き画像が利用されるであろう時刻(時刻t+α)
における)視点位置VC t+αの奥行き画像であってもよ
い。このとき視点位置推定部110は、時刻tまでに入
力された情報から時刻t+αにおける視点位置Vct+α
を推定し、奥行き画像修正部120へと出力する。
ータ上での演算時間がかかる。特に観測者が移動してい
る場合には、この遅れは無視できず、演算されて得られ
た奥行き画像は、上記演算時間分だけ過去の時点での奥
行き画像であるために、このような遅れた奥行き画像を
用いて複合現実感画像を観測者に呈示したのでは、位置
ずれの発生が起こってしまう。ところが、上記のように
未来の時刻における奥行き画像を予想することによって
上記時間遅れはキャンセルされる。
ける奥行き画像修正部120において、視点位置Vcがカ
メラ113の視点位置である場合、出力である奥行き画
像DVCの精度を向上させるために、カメラ113の画像I
VCを利用することができる。即ち、奥行き画像修正部1
20は、視点位置V0における奥行き画像DV0と視点位置V
Cを表す行列Mcの他に、カメラ101から画像IV0を、カ
メラ113から画像IVCを入力し、これらの情報に基づ
いて、第10図の手順によって生成される奥行き画像D
VCを修正する。
る。例えば、第10図の手順によって、奥行き画像DV0
の座標(xi,yi)の奥行き値が奥行き画像DVCの座標
(xi’,yi’)に投影されたとする。このとき、画像IV0
の対応する座標(xi,yi)の画素値と、画像IVCの対応す
る座標(xi’,yi’)の画素値とを比較することによ
り、この投影が正しいものであるかどうかを検証するこ
とが可能となる。即ち、この画素値の差(カラー画像の
場合には、RGB距離や、赤,青,緑夫々のバンドでの差
分の絶対値の合計、または代表するバンド(例えば緑)
の差分の絶対値など)が予め定めたある一定値以上を持
つ場合には、この投影は正しくないものと判断し、奥行
き画像DVCの座標(xi’,yi’)の値を削除する。また、
投影の正誤判定は、注目する画素のみの比較ではなく、
例えば、注目する画素を中心とした近傍領域の相関値と
いった、画像特徴の対応探索に従来より用いられている
ようないずれの処理を用いることもできる。
された奥行き画像DVCの「穴あき」状態の解消に利用す
ることも可能である。即ち、奥行き画像DVC上の座標
(xi’,yi’)の値が「穴あき」になっている場合に、
画像IVC上の対応する座標(xi’,yi’)の画素値と、そ
の近傍領域の画素値との比較から、奥行き画像DVCの座
標(xi’,yi’)の値を決定する。この処理は、例えば
以下のように行うことができる。まず第一に、画像IVC
上の座標(xi’,yi’)の近傍領域で、座標(xi’,
yi’)の画素値と画素値が一致する画素(xj’,
yj’)を抽出し、抽出された各々の点に対応する奥行
き画像DVC上の画素(xj’,yj’)の値のヒストグラム
を作成する。作成されたヒストグラムの中で、最も頻度
の高い奥行き値Dを選択し、この値Dを画像IVC上の座標
(xi’,yi’)に代入する。以上の処理を、奥行き画像D
VC上で「穴あき」の生じている全ての点に対して行うこ
とで、「穴あき」状態の解消が実現される。また、上記
の穴埋め処理は、ヒストグラムの作成に用いる領域を注
目画素毎の近傍領域に限定する必要は必ずしもなく、画
像全体で単一のヒストグラムを作成してもよく、さら
に、奥行き値の得られている他の画素の画像IVC上での
画素値との様々な類似性に基づいて、決定することがで
きる。
例における奥行き画像修正部120では、奥行き画像D
V0の全ての画素に対して上記の変形処理を行ったが、他
の方法によっても同様な効果を得ることができる。例え
ば、奥行き画像DV0上の一定間隔毎の画素に対してのみ
上記の変形処理を行い、それによって生成された画像D
Vc(又はDVu)上の他の(値の求まっていない)画素に
関しては、内挿補間によって値を求めるという方法を採
っても良い。また、奥行き画像DV0に周知のパッチ分割
処理を適用し、パッチの頂点に関してのみ上記変形処理
を行うように構成することもできる。本変形例に拠れ
ば、奥行き画像計測の高速化が実現できる。
施例において、画像生成モジュール400が使用する視
点位置情報は、必ずしも画像処理装置700(または2
00)の視点位置推定部110からの出力を使用しなく
てもよい。この場合、例えば周知の複合現実感システム
で用いられている他の任意の方法を用いて視点位置情報
を得ることができる。
空間とズレのない奥行き画像若しくは視差画像、さらに
はステータス画像を生成することができる。
説明する図。
置200のブロック図。
画像が位置ずれを起こさない理由を説明する図。
成を示すブロック図。
定部110の制御手順を示すフローチャート。
(X、Y、Z)及び方位(ω,φ,κ)との関係を説明する
図。
計測部100の動作手順を説明するフローチャート。
修正部120の動作原理を説明する図。
修正部120の動作原理を説明する図。
像修正部120の動作手順を説明するフローチャート。
者がいるシステムの構成を示す図。
の視点位置(カメラ)を有するシステムの構成を示す
図。
修正部120の動作手順を説明するフローチャート。
合現実感提示システムの構成を示すブロック図。
の構成を示すブロック図。
複合現実感提示システムの構成を示すブロック図。
の方法を説明する図。
の構成を示すブロック図。
Claims (10)
- 【請求項1】 情景の奥行き情報を獲得するための奥行
き画像計測装置であって、第1の視点位置から撮影することにより得られる第1の
撮影画像を取得する第1の撮影画像取得手段と、 前記第1の撮影画像から、前記 第1の視点位置における
奥行き画像を生成する奥行き画像生成手段と、第2の視点位置から撮影することにより得られる第2の
撮影画像を取得する第2の撮影画像取得手段と、 前記 第2の視点位置の視点位置情報を推定する位置情報
推定手段と、前 記第2の視点位置の視点位置情報に基づいて、前記生
成された前記第1の視点位置での前記情景の奥行き画像
を、前記第2の視点位置における第2の奥行き画像に変
形する変形手段と、前記第2の撮影画像を用いて、前記第2の奥行き画像を
修正する修正手段と、 前記修正された 第2の奥行き画像を出力する出力手段と
を具備することを特徴とする奥行き画像計測装置。 - 【請求項2】 前記第2の奥行き画像の画素値の座標に
対応する前記第1の撮影画像における画像データと、前
記第2の奥行き画像の画素値に対応する前記第2の撮影
画像における画像データとを比較する比較手段を有する
ことを特徴とする請求項1記載の奥行き画像計測装置。 - 【請求項3】 前記比較の結果に応じて、前記第2の奥
行き画像の画素値を削除することを特徴とする請求項2
記載の奥行き画像計測装置。 - 【請求項4】 前記第2の奥行き画像における穴あき状
態を、該穴あきの画素の値を、近傍領域の画素から求め
ることを特徴とする請求項1又は3記載の奥行き画像計
測装置。 - 【請求項5】 さらに、 前記視点位置情報に基づき、CG画像を生成するCG画
像生成手段と、 前記修正された第2の奥行き画像を用いて、前記第2の
撮影画像と前記CG画像を融合する融合処理手段とを有
することを特徴とする請求項1乃至4のいずれ かに記載
の奥行き画像計測装置。 - 【請求項6】 さらに、前記融合処理手段によって生成
された画像を表示するヘッドマウントディスプレイを有
し、 前記第2の撮影画像取得手段は、前記ヘッドマウントデ
ィスプレイに備えられていることを特徴とする請求項1
乃至5のいずれかに記載の奥行き画像計測装置。 - 【請求項7】 前記奥行き画像生成手段は、前記第1の
視点位置における奥行き画像とともに、確信度を示すス
テータスデータを出力することを特徴とする請求項1乃
至6のいずれかに記載の奥行き画像計測装置。 - 【請求項8】 位置が固定されている画像処理装置とユ
ーザが装着するヘッドマウントディスプレイとを有する
複合現実空間提示システムであって、 前記ヘッドマウントディスプレイは、 画像を撮影する第1の撮影部と、 画像を表示する表示部とを有し、 前記位置が固定されている画像処理装置は、 複数の位置から画像を撮影する第2の撮影部と、 前記複数の位置から撮影された複数の画像から、奥行き
画像を生成する奥行き画像生成手段と、 前記第1の撮影部によって撮影された撮影画像に対応す
る視点位置情報を取得する位置情報取得手段と、 前記視点位置情報に応じて、前記奥行き画像を変形する
変形手段と、 前記視点位置情報に応じてCG画像を生成する生成手段
と、 前記変形された奥行き画像を用いて、前記第1の撮影部
によって撮影された撮影画像と前記CG画像を融合する
融合処理手段と、 前記融合された画像を前記表示部に表示すべく、前記ヘ
ッドマウントディスプレイに出力する出力手段とを有す
ることを特徴とする複合現実空間提示システム。 - 【請求項9】 情景の奥行き情報を獲得するための奥行
き画像計測方法であって、 第1の視点位置から撮影することにより得られる第1の
撮影画像を取得する工程と、 前記第1の撮影画像から、前記第1の視点位置における
奥行き画像を生成する工程と、 第2の視点位置から撮影することにより得られる第2の
撮影画像を取得する工程と、 前記第2の視点位置の視点位置情報を推定する工程と、 前記第2の視点位置の視点位置情報に基づいて、前記生
成された前記第1の視点位置での前記情景の奥行き画像
を、前記第2の視点位置における第2の奥行き画像に変
形する工程と、 前記第2の撮影画像を用いて、前記第2の奥行き画像を
修正する工程と、 前記修正された第2の奥行き画像を出力する出力工程と
を具備することを特徴とする奥行き画像計測方法。 - 【請求項10】 情景の奥行き情報を獲得するための奥
行き画像計測方法をコンピュータ装置に実現させるため
のコンピュータプログラムを格納したコンピュータ装置
読み取り可能な記録媒体であって、前記コンピュータプ
ログラムが、 第1の視点位置から撮影することにより得られる第1の
撮影画像を取得する工程のプログラムと、 前記第1の撮影画像から、前記第1の視点位置における
奥行き画像を生成する工程のプログラムと、 第2の視点位置から撮影することにより得られる第2の
撮影画像を取得する工程のプログラムと、 前記第2の視点位置の視点位置情報を推定する工程のプ
ログラムと、 前記第2の視点位置の視点位置情報に基づいて、前記生
成された前記第1の視点位置での前記情景の奥行き画像
を、前記第2の視点位置における第2の奥行き画像に変
形する工程のプログラムと、 前記第2の撮影画像を用いて、前記第2の奥行き画像を
修正する工程のプログラムと、 前記修正された第2の奥行き画像を出力する工程のプロ
グラムとを具備するこ とを特徴とする記録媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000085145A JP3450792B2 (ja) | 1999-03-25 | 2000-03-24 | 奥行き画像計測装置及び方法、並びに複合現実感提示システム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP8245499 | 1999-03-25 | ||
JP11-82454 | 1999-03-25 | ||
JP2000085145A JP3450792B2 (ja) | 1999-03-25 | 2000-03-24 | 奥行き画像計測装置及び方法、並びに複合現実感提示システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2000341721A JP2000341721A (ja) | 2000-12-08 |
JP3450792B2 true JP3450792B2 (ja) | 2003-09-29 |
Family
ID=26423465
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000085145A Expired - Fee Related JP3450792B2 (ja) | 1999-03-25 | 2000-03-24 | 奥行き画像計測装置及び方法、並びに複合現実感提示システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3450792B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103518372A (zh) * | 2011-05-19 | 2014-01-15 | 索尼公司 | 图像处理装置、图像处理方法和程序 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4839598B2 (ja) * | 2003-10-30 | 2011-12-21 | ブラザー工業株式会社 | 画像表示装置 |
JP4522129B2 (ja) | 2004-03-31 | 2010-08-11 | キヤノン株式会社 | 画像処理方法および画像処理装置 |
JP2006003263A (ja) * | 2004-06-18 | 2006-01-05 | Hitachi Ltd | 視覚情報処理装置および適用システム |
JP4552131B2 (ja) * | 2005-02-25 | 2010-09-29 | カシオ計算機株式会社 | デジタルカメラ、デジタルカメラの制御方法及びプログラム |
JP5574852B2 (ja) * | 2010-06-30 | 2014-08-20 | キヤノン株式会社 | 情報処理装置、情報処理方法、システム及びプログラム |
JP2012058968A (ja) * | 2010-09-08 | 2012-03-22 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
JP2013101528A (ja) * | 2011-11-09 | 2013-05-23 | Sony Corp | 情報処理装置、表示制御方法、およびプログラム |
JP6520119B2 (ja) * | 2012-08-06 | 2019-05-29 | ソニー株式会社 | 画像処理装置および画像処理方法 |
US20140307055A1 (en) | 2013-04-15 | 2014-10-16 | Microsoft Corporation | Intensity-modulated light pattern for active stereo |
NZ745790A (en) * | 2016-03-15 | 2023-04-28 | Magic Leap Inc | Direct light compensation technique for augmented reality system |
JP6750867B2 (ja) * | 2016-07-29 | 2020-09-02 | キヤノン株式会社 | 画像処理装置およびその制御方法、撮像装置、プログラム |
JP6670204B2 (ja) * | 2016-08-19 | 2020-03-18 | 日本電信電話株式会社 | 虚像表示システム、及び虚像表示方法 |
FR3088510A1 (fr) | 2018-11-09 | 2020-05-15 | Orange | Synthese de vues |
CN113865481B (zh) * | 2020-06-30 | 2024-05-07 | 北京小米移动软件有限公司 | 对象尺寸测量方法、装置及存储介质 |
-
2000
- 2000-03-24 JP JP2000085145A patent/JP3450792B2/ja not_active Expired - Fee Related
Non-Patent Citations (1)
Title |
---|
昼間香織,複数の奥行き画像による仮想視点画像の再構成方法2,1998年電子情報通信学会情報・システムソサイエティ,日本,電子情報通信学会,1998年10月,206 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103518372A (zh) * | 2011-05-19 | 2014-01-15 | 索尼公司 | 图像处理装置、图像处理方法和程序 |
CN103518372B (zh) * | 2011-05-19 | 2015-12-02 | 索尼公司 | 图像处理装置、图像处理方法和程序 |
Also Published As
Publication number | Publication date |
---|---|
JP2000341721A (ja) | 2000-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3745117B2 (ja) | 画像処理装置及び画像処理方法 | |
JP3338618B2 (ja) | 実空間画像と仮想空間画像の表示方法及び表示装置 | |
JP3593466B2 (ja) | 仮想視点画像生成方法およびその装置 | |
JP3450792B2 (ja) | 奥行き画像計測装置及び方法、並びに複合現実感提示システム | |
JP3728160B2 (ja) | 奥行き画像計測装置及び方法、並びに複合現実感提示システム | |
Kang et al. | 3-D scene data recovery using omnidirectional multibaseline stereo | |
US6438507B1 (en) | Data processing method and processing device | |
EP0680014B1 (en) | Image processing method and apparatus | |
JP4065488B2 (ja) | 3次元画像生成装置、3次元画像生成方法及び記憶媒体 | |
JP3976900B2 (ja) | 視点位置姿勢の決定方法及びカメラ装置 | |
JP2000354257A (ja) | 画像処理装置、画像処理方法、およびプログラム提供媒体 | |
JPH11102438A (ja) | 距離画像生成装置及び画像表示装置 | |
JPH07287761A (ja) | 画像処理装置及び画像処理方法 | |
JPH10327433A (ja) | 合成画像の表示装置 | |
US6809771B1 (en) | Data input apparatus having multiple lens unit | |
JP3561446B2 (ja) | 画像生成方法及びその装置 | |
CN110969706B (zh) | 增强现实设备及其图像处理方法、系统以及存储介质 | |
JPH09245195A (ja) | 画像処理方法およびその装置 | |
JP2849313B2 (ja) | 画像記録再生装置 | |
JP3103478B2 (ja) | 複眼撮像装置 | |
JP7074546B2 (ja) | 画像処理装置および方法 | |
JP2001256482A (ja) | 視差画像生成装置および視差画像生成方法 | |
JPH0981746A (ja) | 二次元表示画像生成方法 | |
JPH08201941A (ja) | 3次元画像形成方法 | |
KR20110025083A (ko) | 입체 영상 시스템에서 입체 영상 디스플레이 장치 및 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20030623 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070711 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080711 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080711 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090711 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090711 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100711 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100711 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110711 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120711 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120711 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130711 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |