JPH09245195A - 画像処理方法およびその装置 - Google Patents

画像処理方法およびその装置

Info

Publication number
JPH09245195A
JPH09245195A JP8051520A JP5152096A JPH09245195A JP H09245195 A JPH09245195 A JP H09245195A JP 8051520 A JP8051520 A JP 8051520A JP 5152096 A JP5152096 A JP 5152096A JP H09245195 A JPH09245195 A JP H09245195A
Authority
JP
Japan
Prior art keywords
image
ray space
image processing
input
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8051520A
Other languages
English (en)
Inventor
Masahiro Shibata
昌宏 柴田
Akihiro Katayama
昭宏 片山
Shinji Uchiyama
晋二 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP8051520A priority Critical patent/JPH09245195A/ja
Publication of JPH09245195A publication Critical patent/JPH09245195A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】 観察者が3次元仮想空間を観察するときに、
観察者自身の動きに合わせて、よりリアルな画像を生成
・表示できるようにする。 【解決手段】 複数の視点位置から画像を撮像し(ステ
ップS201)、撮像された多視点画像を保存し(ステ
ップS202)、保存された画像を光線群データに変換
し(ステップS203)、変換されたデータを光線空間
に射影し(ステップS204)、その射影されないすべ
ての部分について補間合成を行う(ステップS20
5)。その後、観察者の視点移動に伴って、光線空間か
ら任意の視点位置における画像を生成・表示する(ステ
ップS206〜S208)。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、画像処理方法およ
びその装置、特に、使用者の動きに応じてリアルタイム
に、任意の視点位置における画像を生成・表示する方法
およびその装置に関するものである。
【0002】
【従来の技術】従来、複数の視点位置で撮像された実写
画像群を用いて、任意の視点位置における画像を生成す
る場合、該実写画像群のデータを用いて予め光線空間を
作成しておき、光線空間からデータを読み込むことによ
って行う方法があった。
【0003】ここで、光線空間の概念について説明す
る。3次元空間内には、光源や物体の反射光により光線
が発せられている。3次元空間内のある1点を横切る光
線は、その位置(x,y,z)と方向(θ,φ)を表す
5つの変数により一意に定められる。この光線の光強度
を表す関数をfと定義すると、3次元空間内の光線群デ
ータはf(x,y,z,θ,φ)と表される。さらに、
光線群データの時間変化を考慮すると、f(x,y,
z,θ,φ;t)となり、3次元空間内の光線群は6次
元の空間として記述される。この空間が光線空間と呼ば
れている。通常の2次元画像は、1点の視点の集まる光
線群を記録したものと考えられるので、 f(θ,φ)|x=x0,y=y0,z=z0,t=t0 (1) という2次元データを記録したものと言える。
【0004】ここで、t=0においてZ=zという平面
を通過する光線群に着目する。この面を、基準面と呼
ぶ。Y軸に垂直な水平面(X−Z平面)を考え、上下方
向の視差を考慮しないことにすると(y=0,φ=
0)、実空間は図3(a)に示すようになる。基準面か
ら発せられる光線群は、位置xと角度θの2変数でf
(x,θ)と記述される。従って、実空間中のある一点
(X,Z)を通過する光線群には、 X=x+Ztanθ (2) という関係が成り立つ。ここで、u=tanθという変
数を定義すると、式(2)は、 X=x+uZ (3) となり、(X,Z)の視点位置で観察される光線群を光
線空間のx−u平面に射影すると、図3(b)に示すよ
うに直線状の軌跡をなす。
【0005】上下方向の視差を省略して考えると、多数
の視点位置で撮像された画像に基づいて、光線空間のx
−u平面を直線状の軌跡で埋めておけば、任意視点位置
の画像は、式(3)に基づく直線に添ってx−u平面か
ら光線空間データを読み込めば生成できることになる。
【0006】
【発明が解決しようとする課題】物体を観察する視点の
位置は連続的に存在するが、物体をカメラなどの静止画
像撮像装置で撮像する場合、連続的に視点の位置を変化
させて撮像することはほぼ不可能であり、また、可能で
あったとしても全画像データは莫大な量になってしまい
現実的でない。そこで、複数の視点位置からの画像の撮
像は離散的に行われる。そのため、光線空間内のデータ
もすべての視点位置に対するデータは作成されず、離散
的なデータとなる。従って、データの存在しない部分に
関しては、光線空間内の既存データから補間合成するこ
とにより光線空間データを生成しなければならない。
【0007】従来の技術では、光線空間内に離散的に撮
像した多視点画像から得られた光線空間データだけが登
録されており、すべての視点位置に対するデータは登録
されていない。従って、任意視点に対して登録されてい
ない光線空間データは、その視点の位置が検出されたと
きに初めて、予め登録されている光線空間データからそ
の視点位置に対するデータを補間合成し表示を行ってい
る。このような手法では、視点を移動させるたびに登録
されていない光線空間データを補間合成しなければなら
ず、表示の際の計算量が増えてしまい、場合によっては
リアルタイム性が失われてしまうことがある。
【0008】本発明は、予めすべての光線空間データを
作成して記憶装置に記憶させておくことにより、上記の
課題を解決するものである。具体的には、光線空間内の
データを予めすべて補間合成し、オフラインに作成して
おくことにより、画像を生成する際には、光線空間を参
照するだけで光線群データを読み込むことができるよう
にする。これにより、視点移動に伴う画像の生成・表示
の際に、計算量を削減でき、高速化を計ることができ
る。
【0009】
【課題を解決するための手段】上記の課題を解決するた
めに、本発明に係る画像処理方法においては、複数の視
点位置で撮像した画像を入力する画像入力工程と、前記
入力された離散的な多視点画像を光線空間に射影し、該
射影では埋まらない光線空間を、既に射影されている画
像から補間して、光線空間全域に光線空間データを作成
する光線空間データ作成工程と、観察者の視点位置を検
出する視点位置検出工程と、観察者の視線方向を検出す
る視線方向検出工程と、前記検出された視点位置から前
記検出された視線方向に観察される画像を前記作成され
た光線空間データから生成する画像生成工程と、前記生
成された画像を出力する画像出力工程とを設けた。
【0010】また好ましくは、前記画像入力工程におい
て、1台の撮像器をずらすことによって撮像した複数枚
の画像を入力する。
【0011】また好ましくは、前記画像入力工程におい
て、複数台の撮像器によって撮像された複数枚の画像を
入力する。
【0012】また好ましくは、前記画像生成工程におい
て、前記作成された光線空間データを直接参照すること
により、前記検出された視点位置から前記検出された視
線方向に観察される画像を生成する。
【0013】また好ましくは、前記画像入力工程におい
て、1列の多視点画像を入力する。
【0014】また好ましくは、前記光線空間データ作成
工程において、前記入力された1列の多視点画像間の対
応点を探索し、該探索の結果に基づいて、前記光線空間
における画像の視点間の補間処理を行う。
【0015】また好ましくは、前記視点位置検出工程に
おいて、キーボードやマウスを含む入力デバイスを用い
る。
【0016】また好ましくは、前記視線方向検出工程に
おいて、キーボードやマウスを含む入力デバイスを用い
る。
【0017】また好ましくは、前記視点位置検出工程に
おいて、ヘッドマウントディスプレイを含むセンサ付デ
バイスを用いる。
【0018】また好ましくは、前記視線方向検出工程に
おいて、ヘッドマウントディスプレイを含むセンサ付デ
バイスを用いる。
【0019】また、上記の課題を解決するために、本発
明に係る画像処理装置においては、複数の視点位置で撮
像した画像を入力する画像入力手段と、前記入力された
離散的な多視点画像を光線空間に射影し、該射影では埋
まらない光線空間を、既に射影されている画像から補間
して、光線空間全域に光線空間データを作成する光線空
間データ作成手段と、観察者の視点位置を検出する視点
位置検出手段と、観察者の視線方向を検出する視線方向
検出手段と、前記検出された視点位置から前記検出され
た視線方向に観察される画像を前記作成された光線空間
データから生成する画像生成手段と、前記生成された画
像を出力する画像出力手段とを設けた。
【0020】また好ましくは、前記画像入力手段は、1
台の撮像器をずらすことによって撮像した複数枚の画像
を入力する。
【0021】また好ましくは、前記画像入力手段は、複
数台の撮像器によって撮像された複数枚の画像を入力す
る。
【0022】また好ましくは、前記画像生成手段は、前
記作成された光線空間データを直接参照することによ
り、前記検出された視点位置から前記検出された視線方
向に観察される画像を生成する。
【0023】また好ましくは、前記画像入力手段は、1
列の多視点画像を入力する。
【0024】また好ましくは、前記光線空間データ作成
手段は、前記入力された1列の多視点画像間の対応点を
探索し、該探索の結果に基づいて、前記光線空間におけ
る画像の視点間の補間処理を行う。
【0025】また好ましくは、前記視点位置検出手段
は、キーボードやマウスを含む入力デバイスを用いる。
【0026】また好ましくは、前記視線方向検出手段
は、キーボードやマウスを含む入力デバイスを用いる。
【0027】また好ましくは、前記視点位置検出手段
は、ヘッドマウントディスプレイを含むセンサ付デバイ
スを用いる。
【0028】また好ましくは、前記視線方向検出手段
は、ヘッドマウントディスプレイを含むセンサ付デバイ
スを用いる。
【0029】
【発明の実施の形態】 (実施の形態1)図1に、複数の視点位置で撮像された
実写画像群から任意の視点位置における画像を生成・表
示する装置の実施の形態1の概略図を示す。図中101
は、該実写画像群を撮像するための画像入力装置であ
る。画像入力装置101は、1台のカメラをずらすこと
によって多数枚の画像を撮像しても、また複数台のカメ
ラをセットすることで多数枚の画像を撮像してもよい。
102は記憶装置103に記憶されているプログラムに
従って処理を行うCPUである。103は記憶装置であ
り、該実写画像群の画像データや、多視点画像から生成
された光線空間データや、CPU102によって実行さ
れるプログラムを記憶する。また、記憶装置103に
は、ラスタを読み込むためのワークメモリとしてのエリ
アが設けられている。104は観察者の視点位置・視線
方向を検出するための視点・視線検出装置である。視点
・視線検出装置104には、キーボードやマウスなどの
入力デバイスを用いるか、またはHMD(ヘッドマウン
トディスプレイ)などセンサの付いているデバイスなど
を用いることができる。105は、観察者の視点位置・
視線方向にしたがって生成された画像を表示するための
画像出力装置である。画像出力装置には、CRTや液晶
ディスプレイなどの一般的な2次元ディスプレイを用い
ても、レンティキュラやHMDなどの3次元ディスプレ
イを用いてもよい。なお、プログラムは、FD(フロッ
ピーディスク)・CD−ROM・磁気テープ等の記憶媒
体に記録しておき、記憶媒体読み取り装置106から読
みだして記憶装置103に記憶させてもよい。また、1
07は各部を接続するバスである。
【0030】図1に示した装置を用いて、多視点画像を
撮像して光線空間を作成する処理方法、および光線空間
から任意の視点位置における画像を生成・表示する処理
方法の流れ図を図2に示す。CPU102は、記憶装置
103に記憶されているプログラムに従ってこの処理を
実行する。なお、図2中の枠Aで囲まれた処理は、多視
点画像を撮像して光線空間を作成するまでの部分で、オ
フラインに処理される。また、図2中の枠Bで囲まれた
処理は、光線空間から任意の視点位置における画像を生
成・表示するまでの部分で、オンラインに処理される。
【0031】まず、多視点画像を撮像して光線空間を作
成する処理について説明する。ステップS201では、
画像入力装置101を用いて複数の視点位置から画像を
撮像する。ステップS202では、ステップS201で
撮像された多視点画像が記憶装置103に保存される。
ステップS203では、記憶装置103に保存された多
視点画像データが光線群データに変換される。これはC
PU102により、ステップS201における撮像状
況、すなわちカメラの位置(視点位置)・姿勢(視線方
向)から、各画像内の各画素値を3次元空間内の光線群
データに変換する計算が行われる。ステップS204で
は、ステップS203で変換された光線群データを光線
空間に射影する。このとき、ステップS201の撮像に
おけるカメラ位置は離散的であるから、光線空間は部分
的に射影されないところが生じる。ステップS205で
は、ステップS204で射影されないすべての部分につ
いて、補間合成を行う。これにより、光線空間のすべて
の部分に、光線群データを射影することができる。こう
して作成された光線空間データは、記憶装置103に記
憶される。ステップS201からステップS205まで
が、光線空間の作成処理であり、ここまでの処理が、オ
フラインに行われる。
【0032】なお、ステップS205における光線空間
データの補間合成手法としては、最近傍の光線空間デー
タの値を推定値とするNearest Neighbo
r法や、近傍データからの距離に基づいて線形に内挿す
る線形補間法などが適用できる。
【0033】次に、観察者の視点移動に伴って、光線空
間から任意の視点位置における画像を生成・表示する処
理について説明する。ステップS206では、視点・視
線検出装置104を用いて観察者の視点位置・視線方向
を検出する。ステップS207では、記憶装置103に
記憶されている光線空間データから、ステップS206
で検出された視点位置・視線方向で観察される光線群デ
ータを式(3)に基づいて読み込み、画像を生成する。
ただし、式(3)だけから生成されるのは1スキャンラ
インのみの画像であり、一般的な2次元画像を生成する
ためには、x座標に対応するすべての画素をリンクして
おくか、x−u平面と同様にy−v平面(v=tan
φ)を作成する必要がある。ステップS208では、ス
テップS207で生成された画像を画像出力装置105
で表示する。
【0034】(実施の形態2)次に、光線空間の補間合
成法としてEPI(エピポーラプレーンイメージ)によ
る視点間補間手法を用いた例を示す。本実施の形態2で
は、実施の形態1の流れ図におけるステップS205の
補間合成処理において、EPIを用いて視点間補間処理
を行う。
【0035】以下に、図4から図10を用いて、EPI
を用いた視点間補間合成処理について説明する。ただ
し、説明をわかりやすくするため、上下方向の視差を省
略した場合について説明する。
【0036】図4に本実施の形態の視点間補間合成処理
の流れ図を示す。やはり、この処理をあらわすプログラ
ムは記憶装置103に記憶されており、CPU102で
実行される。まず、ステップS1で直線上に配置した撮
影位置で撮像した多視点画像を入力する。次にステップ
S2で、多視点画像間の対応点探索(動きベクトル検
出)を行う。対応点探索が終了すると、次にステップS
3において、ステップS2における対応点探索に基づく
光線空間データの補間処理を行う。
【0037】次にステップS4に移り、ステップS3に
おいて未補間の画素の値を周囲の補間済みの画素から推
定し、すべての光線空間データを埋める。推定の方法と
しては、近傍の画素値の平均値を推定値とする方法や最
も近い画素位置の値を推定値とする方法がある。
【0038】図5は、ステップS2の対応点探索処理の
流れ図である。ステップS11において初期設定として
注目ラスタを各画像の第1ラスタにセットする。次にス
テップS12において各画像の注目ラスタを記憶装置1
03内のワークメモリに読み込み、仮想的にj番目のエ
ピポーラプレーンを構成する。ここで言うj番目のエピ
ポーラプレーンとは、図6に示すように画像平面上の各
点EPj(x,i)が EPj(x,i)=Ni(x,j) (4) を満たすような点EPj(x,i)の集合のことであ
る。ただし、Ni(x,j)はi番目の画像(ここで
は、i=1〜4)のjライン目におけるx番目の画素
値、すなわちi番目の画像において座標が(x,j)で
表される画素の値を表している。画像入力装置を等間隔
かつ並行に配置して撮像した多視点画像を考える場合、
このエピポーラプレーン上では、対応する点はすべて直
線上に並んで存在する。従って、対応点の検出は、直線
を検出することによって行うことができ、また、画像の
補間は検出された直線上で行えばよいことになる。そこ
で、ステップS13において対応点が存在する直線を検
出し、ステップS14において、入力画像のすべてのラ
スタについて処理が行われたかが判定され、まだなら
ば、ステップS15においてjの値を1増やしてステッ
プS12に戻り、すべてのラスタについて処理が終了し
たならば、ステップS3に移る。ここでnyは入力画像
の総ラスタ数を表している。
【0039】次に、ステップS13における直線検出の
具体的なアルゴリズムを図7の流れ図を用いて示す。
【0040】まずステップS21において優先順位n=
1、注目画素のラスタr=1に設定する。次にステップ
S22に移り、EPj(x,i)を注目画素とし、m=
k1〜k1+k2,x=1〜nxの範囲内で、
【0041】
【外1】 を満たすmをすべて求める。ただし、mは実数値も取り
得るので、x+m×(i−r)の値は四捨五入して対応
するx座標を決定する。TH2は対応点を見つけるため
のしきい値であり、ここではTH2=1200に設定し
ている。この1200の意味合いであるが、4ラインの
EPIなので差分を3回計算することになり、それぞれ
の差分値が20以下くらいであれば、ほぼ同じ色である
という仮定のもとに3×20×20=1200としてい
る。もし理想的な入力系で画像にスペキュラー成分が存
在しない場合(各画像に写っている点は同じ画素値をも
つ)は、TH2=0で良いが、実際の入力系では同じ点
でも各画像で画素値がばらついているため、幅を持たせ
て差分値を20としている。従って、入力系が高精度に
なるほどこの差分値は小さくなり、逆の場合は差分値を
大きく設定する必要がある。上記の手法は、画素値がR
GBの場合にそれぞれに対して行う手法だが、それだけ
ではなく、YIQあるいはHISなど様々な表色系に一
度変換した場合にも対応でき、それぞれに適したしきい
値を設定して用いることも可能である。また、k1は入
力方式によって定まる値であり、カメラを平行にかつ等
間隔に配置して撮像する場合はk1=0である。k2は
カメラ間隔と物体までの距離により決定される値で、こ
こではk2=20に設定(すなわち、20画素以上は移
動しないと仮定)している。ただし、nxは画像の主走
査方向の画素数を表す。
【0042】また、EPj(x+m×(i−r),i)
が存在しない場合は、このmにおける対応点は存在しな
いとして処理を続ける。ただし、ステップS22におい
てEPj(x+m×(i−r),i)が処理済みの場合
は、EPj(x+m×(i−r),i)−EP(x,
r)=0として処理を続ける。次にステップS23に移
り、ステップS22において求まった傾きmの直線から
優先順位nの対応点を求め、メモリに記憶する。複数の
対応点が求まる場合は、便宜上すべてを優先順位nの対
応点として記憶する。対応点として求まった画素は処理
済みの画素とする。ステップS23において傾きmの直
線より求まった対応点がすでに処理済みの場合は、この
点を対応点から除外する。さらに未処理の画素数をwに
セットする。次にステップS24に移り、未処理の画素
数wが0か否かを判定する。0ならば処理を終了し、ス
テップS14に戻る。0でなければステップS25に移
り、注目ラスタrが最終らすたかどうかを判定し、最終
ラスタならばステップS26においてr=1(先頭ラス
タ)に設定し、そうでなければステップS27において
注目ラスタrの値を1増やす。ステップS25中のRは
EPIの構成ラスタ数(ここではR=4)を示してい
る。次にステップS28に移り、優先順位を示すnがN
に等しいか否かを判定する。Nは物体同士が遮蔽しあう
現象(オクルージョン)の複雑さを表している。すなわ
ち、Nが大きな値であれば、物体が幾重にも重なってい
る状態であり、Nが小さければ物体の重なりは少ない。
Nの値の設定は、どの程度のオクルージョンまで再現す
るかにより決まってくる。ここでは、経験的な値として
N=(R−1)×10、すなわち、N=30に設定して
いる。ステップS28においてn≠NならばステップS
30に移り、nの値を1増やし、uにwの値をセット
し、ステップS22に戻る。n=NならばステップS2
9に移り、未処理の画素数が前回の処理時よりも減少し
たか否かを判定し、減少したならば、ステップS30に
移り、そうでなければ第j−EPIでの直線検出処理を
終了し、ステップS14に戻る。
【0043】上記のようなアルゴリズムで処理を行うこ
とにより、2枚の画像からでは求まらなかった対応点が
検出でき、また、オクルージョンなどにも対応できるの
で、対応点探索の精度が向上する。
【0044】図8は、j番目のエピポーラプレーンを表
している。a1,b1は優先順位1の対応点を示し、c
2は優先順位2の対応点を示している。入力画像間に等
間隔にn枚の画像を補間する場合を考える。ここでは説
明を単漢にするため、内挿ラスタ数を2とする。このこ
とをj番目のエピポーラプレーンで考えた場合、図10
に示すようにエピポーラプレーンのライン間に2本ずつ
ラスタを内挿し、原画のエピポーラプレーンの対応点同
士を結んだ直線上にある内挿されたラスタの画素値を、
対応点同士の平均値に設定すればよい。
【0045】次に、ステップS3における画像の視点間
補間処理の具体的なアルゴリズムを図9の流れ図を用い
て説明する。
【0046】まずステップS51において、画像補間処
理のための初期設定を行う。j=1にセットし、注目E
PIを第j−EPIにセットする。また優先順位nをn
=Nにセットする。ここでNはステップS28で用いた
N(N=30)と同じものである。次にステップS52
に移り、第j−EPI上の優先順位nの対応点を結んだ
直線を考え、この直線上にある内挿ラスタの画素値を、
直線上にある原画像の画素値の平均値にセットする。た
だし、同じ優先順位の対応点が複数ある場合は、対応点
を結んだ直線の傾きの小さい(ラスタに対して垂直な直
線を傾き0と考える)ものから順に処理を行う。この処
理を終えたらステップS53に移り、注目EPI上の優
先順位nのすべての対応点に対してステップS52の処
理が終了したか否かの判定を行い、終了していなければ
ステップS52に戻り、終了したならばステップ54に
移り、現在処理している優先順位が1かどうかの判定を
行う。判定が1でなければ、ステップS55において優
先順位を1減じて(n=n−1)ステップS52に移
り、1ならばステップS56において注目EPIが最終
のEPIかどうかの判定を行う。ここでnyはステップ
S14で用いたnyと同じもので、入力画像の総らすた
数である。注目ラスタが最終のEPIでなければ、ステ
ップS57において注目EPIを次のEPIにセットし
(j=j+1)、ステップS55に戻る。最終のEPI
ならば画像補間処理を終了し、ステップS4に戻る。
【0047】以上述べたように優先順位の低い(nの値
が大きい)対応点から順に処理を行い、優先順位の高い
対応点によって上書きすることで、図10に示すよう
に、オクルージョンを考慮した補間処理を行うことがで
きる。ただし、図10におけるa,b,cはそれぞれ対
応点a1,b1,c1により内挿された画素を表してい
る。
【0048】以上述べた構成および方法を用いて、多視
点画像から光線空間データを補間合成することができ
る。
【0049】また、本発明は、複数の機器から構成され
るシステムに適用しても、一つの機器からなる装置に適
用しても良い。また、本発明はシステムあるいは装置に
プログラムを供給することによって実施される場合にも
適用されることは言うまでもない。この場合、本発明に
係るプログラムを格納した記憶媒体が、本発明を構成す
ることになる。そして、該記憶媒体からそのプログラム
をシステムあるいは装置に読み出すことによって、その
システムあるいは装置が、予め定められた方法で動作す
る。
【0050】
【発明の効果】以上説明したように本発明によれば、操
作中の計算処理が軽減し、画像表示を高速化できる。こ
れにより、観察者が3次元仮想空間を観察するときに、
観察者自身の動きに合わせて、よりリアルな画像を生成
・表示できるという効果がある。
【図面の簡単な説明】
【図1】実施の形態1の任意視点画像生成・表示装置の
概略構成図である。
【図2】実施の形態1の任意視点画像生成・表示装置の
処理の流れ図である。
【図3】光線空間の説明図である。
【図4】実施の形態2のEPIを用いた視点間補間合成
処理の流れ図である。
【図5】対応点探索処理の流れ図である。
【図6】EPIの説明図である。
【図7】EPI上での直線検出処理の流れ図である。
【図8】対応点検出を行ったEPIの例を示す図であ
る。
【図9】補間処理の流れ図である。
【図10】対応点検出に基づいて補間処理を行った例を
示す図である。
【符号の説明】
101 画像入力装置 102 CPU 103 記憶装置 104 視点・視線検出装置 105 画像出力装置 106 記憶媒体読み取り装置

Claims (20)

    【特許請求の範囲】
  1. 【請求項1】 複数の視点位置で撮像した画像を入力す
    る画像入力工程と、 前記入力された離散的な多視点画像を光線空間に射影
    し、該射影では埋まらない光線空間を、既に射影されて
    いる画像から補間して、光線空間全域に光線空間データ
    を作成する光線空間データ作成工程と、 観察者の視点位置を検出する視点位置検出工程と、 観察者の視線方向を検出する視線方向検出工程と、 前記検出された視点位置から前記検出された視線方向に
    観察される画像を前記作成された光線空間データから生
    成する画像生成工程と、 前記生成された画像を出力する画像出力工程とを備えた
    ことを特徴とする画像処理方法。
  2. 【請求項2】 前記画像入力工程において、1台の撮像
    器をずらすことによって撮像した複数枚の画像を入力す
    ることを特徴とする請求項1記載の画像処理方法。
  3. 【請求項3】 前記画像入力工程において、複数台の撮
    像器によって撮像された複数枚の画像を入力することを
    特徴とする請求項1記載の画像処理方法。
  4. 【請求項4】 前記画像生成工程において、前記作成さ
    れた光線空間データを直接参照することにより、前記検
    出された視点位置から前記検出された視線方向に観察さ
    れる画像を生成することを特徴とする請求項1記載の画
    像処理方法。
  5. 【請求項5】 前記画像入力工程において、1列の多視
    点画像を入力することを特徴とする請求項1記載の画像
    処理方法。
  6. 【請求項6】 前記光線空間データ作成工程において、
    前記入力された1列の多視点画像間の対応点を探索し、
    該探索の結果に基づいて、前記光線空間における画像の
    視点間の補間処理を行うことを特徴とする請求項5記載
    の画像処理方法。
  7. 【請求項7】 前記視点位置検出工程において、キーボ
    ードやマウスを含む入力デバイスを用いることを特徴と
    する請求項1記載の画像処理方法。
  8. 【請求項8】 前記視線方向検出工程において、キーボ
    ードやマウスを含む入力デバイスを用いることを特徴と
    する請求項1記載の画像処理方法。
  9. 【請求項9】 前記視点位置検出工程において、ヘッド
    マウントディスプレイを含むセンサ付デバイスを用いる
    ことを特徴とする請求項1記載の画像処理方法。
  10. 【請求項10】 前記視線方向検出工程において、ヘッ
    ドマウントディスプレイを含むセンサ付デバイスを用い
    ることを特徴とする請求項1記載の画像処理方法。
  11. 【請求項11】 複数の視点位置で撮像した画像を入力
    する画像入力手段と、 前記入力された離散的な多視点画像を光線空間に射影
    し、該射影では埋まらない光線空間を、既に射影されて
    いる画像から補間して、光線空間全域に光線空間データ
    を作成する光線空間データ作成手段と、 観察者の視点位置を検出する視点位置検出手段と、 観察者の視線方向を検出する視線方向検出手段と、 前記検出された視点位置から前記検出された視線方向に
    観察される画像を前記作成された光線空間データから生
    成する画像生成手段と、 前記生成された画像を出力する画像出力手段とを備えた
    ことを特徴とする画像処理装置。
  12. 【請求項12】 前記画像入力手段は、1台の撮像器を
    ずらすことによって撮像した複数枚の画像を入力するこ
    とを特徴とする請求項11記載の画像処理装置。
  13. 【請求項13】 前記画像入力手段は、複数台の撮像器
    によって撮像された複数枚の画像を入力することを特徴
    とする請求項11記載の画像処理装置。
  14. 【請求項14】 前記画像生成手段は、前記作成された
    光線空間データを直接参照することにより、前記検出さ
    れた視点位置から前記検出された視線方向に観察される
    画像を生成することを特徴とする請求項11記載の画像
    処理装置。
  15. 【請求項15】 前記画像入力手段は、1列の多視点画
    像を入力することを特徴とする請求項11記載の画像処
    理装置。
  16. 【請求項16】 前記光線空間データ作成手段は、前記
    入力された1列の多視点画像間の対応点を探索し、該探
    索の結果に基づいて、前記光線空間における画像の視点
    間の補間処理を行うことを特徴とする請求項15記載の
    画像処理装置。
  17. 【請求項17】 前記視点位置検出手段は、キーボード
    やマウスを含む入力デバイスを用いることを特徴とする
    請求項11記載の画像処理装置。
  18. 【請求項18】 前記視線方向検出手段は、キーボード
    やマウスを含む入力デバイスを用いることを特徴とする
    請求項11記載の画像処理装置。
  19. 【請求項19】 前記視点位置検出手段は、ヘッドマウ
    ントディスプレイを含むセンサ付デバイスを用いること
    を特徴とする請求項11記載の画像処理装置。
  20. 【請求項20】 前記視線方向検出手段は、ヘッドマウ
    ントディスプレイを含むセンサ付デバイスを用いること
    を特徴とする請求項11記載の画像処理装置。
JP8051520A 1996-03-08 1996-03-08 画像処理方法およびその装置 Pending JPH09245195A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8051520A JPH09245195A (ja) 1996-03-08 1996-03-08 画像処理方法およびその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8051520A JPH09245195A (ja) 1996-03-08 1996-03-08 画像処理方法およびその装置

Publications (1)

Publication Number Publication Date
JPH09245195A true JPH09245195A (ja) 1997-09-19

Family

ID=12889297

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8051520A Pending JPH09245195A (ja) 1996-03-08 1996-03-08 画像処理方法およびその装置

Country Status (1)

Country Link
JP (1) JPH09245195A (ja)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6674922B1 (en) 1999-03-26 2004-01-06 Canon Kabushiki Kaisha Image processing method, image processing apparatus, and storage medium
US6747610B1 (en) 1997-07-22 2004-06-08 Sanyo Electric Co., Ltd. Stereoscopic image display apparatus capable of selectively displaying desired stereoscopic image
WO2007013194A1 (ja) * 2005-07-26 2007-02-01 National University Corporation Nagoya University 画像情報圧縮方法及び自由視点テレビシステム
JP2008259171A (ja) * 2007-04-04 2008-10-23 Mitsubishi Electric Research Laboratories Inc 3次元ライトフィールドを取得、符号化、復号、表示するための方法およびシステム
JP2009518877A (ja) * 2006-04-04 2009-05-07 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 3次元ライトフィールドを取得し、表示するための方法およびシステム
JP2010033503A (ja) * 2008-07-31 2010-02-12 Kddi Corp 画像生成装置、方法及びプログラム
JP2010072922A (ja) * 2008-09-18 2010-04-02 Kddi Corp 画像生成装置、方法及びプログラム
JP2010078768A (ja) * 2008-09-25 2010-04-08 Toshiba Corp 立体映像撮影装置および立体映像撮影システム
JP2010081440A (ja) * 2008-09-26 2010-04-08 National Institute Of Information & Communication Technology 立体映像表示装置、立体映像表示方法、及び立体映像表示プログラム
JP2015039059A (ja) * 2010-08-27 2015-02-26 株式会社東芝 立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラム
JP2017102686A (ja) * 2015-12-01 2017-06-08 日本電信電話株式会社 情報取得装置、情報取得方法及び情報取得プログラム
CN110770636A (zh) * 2017-04-25 2020-02-07 雷特克斯有限公司 具有矫正视力缺陷、增强视力和感知能力的可穿戴图像处理和控制系统
US11628038B2 (en) 2020-02-21 2023-04-18 Raytrx, Llc Multi-option all-digital 3D surgery visualization system and control
US11956414B2 (en) 2015-03-17 2024-04-09 Raytrx, Llc Wearable image manipulation and control system with correction for vision defects and augmentation of vision and sensing

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6747610B1 (en) 1997-07-22 2004-06-08 Sanyo Electric Co., Ltd. Stereoscopic image display apparatus capable of selectively displaying desired stereoscopic image
US6674922B1 (en) 1999-03-26 2004-01-06 Canon Kabushiki Kaisha Image processing method, image processing apparatus, and storage medium
JP4825983B2 (ja) * 2005-07-26 2011-11-30 国立大学法人名古屋大学 画像情報圧縮方法及び自由視点テレビシステム
WO2007013194A1 (ja) * 2005-07-26 2007-02-01 National University Corporation Nagoya University 画像情報圧縮方法及び自由視点テレビシステム
JP2009518877A (ja) * 2006-04-04 2009-05-07 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 3次元ライトフィールドを取得し、表示するための方法およびシステム
JP2008259171A (ja) * 2007-04-04 2008-10-23 Mitsubishi Electric Research Laboratories Inc 3次元ライトフィールドを取得、符号化、復号、表示するための方法およびシステム
JP2010033503A (ja) * 2008-07-31 2010-02-12 Kddi Corp 画像生成装置、方法及びプログラム
JP2010072922A (ja) * 2008-09-18 2010-04-02 Kddi Corp 画像生成装置、方法及びプログラム
JP2010078768A (ja) * 2008-09-25 2010-04-08 Toshiba Corp 立体映像撮影装置および立体映像撮影システム
JP2010081440A (ja) * 2008-09-26 2010-04-08 National Institute Of Information & Communication Technology 立体映像表示装置、立体映像表示方法、及び立体映像表示プログラム
JP2015039059A (ja) * 2010-08-27 2015-02-26 株式会社東芝 立体視映像処理装置、立体視映像処理方法及び立体視映像処理用プログラム
US11956414B2 (en) 2015-03-17 2024-04-09 Raytrx, Llc Wearable image manipulation and control system with correction for vision defects and augmentation of vision and sensing
JP2017102686A (ja) * 2015-12-01 2017-06-08 日本電信電話株式会社 情報取得装置、情報取得方法及び情報取得プログラム
CN110770636A (zh) * 2017-04-25 2020-02-07 雷特克斯有限公司 具有矫正视力缺陷、增强视力和感知能力的可穿戴图像处理和控制系统
EP3615986A4 (en) * 2017-04-25 2021-01-27 Raytrx LLC PORTABLE IMAGE CONTROL AND MANIPULATION SYSTEM CORRECTING VISION DEFECTS AND INCREASING VISION AND DETECTION
CN110770636B (zh) * 2017-04-25 2024-04-05 雷特克斯有限公司 具有矫正视力缺陷、增强视力和感知能力的可穿戴图像处理和控制系统
US11628038B2 (en) 2020-02-21 2023-04-18 Raytrx, Llc Multi-option all-digital 3D surgery visualization system and control

Similar Documents

Publication Publication Date Title
US6233004B1 (en) Image processing method and apparatus
JP3593466B2 (ja) 仮想視点画像生成方法およびその装置
KR101956149B1 (ko) 이미지 사이의 광학 흐름의 효율적 결정
JP3338618B2 (ja) 実空間画像と仮想空間画像の表示方法及び表示装置
JP3745117B2 (ja) 画像処理装置及び画像処理方法
JP3728160B2 (ja) 奥行き画像計測装置及び方法、並びに複合現実感提示システム
JP6750183B2 (ja) 画像距離算出装置、画像距離算出方法および画像距離算出用プログラム
CN107370994B (zh) 海域全景监控方法、装置、服务器及系统
US20030012410A1 (en) Tracking and pose estimation for augmented reality using real features
US20030076413A1 (en) System and method for obtaining video of multiple moving fixation points within a dynamic scene
JP4909991B2 (ja) フレーム毎かつピクセル毎コンピュータ映像用カメラフレーム合致モデル生成グラフィックス画像
JP3524147B2 (ja) 3次元画像表示装置
JPH09245195A (ja) 画像処理方法およびその装置
JPH0935061A (ja) 画像処理方法
JP3561446B2 (ja) 画像生成方法及びその装置
WO2020178289A1 (en) Processing of depth maps for images
CN110969706B (zh) 增强现实设备及其图像处理方法、系统以及存储介质
JPH07129792A (ja) 画像処理方法および画像処理装置
JPH10111951A (ja) 画像処理方法および装置および記憶媒体
JPH1097642A (ja) 画像処理方法及び装置及び記憶媒体
JPH09114979A (ja) カメラシステム
JPH08116556A (ja) 画像処理方法および装置
Zhou et al. New eye contact correction using radial basis function for wide baseline videoconference system
WO2018043437A1 (ja) 画像距離算出装置および画像距離算出用プログラムを記録したコンピュータ読み取り可能な非一過性の記録媒体
JP6704712B2 (ja) 情報処理装置、情報処理装置の制御方法及びプログラム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060418

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060822