JP3634677B2 - 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体 - Google Patents

画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体 Download PDF

Info

Publication number
JP3634677B2
JP3634677B2 JP20230099A JP20230099A JP3634677B2 JP 3634677 B2 JP3634677 B2 JP 3634677B2 JP 20230099 A JP20230099 A JP 20230099A JP 20230099 A JP20230099 A JP 20230099A JP 3634677 B2 JP3634677 B2 JP 3634677B2
Authority
JP
Japan
Prior art keywords
image
viewpoint position
morphing
images
viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP20230099A
Other languages
English (en)
Other versions
JP2000307949A (ja
Inventor
隆明 遠藤
昭宏 片山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP20230099A priority Critical patent/JP3634677B2/ja
Priority to US09/376,329 priority patent/US6636234B2/en
Publication of JP2000307949A publication Critical patent/JP2000307949A/ja
Application granted granted Critical
Publication of JP3634677B2 publication Critical patent/JP3634677B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/66Methods for processing data by generating or executing the game program for rendering three dimensional images
    • A63F2300/6661Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera
    • A63F2300/6676Methods for processing data by generating or executing the game program for rendering three dimensional images for changing the position of the virtual camera by dedicated player input
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • A63F2300/695Imported photos, e.g. of the player
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/44Morphing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、モーフィング処理を用いて複数の実写画像から任意の視点の画像を生成する為の技術に関するものである。
【0002】
【従来の技術】
大規模な仮想環境を構築する場合、写実性の点で、幾何モデルベースのCG表現よりも実写画像に基づく手法が有利である。実写画像は位置・姿勢センサを装備したカメラより複数位置において環境を撮影し、得られた複数視点での実写画像から例えばモーフィングの手法を用いて任意視点での仮想画像を生成するものである。換言すれば、モーフィングの手法を用いれば、ユーザは、撮影を行った視点位置(以下の説明では、視点位置は視線方向も含むとする)を超えて任意の視点位置において仮想空間を体験することが可能となる。
【0003】
モーフィングは、まず、2つの原画像(例えば画像Aと画像B)中の同一対象の写っている領域を例えば矩形で対応づける、即ち、ユーザが同一領域であると認識した2つの部分画像領域(例えば領域A’と領域B’)を対応領域とするわけである。そして、両領域内部の形状と色とを線形補間することにより仮想画像Qを構成する。この仮想画像Qの生成には前述したように線形補間が使われるが、この線形補間は、上記両画像A,Bを撮像したカメラの視点位置PCA,PCBにおけるカメラの光軸が基線(カメラ中心を結ぶ直線)に共に直交していることが歪みの少ない補間画像を生成するために有効であることが提案されている。
【0004】
S.M. SeitzとC.R. Dyerは、両視点位置PCA,PCBにおける光軸が上記条件を満足しない場合にも、歪みのない補間画像を生成する手法を、”View Morphing”, Proc. SIGGRAPH ’96, pp.21−30 (1996)において提案している。その原理はおよそ以下のようである。
【0005】
第1図において、画像Aは視点位置PCAにおいて、画像Bは視点位置PCBにおいて得られたものとする。両視点位置におけるカメラの光軸方向は平行でなく、また、両光軸は基線に直交していない。尚、第1図において、座標xとxとは1つの対象点についての対応点である。任意の視点位置Pにおける仮想画像Qを線形補間により生成すると、歪みが発生するので、S.M. SeitzとC.R. Dyerは第2図に示すように、あたかも光軸が回転させられて共に光軸が基線に直交した状態で撮像した画像であるかのように、両画像A,Bを回転し、回転後の画像A’,B’に対して線形補間を施して仮想画像Q’を得ると、その仮想画像は歪みがないというものである。
【0006】
しかしながら、この先行技術の手法には1つの大きな制約条件が課せられており、この条件をはずれると補間そのものが成り立たないという欠点があることを上記S.M. SeitzとC.R. Dyerは指摘している。即ち、第3図に示すように、一方視点位置におけるカメラの視野が他方の視点位置におけるカメラの視野を含む場合には、光軸と基線とが垂直で光軸同士が平行になるように画像を回転すると、回転後の両画像には対応点が存在せず、従って、線形補間によっては歪みのない画像を生成することはできなくなることが指摘されている。
【発明が解決しようとする課題】
2枚、又は3枚の実写画像(コンピュータ画像であっても良い)の2つの視点(又は3つの視点)間に存在する任意の視点から撮影したら得られるであろう仮想補間画像はモーフィング処理により生成することが考えられるが、物体(現実物体の実写画像であろうと仮想物体の仮想画像であろうと)が凹凸(特に奥行き方向での凹凸)が少ない場合には、視点位置が変化しても、その視点位置からは「見えない」部分の発生が予測できるために、有効であると考える。
しかしながら実際の物体(従って仮想物体も)は凹凸の大きいものがあり、そのような物体を視点位置を移動させながら上記のようなモーフィング処理を行うと、ある視点で本来は見えない部分を見えるかのように補間画像を生成したり、本来では見えるはずの部分を見えないものとして補間画像を生成したりすることがある。
【0007】
【課題を解決するための手段】
本発明は、以上の問題に鑑みてなされたものであり、対象物体間の前後関係が正しく反映されたモーフィングを保証することを目的とする。
【0008】
本発明の目的を達成する為に、例えば本発明の画像処理方法は以下の構成を備える。
すなわち、複数の視点位置から撮影された実写画像を用いて、所望の視点位置から見える画像をモーフィング処理によって生成する画像処理方法であって、
実写画像内の対象物を奥行き深さに応じて複数のレイヤに階層化する階層化工程と、
複数の視点位置から撮影された実写画像を入力する実写画像入力工程と、
所望の視点位置に係る視点情報を入力する入力工程と、
複数の視点位置から撮影された実写画像に対して前記階層化工程で階層化を行い、該階層化されたレイヤごとにモーフィング処理を行い、前記所望の視点位置から見える画像を生成するモーフィング処理工程と
を備えることを特徴とする。
【0036】
奥行き距離に応じて分割され生成される複数対の二次元部分画像において反映される対象物体間の前後関係は、第1の視点位置と第2の視点位置位置の任意の中間の視点位置において保存される。従って、このような二次元部分画像を将来モーフィング処理に供した場合には前後関係が正しく反映されたモーフィングを保証する。例えば、前後関係を有する2物体を視点位置を移動しながら見れば、一方の物体の一部が他方の物体の一部によって見えたり隠されたりしなければならない。前後関係を考慮しないでその2物体の画像を基にしてモーフィングを行うと、補間画像が、本来は見えない筈の部分が見えてしまうように生成されたり、或いは、本来見えるはずの部分が見えなくなってしまうように生成されたりする。対象物体間の前後関係を考慮した分割により生成された部分画像は、見えるはずの部分を見えるように、見えない部分を見えないように顕在化させることができる。見えるはずではあるが隠されている部分を顕在化させることにより、その部分に対して、画像データの補充(レタッチ操作)を行うことができる。
【0051】
【発明の実施の形態】
以下、添付図面を参照しながら、本発明の実施形態を説明する。
【0052】
〈原理〉
第4図は、一方のカメラ(視点位置PCA)の視野が他方のカメラ(視点位置PCB)の視野を含む場合を示している。この場合は従来の手法では線形補間は不可能であった。そこで、第5図に示すように、両カメラの光軸が略一致(同じ直線上に実質的に乗る)ように、カメラ(即ち画像)を回転して、回転後の画像A’とB’とを得、これらの画像から線形補間により仮想画像Q’を得るものである。尚、本実施形態および実施例ではの説明では、説明の便宜上、視点位置は、視点位置のみならず視線方向も含むとする。
【0053】
第6図以下を用いて更に実施形態の原理を説明する。
【0054】
今、第6図に示すように、2つのカメラ視点PCAとPCBとにおける実画像RI,RIが得られているものとする。基線に対し、カメラ視点PCAでの光軸は角度αだけずれ、カメラ視点PCBでの光軸は角度αだけずれているものとする。また、ユーザの視点位置Pが、第6図に示すように、上記基線上において内分比t:(1−t)で内分されている位置に載っていることを仮定する。尚、この仮定は、後述するように、載っていない場合にも一般化できる。
【0055】
第6図の例では、視点位置PCAにおける視野は視点位置PCBにおける視野を含むもので、従来の手法では、対応点を演算することができなかった。前述したように、本実施形態の手法は、第6図のような位置関係を有する実画像を第7図のように、夫々の光軸が一致するように、夫々の視点位置で回転して回転画像RI’,RI’を得るものである。
【0056】
回転画像RI’,RI’は、第8図,第9図に示された公知の手法により得ることができる。即ち、第8図に示すように、回転前の画像の視野角をβ(同じカメラを用いればβ=βである)とし、また、同カメラの焦点距離をf、水平方向画素数をWとする。一般的に、基線から角度α(またはα)だけ離れているカメラの光軸を基線に一致させることは画像RI(またはRI)を角度α(またはα)だけ回転させ、回転画像RI’(またはRI’)を得ることに等価である。この回転により、原画像RI(またはRI)の任意の座標(x,y)(または(x,y))は角度α(またはα)だけ回転させられて、次式に示された(x’,y’)(または(x’,y’))となる。
【0057】
[EQ1A]
Figure 0003634677
【0058】
[EQ2A]
Figure 0003634677
【0059】
[EQ1B]
Figure 0003634677
【0060】
[EQ2B]
Figure 0003634677
【0061】
ここで、
【0062】
[EQ3A]
Figure 0003634677
【0063】
[EQ3B]
Figure 0003634677
【0064】
[EQ3C]
Figure 0003634677
【0065】
本実施形態では、ユーザ視点位置での仮想画像VIは、上記回転後の光軸が一致された画像RI’,RI’に基づいて生成する。
発明者達は、一般的に、例えば、第10図の配置において、光軸I’,I’が一致する2枚の画像RI’,RI’に関して、同一対象物の、両画像におけるある対応点の座標x,xとすると、任意の視点位置P’での対応点の座標(x, y)は、
【0066】
[EQ4]
Figure 0003634677
【0067】
[EQ5]
Figure 0003634677
【0068】
と表される。即ち、2つの実画像RI’,RI’上の2つの対応点座標と仮想画像VR上の1つの対応点の間には上記EQ4, EQ5が成立することになる。換言すれば、仮想画像をEQ4, EQ5のような非線形補間によって生成することができる。
上記のEQ4, EQ5は第10図を参照し以下の計算により得ることができる。尚、カメラの座標系を(x, y)とし、グローバル座標系(X,Y,Z)とし、X軸=x軸、Y軸=y軸、更に、Z軸=光軸となるように定め、更に、対象物のある一点のグローバル座標を(X,Y,Z)、カメラの焦点距離をfとする。
【0069】
上記3つの画像上の対応点は全て同じ光軸上に載っていなければならないから、
【0070】
[EQ6A]
Figure 0003634677
【0071】
[EQ6B]
Figure 0003634677
【0072】
[EQ6C]
Figure 0003634677
【0073】
が得られる。
【0074】
[EQ6D]
Ze=t・Z +(1−t)・Z
【0075】
に着目し、EQ6からfを消去することにより、
【0076】
[EQ7A]
Figure 0003634677
【0077】
[EQ7B]
Figure 0003634677
【0078】
を経て、上記EQ4, EQ5を得ることができる。尚、EQ7, EQ7B式は、本実施形態の「非線形の比例配分処理」が、仮想画像の座標値x(またはy)の逆数(1/ xまたは1/y)が、実画像RIの画像座標系における座標値x(またはy)の逆数(1/xまたは1/y)と、実画像RIの画像座標系における座標値x(またはy)の逆数(1/xまたは1/y)とが、
t:1−t
【0079】
に比例配分されている。
EQ4, EQ5の補間式は、非線形ではあるものの、簡単な式で表されている。この理由は、2つの光軸を一致させているからである。尚、もし光軸を若干の誤差を許して一致させようにした場合においてEQ1, EQ2の変換式を用いると、歪みは不一致の度合に応じて増加するであろう。
【0080】
EQ4, EQ5によって得られたユーザの視点位置での補間画像は、ユーザが、点PCA,PCBを結ぶ基線の方向を向いているときの仮想画像である。実際には、第6図の例では、ユーザは基線に対して角度αだけ回転しているから、仮想画像VRを角度αだけ回転させる必要がある。角度αだけ回転した仮想画像の画素の座標を(x,y)とすると、
【0081】
[EQ8]
Figure 0003634677
【0082】
[EQ9]
Figure 0003634677
【0083】
ここで、
【0084】
[EQ10A]
Figure 0003634677
【0085】
[EQ10B]
Figure 0003634677
【0086】
かくして、第6図のような配置関係にあるカメラからの若しくは視点位置での2つの実画像に基づいて、その視点位置を結ぶ基線上の任意の位置に視点を有するユーザから見た補間画像を歪みを発生することなく生成することができる。
【0087】
【第1実施例】
上述の実施形態において説明した手法は、第4図或いは第6図から明らかなように、仮想的なユーザ視点位置は、実画像のカメラ視点位置PCAとPCBとを結ぶ線(即ち、基線)上にとっている、このことは、ユーザの仮想空間を体験できる範囲は基線上に限られることになる。
【0088】
以下に提案する実施例の仮想画像の補間方法は、仮想空間内の移動範囲を二次元的に拡張したものであり、そのために実画像を3枚用意する。即ち、3枚の実画像から、その3枚の画像の視点位置が規定する所定の仮想空間(二次元空間)での自由な移動をユーザに可能にするものである。移動可能な空間を二次元的に拡げるために、3枚の実画像の撮像位置は、第12図或いは第13図に示すように、3角形を構成するように配置する。
【0089】
この実施例の画像補間において重要なことは、撮像方向(カメラ視点位置)が知れた3つの実画像が得られることである。第12図の例では、2つのカメラIとIIを用い、この2つのカメラを同時に同じ方向に移動させながら、異なる撮像位置で複数の画像(実画像)を取得する。第13図の例では、3つの実画像を得るために、3つのカメラI,II,IIIを用いて、同時に撮像することにより、3つの実画像を得る。少なくとも、これら3枚の実画像からある程度の広がりの中で移動可能にして仮想空間を得ることができる。また、第13図の例で、3つのカメラを同時に移動すれば、次々と3枚一組の画像を得ることができる。換言すれば、移動可能な仮想空間は更に広がることになる。
【0090】
第12図の例で、2つのカメラを配置するための条件は、カメラIとカメラIIとは共に対象物体を視野に納めると共に、カメラIの視野がカメラIIの視野に含まれるように配置する。この例では、カメラI(またはカメラII)を移動すれば、カメラの光軸を回転させなければ、少なくとも、視点位置1と2(異なる時刻)とでは、カメラIの光軸は同一方向を向く。後述するように、視点位置1と2で得られた2つの実画像は、それら2つの視点位置での光軸が、一方は他方を含まないものとなるから、ひずみのない線形補間が可能である。
【0091】
第13図の例では、カメラIとカメラIIの光軸の一方が他方を含まないものとなるように、これら2つのカメラを配置する。
【0092】
第12図の例及び第13図の例で、カメラを移動すれば、多数の実画像が得ることができるのは上述したとおりである。本実施例の画像補間は、第13図のような同時に撮影された画像だけを用いてのみ行われるものではない。少なくとも第12図の例では、カメラIにより異なる時点で撮像された2つの画像(と、カメラIIにより撮像された1枚の画像)を用いて補間を行っている。即ち、第12図の例でも、第13図の例でも、所定の条件さえ満足した3枚の実画像であれば、その画像が同一カメラで取得されたものでなくとも、或いは同時に異なるカメラで取得されたものでなくとも、仮想画像を補間することが可能となることは後述の説明から明らかとなるであろう。
【0093】
本実施例の画像補間は、3つの実画像の視点位置を考慮してユーザの視点位置Pを設定する。補間画像を生成するに際して、3つの実画像の夫々の視点位置に重み付けを行う。3つの実画像I,I,Iについて夫々考慮すべき重み係数(w,w,w)は、実画像I,I,Iが3つの実視点位置(PCA,PCB,PCC)において、第14図のように配置していれば、
【0094】
[EQ11]
Figure 0003634677
【0095】
と表され、実画像I,I,Iが第15図のように配置していれば、
【0096】
[EQ12]
Figure 0003634677
【0097】
と表され、実画像I,I,Iが第16図のように配置していれば、
【0098】
[EQ13A]
Figure 0003634677
【0099】
となる。
EQ11乃至EQ13のいずれかにより求められた重み係数に基づいて、第14図乃至第16図に示した内分比が決定される。即ち、
【0100】
[EQ13B]
Figure 0003634677
【0101】
[EQ13C]
Figure 0003634677
【0102】
第14図乃至第16図に示した内分比は、一時的な仮想視点位置Pを設定する。一時仮想視点位置Pは、第14図の配置では基線AB上に、第15図の配置では基線BC上に、第16図の配置では基線CA上に、夫々、比率
1−s:s
となるように、夫々取られる。一時仮想視点位置Pにおける仮想画像は、その一時仮想視点位置Pが存在する基線の両端点(即ち、2つの実画像の夫々撮像位置)における視点方向が、第6図の関係になっていれば、即ち、一方の画像の視野が他方の実画像の視野を含んでいれば(以下、2画像がこの関係にある時には、「包含関係にある」と呼ぶこととする)、第7図乃至第11図に関連して説明した方法(即ち、EQ4, EQ5に従う非線形補間方法)によって求めることができる。このようにして一時的な仮想視点位置Pにおける仮想画像が得られる。以下において、一時的な仮想視点位置Pにおける仮想画像を「一時的仮想画像VI」と呼ぶ。
【0103】
一時的仮想画像VIが得られたならば、その一時的仮想画像VIと、3つの実視点位置(PCA,PCB,PCC)の内の、この一時的仮想画像VIを生成するのに参照した2つの実視点位置以外の実視点位置(以下、「残りの視点位置」と呼び、例えば第14図の例ではPCC)との間で、ユーザ視点位置での仮想画像VIを生成する。この場合、一時的仮想画像VIが、「残りの視点位置」での実画像と「包含関係」にあれば、上記ユーザ視点位置での仮想画像VIを、第7図乃至第11図に関連して説明した方法によって求めることができる。
【0104】
ところで、仮想画像を得るに際して「包含関係」を前提としてEQ4, EQ5の「非線形補間」を用いた。しかしながら、第14図乃至第16図の画像配置において、一時的仮想画像VIやユーザ視点位置での仮想画像VIを得るに際して、常に、「包含関係」が満足されているとは限られない。
【0105】
前述したように、2つの画像が包含関係にあるとは、後方に位置するカメラの視野内に、前方のカメラのレンズ中心が存在する状態を言うから、レンズ中心が前記視野内に存在しない場合には2つの画像は「包含関係」にない。本実施例では、2つの画像が「包含関係にない」場合には、「線形補間」の手法を用いて仮想画像(一時的仮想画像やユーザ視点での仮想画像)を形成するものである。
【0106】
2つの画像が包含関係にない場合における線形補間について説明する。
第17図において、実画像RIとRIとは共に包含関係になく、基線に対して、夫々、α,αだけずれている。ここで、実画像RIとRIが共に基線に対して直交するように、実画像RIとRIを夫々のレンズ中心の周りに回転する。この回転により、第18図に示すように、原画像RI(またはRI)の任意の座標(x,y)(または(x,y))は角度α(またはα)だけ回転させられて、次式に示された(x’,y’)(または(x’,y’))となる。
【0107】
[EQ14]
Figure 0003634677
【0108】
[EQ15]
Figure 0003634677
【0109】
[EQ16]
Figure 0003634677
【0110】
[EQ17]
Figure 0003634677
【0111】
[EQ18A]
Figure 0003634677
【0112】
[EQ18B]
Figure 0003634677
【0113】
[EQ18C]
Figure 0003634677
【0114】
次に、ユーザ視点位置での仮想画像VI’を、上記回転後の光軸が一致された画像RI’,RI’に基づいて公知の線形補間に従って生成する。ユーザ視点位置Pがカメラ視点PCA,PCBを、
1−s:s
【0115】
に内分する位置にあるならば、線形補間された仮想画像VI内の座標(x’e, y’)は、
【0116】
[EQ19]
Figure 0003634677
【0117】
[EQ20]
Figure 0003634677
【0118】
によって得られる。実際のユーザ視点位置は基線に対してαだけ回転しているから、生成すべき仮想画像は、(x’e, y’)をαだけ回転した画像(xe, )、
【0119】
[EQ21]
Figure 0003634677
【0120】
[EQ22]
Figure 0003634677
【0121】
ここで、
【0122】
[EQ23]
Figure 0003634677
【0123】
[EQ24]
Figure 0003634677
【0124】
によって得られる。
3つの実画像が第14図乃至第16図の配置のうちのいずれかの配置にある時の、ユーザ視点位置Pでの仮想画像の生成について説明する。
【0125】
第14図乃至第16図の配置のうちのいずれかの配置にあっても、「一時的仮想視点P」における「一時的仮想画像」を求める必要がある。ユーザ視点位置Pでの仮想画像は、前述したように、この「一時的仮想画像」と「残りの視点位置」での画像とに基づいて、「線形補間」(EQ19, EQ20)或いは非線形補間(EQ4, EQ5)の手法により得るものである。
【0126】
〈制御手順〉
以上説明したように、本実施例の画像補間は、2つの画像が包含関係にあるか否かによって、包含関係がある場合には非線形補間を、ない場合には線形補間を適用するものである。更に、ユーザの移動範囲を拡張するために本実施例は3つの画像を用いる。ところで、一時仮想画像を生成するにしても、ユーザ視点での仮想画像を生成するにしても、元となる2つ或いは3つの画像は、ユーザ視点位置および視線方向での対象物体の対応点に関する画像データを含まなくてはならない。画像が対象物体の画像データを含むことを、「対象物を含む」と呼ぶ。換言すれば、あるユーザ視点位置における補間画像を生成するときには、3つの実画像の全ては必ず「対象物を含まなくてはならない」。このために、ユーザが視点位置を移動したために、それまでの画像補間処理に用いてきた3枚一組画像が「対象物を含ま」なくなる場合もあり得る。この場合には、第20図のように、組合せを変えた3枚の画像を選択しなければならない。即ち、選択画像を変えることによりユーザの移動範囲を大きく拡張することができる。特に、本実施例の制御は、後述するように、画像の組合せによって、重み係数の計算方法を第14図乃至第16図のいずれかを選択でき、さらには、画像間の包含関係に応じて、線形補間或いは非線形補間を選択できるので、仮想画像を生成できない場合が極めて減少する。
【0127】
第21図は、本実施例の補間方法を組み込んだ画像補間(パノラマ画像表示)装置の制御手順を示すフローチャートである。この装置の制御手順は大きく分けて、前処理(ステップS100)と補間画像の生成表示(ステップS200)に分けられる。
【0128】
ステップS100の詳細は第22図に示される。即ち、ステップS102では、環境の画像を前もって収集し、併せて、複数の収集位置での、撮影位置(視点位置)と撮影方向(カメラの視線方向)に関するデータをも収集する。ステップS104では、画像と、視点位置と視線方向(併せて視点位置と呼ぶ場合もある)とを対応づけてデータベースに記憶する。
【0129】
ステップS106では、ステップS102で収集された複数の画像の中から、同じ対象物の対応点を共に含む3枚一組の画像を分類する。ステップS108では、各組内の3枚の画像について、対応点を3角形のメッシュにて対応づける。上記組合せでは、同じ画像が異なる組に分類されることを許す。例えば第23図の例で、対象物をカメラ視点位置A乃至Gで撮像した場合、
【0130】
第nの組... A,B,C
第n+1の組...B,C,D
第n+2の組...A,B,D
等の組合せが許される。このような組合せにより、第20図に示したような組合せの拡張、即ち、移動領域の拡大効果が得られる。
【0131】
ステップS200の処理の詳細を第24図により説明する。即ち、ステップS202では、観察者(ユーザ)の現在の視点位置P(X,Y,Z)と視線方向αとを取得する。ステップS204では、視点位置P(X,Y,Z)と視線方向αに基づいて、最適な一組3枚の画像I,I,Iを決定する。ステップS204では、第14図乃至第16図のうちのどの内分方法を用いるかを決定する。ステップS206では、非線形の補間処理に用いられる第1の内分比(s : 1−s)と第2の内分比(t : 1−t)とが決定される。
【0132】
ステップS208では、画像I,Iが包含関係を有するかを判定する。包含関係は前述したように、一方の画像の視野内に他方のレンズ中心が含まれる状態を言う。この包含関係を第26図を用いて説明する。2台のカメラの光軸ベクトルを夫々V,V、これらのカメラのレンズ中心を結ぶベクトルV12とする。また、VとV12とのなす角度をθ、VとV12とのなす角度をθ、またθをカメラの画角βの2分の1とすると、
【0133】
[EQ25]
Figure 0003634677
【0134】
が満たされているか否かで行う。
画像I,Iが包含関係を有する場合には、ステップS210以下に進む。即ち、ステップS210では第6図に示したように、画像I,Iの光軸が略一致して平行になるように画像I,Iを回転する。ステップS212では、第7図に示すように、仮想画像を非線形補間により補間生成する。ステップS214では、第8図に示すように、その仮想画像をユーザの視線方向に合わせて回転する。ステップS216では、生成した仮想画像を、その視点位置と共にデータベースに格納する。本実施例では、仮想画像を実画像と同じように扱い、他の仮想画像の生成の基礎とすることができる。
【0135】
画像I,Iが包含関係にない場合には、ステップS218乃至ステップS222において、第17図乃至第19図に示すように線形補間を行う。ステップS222では補間された画像を視線方向に合わせて回転する。
【0136】
かくして、包含関係にある場合とない場合とにおける、仮想視点位置P(第14図乃至第16図を参照)における仮想画像が得られた。
【0137】
第25図は、第24図の制御手順により得られた仮想画像VIと残りの画像Iとについて包含関係を判断する。仮想画像VIと残りの画像Iとが包含関係にある場合には、前述の非線形補間を行うために、ステップS232乃至ステップS236を行う。仮想画像VIと残りの画像Iとが包含関係にない場合には、前述の線形補間を行うために、ステップS240乃至ステップS244を行う。かくして、仮想画像VIと残りの画像Iとについて、包含関係に応じて非線形補間または線形補間がなされて、ユーザ視点位置でのユーザ視線方向での仮想画像が生成されたことになる。
【0138】
第27図は、本実施例の制御のさらなる拡張を説明する。
即ち、第27図の制御では、複数回の線形補間(或いは非線形補間)によりユーザ視点位置での仮想画像を生成し、それらの複数の仮想画像をつなぎ合わせることにより、移動可能なユーザの視野範囲を拡張することができる。
【0139】
以上説明したように、本発明の実施形態や実施例によれば、第28図に示すように、2通りの補間により、ユーザの移動可能な範囲を拡張すると共に、パノラマ画像生成の際に制限を少なくすることができる。
【0140】
【第2実施例】
上記実施形態若しくは第1実施例に関連して説明したモーフィング(以下、「通常モーフィング」と呼ぶ)は、2枚または3枚の実写画像(コンピュータ画像であってもよい)の2つの視点(または3つの視点)間に存在する任意の視点から撮影したら得られるであろう仮想補間画像をモーフィング処理により生成するものであった。上記実施形態および第1実施例は、物体(現実物体の実写画像であろうと仮想物体の仮想画像であろうと)が凹凸(特に奥行き方向での凹凸)が少ない場合には、視点位置が変化しても、その視点位置からは「見えない」部分の発生が少ないことが予想できるために、有効であると考えられる。
【0141】
しかしながら、実際の物体(従って、仮想物体も)は凹凸の大きいものがあり、そのような物体を視点位置を移動させながら上記の「通常モーフィング」処理を行うと、ある視点で本来では見えない部分を見えるかのように補間画像を生成したり、本来では見えるはずの部分を見えていないものとして補間画像を生成したりする。 この第2実施例は、後述する「階層化モーフィング」処理を導入し、画像中に含まれる対象物体に凹凸が少ない(或いはあっても無視できる)場合には、前述の「通常モーフィング処理」を行い、画像中に含まれる対象物体に凹凸が大きい(或いは無視できない)場合には、「階層化モーフィング処理」を実行する、即ち、「通常モーフィング処理」と「階層化モーフィング処理」とを適応的に切り替えるというものである。
【0142】
第29図は、この第2実施例の画像処理装置が特に好適であろうと考えられるウォークスルー仮想空間を説明する。図中、ハッチングを付した部分はユーザが仮想的にウォークスルーが可能な経路である。粗いハッチングを施した2つのパス50,80は狭く、細かいハッチングを施した領域60,70は二次元的な広がりを有する。即ち、ユーザが狭いパス50または80をウォークスルーする間は、進行方向の左右(紙面で上下方向)に移動できる幅は少ないが、領域60,70では大きく切れ込んで左右方向(紙面で上下方向)に移動することができる。この結果、ユーザは、領域50,80をウォークスルーする間は、たとえ、視線が進行方向に直交する方向(即ち、紙面上下方向)に向くことがあっても、左右の背景(遠景)に近づくことはないので、背景画像(パノラマ画像)における奥行き方向の凹凸は問題とはならない。従って、この区間50,80では、通常モーフィング処理を行えばよい。しかしながら、領域60,70をウォークスルー中は、背景に近づくことがあり得るので、背景画像(パノラマ画像中の物体も含める)の凹凸が問題となる。そこで、領域60,70をウォークスルー中は「階層化モーフィング処理」を適用する。
【0143】
第30図は、上述の通常モーフィングと階層化モーフィングとの適応的切換制御を適用した第2実施例の仮想空間ウォークスルーシステムの構成を示す。
【0144】
第30図中、100は、三面スクリーンであり、中央スクリーン100Cを挟んで左スクリーン100Lと右スクリーン100Rとが左右に配置されている。これらのスクリーンに表示されるべき3枚の画像は画像生成用計算機400で生成される。計算機400は、三枚の画像をシリアルで3台のスキャンコンバータ(SC)600に順に送る。画像生成用計算機400が参照する実写画像はハードディスク500に格納されている。制御用計算機300にはジョイスティック200が接続され、ユーザがジョイスティック200を操作することにより入力されるウォークスルー方向(ユーザが仮想空間中でウォークスルーしたい方向)は計算機300で処理される。即ち、制御用計算機300は、ある時刻tにおけるジョイスティック200の状態に関するデータをEthernetを介して計算機400に送る。画像生成用計算機400は、このデータに基づいて時刻tにおけるユーザの視点位置、視線方向に関するデータを演算する。そして、この視点、視線方向に応じた3枚若しくは2枚のパノラマ画像をハードディスク500から取り出して、所定の演算を行ってスキャンコンバータ600に送る。
【0145】
第31図は、制御計算機300と画像生成計算機400による、ウォークスルーのための全体的な制御手順を示すフローチャートである。尚、第31図のステップS400のモーフィングの切換工程の詳細は第32図に説明されている。
【0146】
まず、ステップS300では、ジョイスティック(以下、JSと略す)200の操作をユーザに促す。ステップS302,ステップS304で、JSの操作状態は制御用計算機300を経て画像生成用計算機400に送られる。計算機400は、ステップS308で、JSの操作によって進行した現在の視点位置、視線方向を計算する。ステップS310では、計算機400は、現時点の視点位置と視線方向とに基づいて、その位置・姿勢に最適な3枚若しくは2枚の画像を取り出す。ステップS400では、最適なモーフィング処理(通常モーフィング処理か階層化モーフィング処理を選択し、その処理への切換を行い、選択されたモーフィング処理を実行する。ステップS500では、モーフィング処理の結果得られた画像をフレームメモリ内で描画する。ステップS502,ステップS504,ステップS506では描画された画像をスクリーンに映写する。
【0147】
第32図は、第31図のステップS400の詳細手順を示す。即ち、ステップS402で、現在ウォークスルー中の位置に割り当てられたモーフィングモードを調べる。このモードは「通常モーフィング処理」か「階層化モーフィング処理」の区別を示す1ビットデータによって識別可能であり、例えば、第29図に示されたウォークスルー可能な全ての位置(x、y)に1ビットのフラグMを割り当てることとする。具体的には、第29図で、粗いハッチング領域(即ち、通常モーフィングを行うべき領域)の任意の座標にはM=0を、細かいハッチング領域(即ち、階層化モーフィングを行うべき領域)の任意の座標にはM=1を割り当てるとする。
【0148】
現在のウォークスルー地点が粗いハッチング領域内(即ち、M=0の領域50,80)であれば、ステップS410に進んで、「通常モーフィング処理」を行う。「通常モーフィング処理」とは、第24図,第25図に示された処理、若しくは周知のパノラマ画像の切換処理をいう。従って、「通常モーフィング処理」の詳細な説明は省略する。
【0149】
現在のウォークスルー地点が細かいハッチング領域内(即ち、M=1の領域60,70)であれば、ステップS404に進み、ジョイスティック200のボタン201(第30図)が押されているかを確認する。押されていない場合には、処理はメインルーチンにEXITする。即ち、領域60または70に現在の視点位置があっても、このボタン201が同時に押されてジョイスティック200が操作されない限りは、階層化モーフィング処理は行われないことになる。ボタン201が押されている場合には、ステップS406で、後述の階層化モーフィング処理を行う。S406の階層化モーフィング処理は、ボタン201を解除しない限りはエネーブルされている。
【0150】
ステップS406の階層化モーフィング処理について更に詳細に説明する。
【0151】
この階層化モーフィング処理は、事前に、背景画像(パノラマ画像)を階層化しておく前処理が必要である。この前処理は、実写画像内の複数の対象物(現実物体)の画像を、奥行き深さに応じて複数の領域に分割するものである。そして、実際の階層化モーフィング処理では、ある範囲の深さの奥行き内に入る領域を1つのレイヤとして把握し、このレイヤの夫々に対して通常モーフィングを施するものである。具体的には、領域60,70に視点位置があるときのために準備されている背景画像(パノラマ画像)は、前もって「階層化」されているのである。
【0152】
前処理であるところの「階層化処理」について説明する。
【0153】
「階層化処理」のための説明の便宜上、第33図に示すように、四角柱1000と三角柱2000とからなる現実空間を視点位置E1, E2, E3において撮像することにより第34図のような3つの画像を得た場合を想定する。各視点位置において撮像して得た3枚の実画像(RI, RI, RI)を第34図に示す。第34図において、アラビア数字は3枚の画像間で対応する特徴点を示す。
【0154】
前処理である階層化処理を実行すると、計算機300は、上記3枚の実画像(RI, RI, RI)を制御用計算機300のモニタ画面に第34図のように表示する。
【0155】
第35図は階層化の原理を説明する。どの画像部分をどのレイヤに所属させるかは、ユーザが、第34図のモニタの表示画面を見ながら指定する。即ち、ユーザは、画面上に表示されている物体が本来はどのような奥行き関係にあるかを推定することができる。例えば、第34図の実写画像RIが計算機300のモニタ装置に表示されていれば、ユーザは、その表示内容から、三角柱2000が四角柱1000の後方にあり、三角柱2000と四角柱1000の更に後方に背景が存在することは推定できる。そこで、ユーザは、まず、背景に対してレイヤIを割り付ける。その上で、第34図の画像RIにおいて、三角柱2000の最外側の5つの頂点(10,11,12,13,14)によって画成された画像部分をレイヤIIとして割り付ける。また、四角柱1000の最外側の6つの頂点(1,2,3,4,5,6)によって画成された画像部分をレイヤIIIとして割り付ける。第35図(即ち第31図)の例では、背景が最後方で、三角柱2000が中間に、四角柱1000が近傍にあるから、上述の画像分割は、第35図に示すようなレイヤ分割となる。即ち、この階層化処理を経ると、実写画像は、例えば、レイヤI乃至レイヤIIIは階層化されることとなる。第2実施例の階層化モーフィング処理は、同じ階層にある二次元画像は同じ範囲の奥行きにあるものと見なして、補間モーフィングを施す。第2実施例の階層化モーフィングは、互いに近しい奥行き関係にある複数の画像部分を同じレイヤに属させることにより、同じレイヤに属する画像部分については、視点位置が移動しても、見え隠れの程度を一様とすることができるようになることを利用する。即ち、第2実施例も、第1実施例と同じように、視点位置の移動に応じた補間画像を生成するものであるが、視点位置の移動に応じて発生する奥行きの異なる部分間での見え隠れの変化に対して、実画像では隠れされている部分であって、仮想の視点位置では見えなくてはならないその部分を、ユーザに、確実に顕在化させることができる。実画像では隠されている部分(範囲)をユーザに目で見えるようにすることにより、その隠されている部分の画素の濃淡データやカラーデータを後述のレタッチ操作により補充することができるからである。
【0156】
第2実施例の階層化モーフィングが、奥行き方向で起伏の激しい物体(例えば第36図のような、頂点がユーザの方向に向いている円錐)を扱うときは、第37図のように、多くのレイヤを設定する。第37図の例では、レイヤIの背景レイヤと、レイヤIIからレイヤVまでの4つの複数の同心円環状のレイヤとに分割される。
【0157】
階層化処理の制御手順の詳細は第38図に示される。また、階層化処理の具体的な動作は第39図乃至第41図に説明される。また、階層化処理された結果の階層化構造画像を第42図に示す。
【0158】
第39図乃至第41図、第42図を参照しながら、第34図の画像RIに対して階層化処理を行った場合の詳細について説明する。
【0159】
第2実施例では、階層の指定は、即ち、二次元画像の特徴点(通常は輪郭線の頂点)の指定によって行う。また、第2実施例での「レタッチ処理」と黒く塗る処理とは、市販の汎用の画像オーサリングツールソフトウエアであるPhotoShop(米国Adobe社製)を用いて行った。
【0160】
第2実施例での階層化は、その部分画像の輪郭線の特徴点の点列P(k)に、階層値iを割り当てることに帰結する。ここで、iは階層を表す値(値が小さいほど、その部分画像奥方向に深いことを意味する)、kは同じ階層iに含まれる部分画像を示す。
【0161】
第34図の画像RIをユーザが階層化処理すると、視点位置から遠いレイヤから順に、
【0162】
レイヤI(i=I):背景画像全体、
レイヤII(i=II):点列P(1) = 10→11→12→13→14
レイヤIII(i=III):点列PII(1) = 1→2→3→4→5→6
が得られる。尚、三角柱2000の頂点13はユーザからは見えないが、ユーザは、三角柱2000の頂点13は四角柱によって隠されていることが分かっているので、仮想頂点13を与えた。
【0163】
点列P(k)によって示される閉領域はオブジェクトを表し、そのオブジェクトを参照すれば、その閉領域内の全ての画素値を参照することができる。
【0164】
もし、四角柱1000と三角柱2000とが視点位置から見て同じような奥行き範囲にあるのであれば、ユーザは四角柱1000と三角柱2000に対して同じレイヤ値を与えるであろう。この場合には、
【0165】
レイヤII(i=II):
点列PII(1) = 10→11→12→13→14
点列PII(1) = 1→2→3→4→5→6
【0166】
となる。このようなオブジェクト化によって、ハードディスク500内の所定の領域には、第42図のような、3つの画像毎に、更に、レイヤ毎に、オブジェクト化された点列P(k)のテーブルが生成される。画像生成用計算機400はこのテーブルを参照して、階層化モーフィングを行う。
第38図は、階層化処理の制御手順を説明するフローチャートである。同図のステップS600乃至ステップS614のループは、第42図のオブジェクトテーブルを生成する工程を説明する。即ち、ステップS604乃至ステップS610においては、ユーザが、計算機300のマウスなどを用いて、1つのレイヤ値iについて、その階層内にあると思われる夫々(引数k)の対象物(部分画像)を、ステップS606において、点列P(k)として、指定するものである。その結果はステップS608でメモリに記憶される。
【0167】
あるレイヤ(値i)について全ての対象物の指定が終了すると(ステップS610でNO)、ステップS612でカウンタkを初期化し、ステップS614で、対象(第34図の画像)の画像内に他のレイヤとして処理すべき部分画像があるかないかの入力をユーザに促す。処理すべき部分画像があるとユーザが判断すれば、ステップS602乃至ステップS614までの工程が繰り返される。
【0168】
全ての部分画像を処理したならば、累積されたレイヤの値はカウンタiに記憶されている。そこで、ステップS616でその値をレジスタNに記憶しておく。
【0169】
ステップS618〜ステップS624の処理は、各レイヤの部分画像の有効部分の画素値を保存し、無効部分の画素値をFF(即ち黒色)とし、「隠れ部分」についてはレタッチ処理を施すものである。
【0170】
ステップS618〜ステップS624の処理の具体例が第39図乃至第41図に説明されている。また、第44図は、階層化処理のためのアプリケーション・プログラムのプルダウンメニューを表している。第45図は、階層化処理アプリケーション・プログラムを実行中に現在処理中のレイヤ番号とオブジェクト番号とを示している。
【0171】
レイヤ分割についてのユーザの操作を第44図を参照して説明する。
【0172】
最下位のレイヤ(レイヤI)は前述したように、元の原画像全体に与えられる。即ち、ファイルメニューの新規作成を選択すると、分割対象の原画像を選択すべくダイアローグが計算機300のCRT上に標示され、ユーザは原画像のファイル名を入力する。すると、その画像がCRT上に標示される。ユーザは、レイヤIとレイヤIIとの境界(閉曲線)をマウスによって指定する。第34図の例では、
点列1, 2, 16, 14, 10, 11, 12, 15, 4, 5, 6
によって指定する。勿論、境界の指定は、点列だけではなく、矩形領域指定アイコン、所謂「投げ縄」アイコン、またはマウスによる自由曲線によっても指定できる。この状態で、ユーザが、編集メニュウの「レイヤ設定」をマウスによってクリックすると、原画像の内部であって、
点列P(1) =1, 2, 16, 14, 10, 11, 12, 15, 4, 5, 6
【0173】
によって区画された境界の外側の領域が、レイヤIとして割り付けられる。この時点では、CRT画面には、第45図のように、現在のレイヤ番号として、LL=01が、オブジェクト番号としてOB=01が表示されている。
【0174】
次に、ユーザが三角柱2000によって形成されるレイヤIIを設定したいときは、前述したように、
点列PII(1) = 10→11→12→13→14
をマウスなどで選択し、「レイヤ設定」メニューを選択すると、三角柱2000の内部がレイヤIとして形成される。この時点では、CRT画面には、現在のレイヤ番号として、LL=02が、オブジェクト番号としてOB=01が表示されている。
【0175】
もし同じレイヤに他のオブジェクトが存在する(ステップS610でYES)場合には、マウスなどにより、そのオブジェクトの境界を選択(ステップS608)して、「編集メニュー」の「オブジェクト設定」副メニューを選択すると、その部分が別のオブジェクトとして形成される。このときには、CRT画面には、現在のオブジェクト番号としてOB=02が表示されることになろう。
【0176】
レイヤの設定やオブジェクトの設定は、以上のようにして「編集メニュー」に掲げられた各種の機能を駆使することにより実現でき、その結果、第34図の例の画像RIは、レイヤIからレイヤIIIまでの3つのレイヤに分割される。
【0177】
尚、一度設定したレイヤやオブジェクトを削除するときは、そのレイヤのオブジェクトの内部をマウスでクリックし、「編集メニュー」の「レイヤ解除」または「オブジェクト解除」副メニューを選択することにより達成される。同メニューにより、レイヤやオブジェクトが削除されたときは、全てのレイヤ番号やオブジェクト番号は順に繰り下げられる。
【0178】
第38図の制御手順のステップS616乃至ステップS624の処理は、全てのレイヤと全てのオブジェクトが設定された(ステップS614でNOの判断)後において実行される処理であって、この処理は他のレイヤのオブジェクトを黒で埋めるものである。
【0179】
まず、ステップS616で総レイヤを記憶するレジスタNにカウンタiの値をセーブする。また、カウンタiを0に初期化する。ステップS618では、最下位レイヤ(背景レイヤ)を選択するためにカウンタiを1だけインクリメントする。
【0180】
ステップS620では、レイヤiに属さない全てのレイヤのオブジェクトの画素を黒でペーストする。第34図の画像RIを例にすれば、レイヤIに対しては第39図のように、点列P(1) =1, 2, 16, 14, 10, 11, 12, 15, 4, 5, 6の内部が黒で塗りつぶされる。
【0181】
ステップS622では、隠れ部分をレタッチする操作をユーザに促す。「隠れ部分」とは、レイヤiのいずれかのオブジェクトkが、i以外の他のレイヤのオブジェクトによって隠されている場合において、その隠されている部分をいうものとする。そのような「隠れ部分」はユーザがCRT画面を見ることにより認識可能である。「隠れ部分」はユーザによって「レタッチ」されることができる。「レタッチ」処理は、「隠れ部分」がモーフィングによって可視的に顕在化する場合に備えて、予め、色・模様・テクスチャ等を与えて、モーフィングされた画像に見苦しい部分が発生しないようにするための処理である。
【0182】
隠れ部分をユーザに選定させるために、CRT上に「レタッチ元のテクスチャを選択して下さい」とのメッセージが表示される。第39図の例では、ユーザは「レタッチ」の処理が不要と考えために「隠れ部分」の設定を行わなかった。
【0183】
ステップS624からステップS618に戻り、次のレイヤのオブジェクト(第34図の例ではレイヤII)が選択される。レイヤIiに対してステップS620の処理が施されると、レイヤIとレイヤIIIの領域が黒で塗りつぶされるために、第40図のような画面がCRT上に表示される。
【0184】
ステップS622で、CRT上に「レタッチ元のテクスチャを選択して下さい」とのメッセージが表示される。この時点でユーザは、レイヤIIの三角柱2000のオブジェクトの一部がレイヤIIIの四角柱1000の一部によって隠されていることを知っている。その隠れ部分の領域は、
点列:16, 3, 15, 13
であり、かかる部分の画素値はレイヤIIIの四角柱1000の対応領域の画素値であろう。そこで、ユーザは、その隠れ部分領域を、三角柱2000のテクスチャでレタッチするために、三角柱2000の所望の領域をマウスで選択し、「編集メニュー」の「レタッチ元」副メニューを選択する。そして、点列:16, 3, 15, 13に囲まれた領域をマウスでクリックして、「編集メニュー」の「レタッチ先」副メニューを選択すると、上記隠れ部分領域には、「レタッチ元」メニューで選択されたテクスチャが繰り返しペーストされる。
【0185】
こうして、モーフィング時に備えて、隠れ部分領域はユーザが最適と判断したテクスチャによって「レタッチ」される。このために、モーフィングされた画像には不自然な領域が発生することが防止される。
【0186】
ステップS618〜ステップS6222の処理がレイヤIIIに対して行われると第41図のような画面が得られる。
【0187】
かくして、第2実施例の「階層化」アプリケーション・プログラムの制御手順(第38図)により、元の画像はレイヤ毎に分割され、各レイヤはオブジェクト毎に分割されて、新たな階層化画像データが第42図のようなテーブル形式で作成される。結果、階層化モーフィング処理(第43図の制御手順)において、階層毎にモーフィングを行うための準備が完了した。
【0188】
本発明の階層化処理は、本来は連続的に変化する三次元物体の撮影画像を、階段的に(階層的に)「輪切り」にして、視点位置の移動によって隠れることとなる画像部分を顕在化させるものである。この階層化処理(第38図の手順)を第36図の物体に適用すると、第37図のような、階段状のオブジェクト画像が得られる。
【0189】
第31図のウォークスルーアプリケーション・プログラムの処理の説明に戻る。ステップS310でハードディスク装置500から取り出される画像データは、第32図のステップS402などにより、階層化モーフィングを行うべきか、通常モーフィング処理を行うべきかによって異なる。もし、ステップS402,ステップS404で、ユーザの視点位置が階層化モーフィング処理を行うべき領域にまでウォークスルーしてきたと判断された場合には、ステップS310で取り出すべき画像データは第42図のように階層化された画像データとなろう。そこで、第32図のステップS406では、階層化モーフィング処理を行う。ステップS406の詳細は第43図に示されている。
【0190】
即ち、第43図のステップS406aでは、カウンタiとkとを初期化し、ステップS406bでは、次の階層を選択するためにカウンタiを1だけインクリメントし、ステップS406cでは、オブジェクトk+1を選択し、ステップS406dでは、3枚の画像(第34図の例ではRI,RI,RI)のうちの、カウンタiとカウンタkによって指定されるオブジェクト(i,k)の画像データに対しての、第1実施例のモーフィング処理を行う。ステップS406c乃至ステップS406eの処理を全てのオブジェクトに対して行い、ステップS406b乃至ステップS406fの処理を全てのレイヤの全てのオブジェクトに対して行う。以上のようにして階層化モーフィング処理が終了する。
【0191】
第31図のステップS400で、補間モーフィング処理(詳細は第32図)が終了すると、ステップS500でレンダリング(描画処理)が行われる。レンダリング(描画処理)は、モーフィングが階層化モーフィングによる階層化画像データをレンダリングするときは、1つのあるレイヤiに属する全てのオブジェクトのモーフィングされた階層化画像データを合成し、更に全ての階層の階層化画像データを合成する。この合成後の画像をステップS504,ステップS506でスクリーン装置100に表示する。
【0192】
第2実施例を種々変形することができる。
即ち、第2実施例の通常モーフィング処理も階層化モーフィング処理も、3枚の画像に基づいてモーフィングするものであったが、実施形態の手法と同じように2枚の画像に基づく変形例に対しても本発明を適用できる。
【0193】
また、通常モーフィング処理として、周知のパノラマ画像の単なる切換処理を導入してもよい。
【0194】
本発明の画像処理をウォークスルーアプリケーション・プログラムに適用した例を用いて説明したが、本発明の適用範囲はウォークスルーに限定されず、およそ、複数(2点以上)の視点から撮像した画像に基づいて補間モーフィングを行う適用分野であれば、いかなる分野にも適用可能である。
【0195】
【発明の効果】
以上説明したように、本発明によれば、対象物体間の前後関係が正しく反映されたモーフィングを保証することができる。
【図面の簡単な説明】
【図1】従来技術において、線形補間において歪みが発生する理由を説明する図。
【図2】従来技術において、画像の視線方向を基線に直交する処理を行えば歪みが発生しない理由を説明する図。
【図3】従来技術において、歪みを除去できない理由を説明する図。
【図4】本発明の実施形態における、非線形補間の原理を説明する図。
【図5】実施形態の非線形補間の前処理として、画像の光軸を一致させる処理を説明する図。
【図6】非線形補間処理が必要な場合を説明する図。
【図7】実施形態の非線形補間処理を説明する図。
【図8】非線形補間の前処理として、画像の光軸を一致させる処理を説明する図。
【図9】非線形補間の前処理として、画像の光軸を一致させる処理を説明する図。
【図10】実施形態の非線形補間処理の原理を説明する図。
【図11】非線形補間処理後に画像をユーザの視線方向に一致させるための回転処理を説明する図。
【図12】本発明の第1実施例において、3つの画像を用いることが必要であることを説明する図。
【図13】本発明の第1実施例において、3つの画像を用いることが必要であることを説明する図。
【図14】1つの内分点がユーザ視点位置に一致するように、2つの内分点の取り方の1手法を説明する図。
【図15】1つの内分点がユーザ視点位置に一致するように、2つの内分点の取り方の他の手法を説明する図。
【図16】1つの内分点がユーザ視点位置に一致するように、2つの内分点の取り方の他の手法を説明する図。
【図17】第1実施例の線形補間の原理を説明する図。
【図18】第1実施例の線形補間の原理を説明する図。
【図19】第1実施例の線形補間の原理を説明する図。
【図20】選択対象の画像を切り替えることにより移動範囲が拡張する理由を説明する図。
【図21】第1実施例の制御手順の全体を示すフローチャート。
【図22】制御手順の前処理の詳細を説明するフローチャート。
【図23】画像セットの組合せにおいて異なるセットに同一の画像が含まれることを許す理由を説明する図。
【図24】第1実施例の補間処理のための制御手順を示すフローチャート。
【図25】第1実施例の補間処理のための制御手順を示すフローチャート。
【図26】包含関係を説明する図。
【図27】第1実施例の手法が更に拡張される理由を説明する図。
【図28】実施形態や第1実施例における補間原理を概略化して説明する図。
【図29】本発明を仮想空間のウォークスルーに適用した第2実施例における、視点位置の相違に応じたモーフィングの切換を説明する図。
【図30】第2実施例に係るウォークスルーシステムの構成を説明する図。
【図31】第2実施例のウォークスルーアプリケーション・プログラムの前提手順を説明するフローチャート。
【図32】図31のステップS40の詳細を説明するフローチャート。
【図33】第2実施例において、対象物体間に前後関係がある場合を説明する図。
【図34】図33の対象物体を撮像して得られた3つの基となる画像を制御装置300のCRT画面に表示したときの画面の図。
【図35】第2実施例で、空間を、奥行き距離を参照しながら複数のレイヤに分割する原理を説明する図。
【図36】視線方向にとがった対象物体と視点位置との関係を説明する図。
【図37】図36の物体の画像を第2実施例の階層化分割に従って分割したときの部分画像の生成の様子を説明する図。
【図38】第2実施例のモーフィングに適した画像を生成するための前処理工程(階層化処理)の制御手順を説明するフローチャート。
【図39】第2実施例の前処理におけるステップS616乃至ステップS624の動作を具体例(レイヤI)を用いて説明する図。
【図40】第2実施例の前処理におけるステップS616乃至ステップS624の動作を具体例(レイヤII)を用いて説明する図。
【図41】第2実施例の前処理におけるステップS616乃至ステップS624の動作を具体例(レイヤIII)を用いて説明する図。
【図42】第2実施例の前処理により生成された階層化画像データの構造を説明する図。
【図43】図32のステップS406の詳細な手順を説明するフローチャート。
【図44】第2実施例の階層化アプリケーション・プログラムが表示するプルダウンメニューを説明する図。
【図45】第2実施例の前処理において、制御装置300のCRT画面に表示される、現在指定されているレイヤとオブジェクトの番号を表示するウインドを説明する図。

Claims (6)

  1. 複数の視点位置から撮影された実写画像を用いて、所望の視点位置から見える画像をモーフィング処理によって生成する画像処理方法であって、
    実写画像内の対象物を奥行き深さに応じて複数のレイヤに階層化する階層化工程と、
    複数の視点位置から撮影された実写画像を入力する実写画像入力工程と、
    所望の視点位置に係る視点情報を入力する入力工程と、
    複数の視点位置から撮影された実写画像に対して前記階層化工程で階層化を行い、該階層化されたレイヤごとにモーフィング処理を行い、前記所望の視点位置から見える画像を生成するモーフィング処理工程と
    を備えることを特徴とする画像処理方法。
  2. 前記階層化工程では、ユーザによる実写画像の特徴点の指示に基づき前記階層化を行うことを特徴とする請求項1に記載の画像処理方法。
  3. 前記ユーザによる実写画像の特徴点の指示は、該実写画像の表示画面上で行われることを特徴とする請求項2に記載の画像処理方法。
  4. さらに、前記レイヤの隠れ部分に対してレタッチ処理を行うレタッチ処理工程を備えることを特徴とする請求項1乃至3の何れか1項に記載の画像処理方法。
  5. コンピュータに請求項1乃至4の何れか1項に記載の画像処理方法を実行させるためのプログラムを格納することを特徴とする、コンピュータ読み取り可能な記憶媒体。
  6. 複数の視点位置から撮影された実写画像を用いて、所望の視点位置から見える画像をモーフィング処理によって生成する画像処理装置であって、
    実写画像内の対象物を奥行き深さに応じて複数のレイヤに階層化する階層化手段と、
    複数の視点位置から撮影された実写画像を入力する実写画像入力手段と、
    所望の視点位置に係る視点情報を入力する入力手段と、
    複数の視点位置から撮影された実写画像に対して前記階層化手段が階層化を行い、該階層化されたレイヤごとにモーフィング処理を行い、前記所望の視点位置から見える画像を生成するモーフィング処理手段と
    を備えることを特徴とする画像処理装置。
JP20230099A 1999-02-19 1999-07-15 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体 Expired - Fee Related JP3634677B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP20230099A JP3634677B2 (ja) 1999-02-19 1999-07-15 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体
US09/376,329 US6636234B2 (en) 1999-02-19 1999-08-18 Image processing apparatus for interpolating and generating images from an arbitrary view point

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP11-41354 1999-02-19
JP4135499 1999-02-19
JP20230099A JP3634677B2 (ja) 1999-02-19 1999-07-15 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体

Publications (2)

Publication Number Publication Date
JP2000307949A JP2000307949A (ja) 2000-11-02
JP3634677B2 true JP3634677B2 (ja) 2005-03-30

Family

ID=26380961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20230099A Expired - Fee Related JP3634677B2 (ja) 1999-02-19 1999-07-15 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体

Country Status (2)

Country Link
US (1) US6636234B2 (ja)
JP (1) JP3634677B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2259224A2 (en) 2009-06-02 2010-12-08 Sony Corporation Image processing apparatus, image processing method, and program
US8451321B2 (en) 2009-06-19 2013-05-28 Sony Corporation Image processing apparatus, image processing method, and program

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7133812B1 (en) 1999-08-30 2006-11-07 Ford Global Technologies, Llc Method of parametic design of an instrument panel support structure
JP3632563B2 (ja) * 1999-10-19 2005-03-23 株式会社豊田自動織機 映像位置関係補正装置、該映像位置関係補正装置を備えた操舵支援装置、及び映像位置関係補正方法
US6760693B1 (en) * 2000-03-29 2004-07-06 Ford Global Technologies, Llc Method of integrating computer visualization for the design of a vehicle
US7158923B1 (en) 2000-03-29 2007-01-02 Ford Global Technologies, Llc Method of integrating product information management with vehicle design
JP2004505394A (ja) * 2000-08-04 2004-02-19 ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド イメージ変換および符号化技術
US7085409B2 (en) * 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
US6914618B2 (en) * 2000-11-02 2005-07-05 Sun Microsystems, Inc. Methods and systems for producing A 3-D rotational image from A 2-D image
JP2002232908A (ja) * 2000-11-28 2002-08-16 Monolith Co Ltd 画像補間方法および装置
JP3631151B2 (ja) * 2000-11-30 2005-03-23 キヤノン株式会社 情報処理装置、複合現実感提示装置及びその方法並びに記憶媒体
FR2820534B1 (fr) * 2001-02-08 2003-06-27 Inst Nat Rech Inf Automat Dispositif de simulation de deformations de materiaux, notamment de tissus corporels mous
US7096428B2 (en) * 2001-09-28 2006-08-22 Fuji Xerox Co., Ltd. Systems and methods for providing a spatially indexed panoramic video
JP4148671B2 (ja) * 2001-11-06 2008-09-10 ソニー株式会社 表示画像制御処理装置、動画像情報送受信システム、および表示画像制御処理方法、動画像情報送受信方法、並びにコンピュータ・プログラム
US6795090B2 (en) * 2001-11-13 2004-09-21 Eastman Kodak Company Method and system for panoramic image morphing
US20040196282A1 (en) * 2003-02-14 2004-10-07 Oh Byong Mok Modeling and editing image panoramas
US9063633B2 (en) * 2006-03-30 2015-06-23 Arjuna Indraeswaran Rajasingham Virtual navigation system for virtual and real spaces
JP4595313B2 (ja) * 2003-11-14 2010-12-08 ソニー株式会社 撮像表示装置及び方法、画像送受信システム
US7327349B2 (en) * 2004-03-02 2008-02-05 Microsoft Corporation Advanced navigation techniques for portable devices
JP2005295004A (ja) * 2004-03-31 2005-10-20 Sanyo Electric Co Ltd 立体画像処理方法および立体画像処理装置
US7226167B2 (en) 2004-05-25 2007-06-05 Eastman Kodak Company Autostereoscopic display apparatus
US7165842B2 (en) * 2004-09-13 2007-01-23 Eastman Kodak Company Autostereoscopic display apparatus having glare suppression
WO2006053271A1 (en) 2004-11-12 2006-05-18 Mok3, Inc. Method for inter-scene transitions
JP2007133489A (ja) * 2005-11-08 2007-05-31 Sony Corp 仮想空間画像表示方法、装置、仮想空間画像表示プログラム及び記録媒体
CA2669409C (en) 2006-11-13 2019-09-17 Everyscape, Inc. Method for scripting inter-scene transitions
KR101367284B1 (ko) * 2008-01-28 2014-02-26 삼성전자주식회사 시점 변화에 따른 영상 복원 방법 및 장치
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
WO2010052550A2 (en) * 2008-11-05 2010-05-14 Easywalk Capital S.A. System and method for creating and broadcasting interactive panoramic walk-through applications
KR101502598B1 (ko) 2008-11-12 2015-03-16 삼성전자주식회사 깊이감 인지 향상을 위한 영상 처리 장치 및 방법
JP5249114B2 (ja) * 2009-04-03 2013-07-31 Kddi株式会社 画像生成装置、方法及びプログラム
JP5452973B2 (ja) * 2009-04-28 2014-03-26 富士機械製造株式会社 撮像装置及びその撮像装置を備える切削機械
US20110001791A1 (en) * 2009-07-02 2011-01-06 Emaze Imaging Techonolgies Ltd. Method and system for generating and displaying a three-dimensional model of physical objects
US8239783B2 (en) * 2009-11-19 2012-08-07 Microsoft Corporation Integrated viewfinder and digital media
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8854531B2 (en) * 2009-12-31 2014-10-07 Broadcom Corporation Multiple remote controllers that each simultaneously controls a different visual presentation of a 2D/3D display
US9247286B2 (en) * 2009-12-31 2016-01-26 Broadcom Corporation Frame formatting supporting mixed two and three dimensional video data communication
US8823782B2 (en) 2009-12-31 2014-09-02 Broadcom Corporation Remote control with integrated position, viewer identification and optical and audio test
US8964013B2 (en) * 2009-12-31 2015-02-24 Broadcom Corporation Display with elastic light manipulator
KR101697184B1 (ko) * 2010-04-20 2017-01-17 삼성전자주식회사 메쉬 생성 장치 및 그 방법, 그리고, 영상 처리 장치 및 그 방법
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
WO2013043761A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Determining depth from multiple views of a scene that include aliasing using hypothesized fusion
KR102002165B1 (ko) 2011-09-28 2019-07-25 포토내이션 리미티드 라이트 필드 이미지 파일의 인코딩 및 디코딩을 위한 시스템 및 방법
US9613453B2 (en) * 2011-10-04 2017-04-04 Google Inc. Systems and method for performing a three pass rendering of images
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
US8675113B2 (en) 2012-02-24 2014-03-18 Research In Motion Limited User interface for a digital camera
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
CN107346061B (zh) 2012-08-21 2020-04-24 快图有限公司 用于使用阵列照相机捕捉的图像中的视差检测和校正的系统和方法
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
EP2901671A4 (en) * 2012-09-28 2016-08-24 Pelican Imaging Corp CREATING IMAGES FROM LIGHT FIELDS USING VIRTUAL POINTS OF VIEW
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9348411B2 (en) * 2013-05-24 2016-05-24 Microsoft Technology Licensing, Llc Object display with visual verisimilitude
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
EP3075140B1 (en) 2013-11-26 2018-06-13 FotoNation Cayman Limited Array camera configurations incorporating multiple constituent array cameras
JP6346445B2 (ja) 2014-01-10 2018-06-20 キヤノン株式会社 処理装置、処理装置の制御方法、およびプログラム
JP6348318B2 (ja) * 2014-04-04 2018-06-27 大木 光晴 画像処理装置、方法、および、プログラム
CN113256730B (zh) 2014-09-29 2023-09-05 快图有限公司 用于阵列相机的动态校准的系统和方法
US10726593B2 (en) * 2015-09-22 2020-07-28 Fyusion, Inc. Artificially rendering images using viewpoint interpolation and extrapolation
KR102646521B1 (ko) 2019-09-17 2024-03-21 인트린식 이노베이션 엘엘씨 편광 큐를 이용한 표면 모델링 시스템 및 방법
EP4042101A4 (en) 2019-10-07 2023-11-22 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR DETECTING SURFACE NORMALS USING POLARIZATION
EP4066001A4 (en) 2019-11-30 2024-01-24 Boston Polarimetrics, Inc. SYSTEMS AND METHODS FOR TRANSPARENT OBJECT SEGMENTATION USING POLARIZATION GUIDES
JP7462769B2 (ja) 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
WO2021154459A1 (en) 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5613048A (en) * 1993-08-03 1997-03-18 Apple Computer, Inc. Three-dimensional image synthesis using view interpolation

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2259224A2 (en) 2009-06-02 2010-12-08 Sony Corporation Image processing apparatus, image processing method, and program
US8451321B2 (en) 2009-06-19 2013-05-28 Sony Corporation Image processing apparatus, image processing method, and program

Also Published As

Publication number Publication date
JP2000307949A (ja) 2000-11-02
US20020171666A1 (en) 2002-11-21
US6636234B2 (en) 2003-10-21

Similar Documents

Publication Publication Date Title
JP3634677B2 (ja) 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体
US6081273A (en) Method and system for building three-dimensional object models
US6417850B1 (en) Depth painting for 3-D rendering applications
JP5299173B2 (ja) 画像処理装置および画像処理方法、並びにプログラム
US20020113865A1 (en) Image processing method and apparatus
JPH07262410A (ja) 画像合成方法及び装置
KR20020054243A (ko) 다중 영상을 이용한 대화형 모델 생성 장치 및 그 방법
JPH09319896A (ja) 3次元画像作成装置
JP3467725B2 (ja) 画像の影除去方法、画像処理装置及び記録媒体
JP2002236909A (ja) 画像データ処理方法およびモデリング装置
JP2004234350A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
Burkert et al. A photorealistic predictive display
JP2002245438A (ja) 3次元コンピュータグラフィックス作成支援装置、3次元コンピュータグラフィックス作成支援方法、及び3次元コンピュータグラフィックス作成支援プログラム
Saito et al. View interpolation of multiple cameras based on projective geometry
JP2003090714A (ja) 画像処理装置、及び画像処理プログラム
JP2001243497A (ja) 3次元画像処理方法,3次元モデリング方法および3次元画像処理プログラムを記録した記録媒体
JP2002032744A (ja) 3次元モデリング及び3次元画像作成のための装置及び方法
JP3309841B2 (ja) 合成動画像生成装置および合成動画像生成方法
JP3642923B2 (ja) 映像生成処理装置及びその装置で用いられる構造化データを作成する構造化データ作成装置
Froumentin et al. A Vector‐based Representation for Image Warping
US6633291B1 (en) Method and apparatus for displaying an image
JP2022029239A (ja) 画像処理装置、画像処理方法、およびプログラム
JPH0997354A (ja) モデリングシステム
JP3575469B2 (ja) 合成動画像生成装置および合成動画像生成方法
JP2000057376A (ja) 新視点画像生成方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20010209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20010209

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20020703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20020703

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20031017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040412

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041224

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100107

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110107

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120107

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130107

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees