JP3593466B2 - 仮想視点画像生成方法およびその装置 - Google Patents

仮想視点画像生成方法およびその装置 Download PDF

Info

Publication number
JP3593466B2
JP3593466B2 JP01256299A JP1256299A JP3593466B2 JP 3593466 B2 JP3593466 B2 JP 3593466B2 JP 01256299 A JP01256299 A JP 01256299A JP 1256299 A JP1256299 A JP 1256299A JP 3593466 B2 JP3593466 B2 JP 3593466B2
Authority
JP
Japan
Prior art keywords
virtual viewpoint
depth
viewpoint
depth map
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP01256299A
Other languages
English (en)
Other versions
JP2000215311A (ja
Inventor
香織 昼間
隆幸 沖村
憲二 中沢
員丈 上平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP01256299A priority Critical patent/JP3593466B2/ja
Publication of JP2000215311A publication Critical patent/JP2000215311A/ja
Application granted granted Critical
Publication of JP3593466B2 publication Critical patent/JP3593466B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は,視点位置の異なる複数の画像と,その視点位置から見た被写体の奥行き情報を入力とし,実際にはカメラの置かれていない任意の視点位置から見た画像を出力する仮想視点画像生成方法およびその装置に関する。
【0002】
【従来の技術】
従来,実写イメージをもとに撮像した位置とは異なる視点の画像を再構成する方法として,例えば「多視点映像から任意視点映像の生成」(信学技報,IE96−121:91−98, 1997.)に記載されている方法がある。この方法は,多視点画像から物体の奥行きマップを推定し,このマップを仮想的な視点の奥行きマップに変換した後,与えられた多視点画像を利用して仮想視点画像を生成する。
【0003】
図17は,前記の従来方法で用いる多眼カメラシステムのカメラ配置と仮想視点画像生成の概念を説明するための図である。図17において,81は基準カメラ,82〜85は参照カメラ,86は仮想視点位置(生成する仮想視点画像の視点位置と視線方向)を示したものである。この方法では,基準カメラ81で撮影した基準画像中のある点に対し,参照カメラ82,83,84,85で撮影した各参照画像のエピポーララインに沿ってマッチングウインドウを1画素ずつ移動させながらマッチングの尺度であるSSD(sum of squared−difference) を計算する。マッチングウインドウをdだけ移動させたとき,4つの方向からSSDの値が計算される。このうち,小さい方の2つの値を加算する。このような処理を探索範囲内にわたって行い,その最小値のところのdを視差として求める。視差dと奥行きzは,カメラの焦点距離fとカメラ間距離bと次式の関係がある。
【0004】
z=bf/d
この関係を用いて,基準カメラ81のカメラ位置から見た奥行きマップを生成する。次にこの奥行きマップを仮想視点位置86から見た奥行きマップに変換する。基準カメラ81から観測できる領域は,同時にテクスチャマッピングを行う。視点の移動に伴い新たに生じた領域は,奥行き値を線形補間し,参照画像のテクスチャをマッピングして,仮想視点画像を生成する。
【0005】
しかし,この従来方法では,使用する多眼画像の各画素について対応点を推定しなければならないため,基準カメラ81と参照カメラ82〜85の間隔,すなわち基線長が制限される。仮想視点画像は,多視点画像からテクスチャマッピングにより生成されるので,自然な仮想視点画像が得られる仮想視点位置は,図17の点線で示した範囲内に限られる。ゆえに,仮想視点を置くことのできる範囲が制限されるという問題がある。
【0006】
このほかの従来技術として,例えば「View Generation for Three−Dimentional Scenes from Video Sequence」(IEEE Trans. Image Processing, vol.6 pp.584−598, Apr.1997)に記載されているような方法がある。これは,ビデオカメラで撮影した一連の映像シークエンスをもとに,三次元空間における物体の位置および輝度の情報を取得し,これを再構成しようとする画像の視点に合わせて三次元空間に幾何変換し,さらに二次元平面に射影する方法である。
【0007】
図18は,この従来方法の撮影方法を幾何学的に示した図である。図18において,87は被写体,88はビデオカメラ,89はビデオカメラで撮影するときの水平な軌道である。この方法では,ビデオカメラ88を手に持ち,軌道89に沿ってビデオカメラ88を移動しながら被写体87を撮像した映像シークエンスを用いて,三次元空間における物体の位置および輝度の情報を取得する。
【0008】
図19は,図18に示す方法により撮影した映像シークエンスに含まれる個々の映像フレームの位置関係を示している。図19において,91〜95はビデオカメラ88で撮影した映像フレームである。図19に示すように,個々のフレームが視差像となるので,これらの画像間で対応点を抽出することにより,被写体の三次元空間における位置および輝度の情報が求められる。
【0009】
この方法では,ビデオカメラを移動させて撮影した映像シークエンスから視差像を取得するため,静止物体については適用できるが,動物体については適用できないという問題がある。また,この方法は,被写体の三次元空間における位置情報をもとに三次元形状モデルを生成して,これにテクスチャマッピングする手法であるため,位置情報の誤差により,生成される仮想視点画像の不自然さが目立つという問題がある。さらに,この方法は,三次元形状モデルを生成するため,処理するデータ量が多く,リアルタイム処理に向かないという問題がある。
【0010】
【発明が解決しようとする課題】
本発明は,上記問題点を解決するためのものである。本発明の目的は,生成可能な仮想視点画像の視点位置の範囲が狭いという制限を緩和し,比較的簡易な処理で動画像を含む自然で滑らかな仮想視点画像を生成できる仮想視点画像生成方法および装置を提供することにある。
【0011】
【課題を解決するための手段】
本発明の前記目的を達成するための代表的な手段の概要を以下に簡単に説明する。
【0012】
(1)任意の視点位置から見た画像を生成するための仮想視点画像生成方法において,
それぞれ異なる位置を視点とする複数の画像データを入力し,
前記入力された複数の画像データのそれぞれに対応して,該画像データの各画素について,前記それぞれ異なる視点位置から見た被写体までの奥行き値を保持する複数枚の奥行きマップを生成し,
前記複数枚の奥行きマップの中から,指定された仮想視点に最も近い視点位置から見た奥行きマップを含む2枚以上の奥行きマップを選択し,該選択された奥行きマップのうちの1枚をもとに,三次元空間内での視点位置を座標変換することにより,前記仮想視点から見た仮想視点奥行きマップを生成し,
前記仮想視点奥行きマップについて,前記1枚の奥行きマップの視点位置から見ると物体の影になって隠されているオクルージョン領域の奥行き値を,前記選択された奥行きマップのうち前記オクルージョン領域が隠されないような他の視点位置から見た奥行きマップのデータをもとに,三次元空間内での視点位置を座標変換することで補間処理し,
前記の方法を用いても補間できない仮想視点奥行きマップのオクルージョン領域の奥行き値を,その周囲の奥行き値を用いて補間処理し,
前記補間処理された仮想視点奥行きマップの奥行きの値の分布が滑らかでない部分を平滑化処理し,
前記平滑化処理された仮想視点奥行きマップに,該奥行きマップが持つ被写体の奥行き値に基づいて,前記入力された複数の画像データのうち視点位置が前記仮想視点に近い方の画像を優先してテクスチャマッピングすることで輝度と色度を描画することにより,前記仮想視点から見た画像を生成する
ことを特徴とするものである。
【0013】
(2)前記(1)の目的を達成するための仮想視点画像生成装置として,
それぞれ異なる位置を視点とする複数の画像データを入力する画像データ入力手段と,
前記入力された複数の画像データのそれぞれに対応して,該画像データの各画素について,前記それぞれ異なる視点位置から見た被写体までの奥行き値を保持する複数枚の奥行きマップを生成する奥行きマップ生成手段と,
前記複数枚の奥行きマップの中から,指定された仮想視点に最も近い視点位置から見た奥行きマップを含む2枚以上の奥行きマップを選択し,該選択された奥行きマップのうちの1枚をもとに,三次元空間内での視点位置を座標変換することにより,前記仮想視点から見た仮想視点奥行きマップを生成する仮想視点奥行きマップ生成手段と,
前記仮想視点奥行きマップについて,前記1枚の奥行きマップの視点位置から見ると物体の影になって隠されているオクルージョン領域の奥行き値を,前記選択された奥行きマップのうち前記オクルージョン領域が隠されないような他の視点位置から見た奥行きマップのデータをもとに,三次元空間内での視点位置を座標変換することで補間処理する仮想視点奥行きマップ補正処理手段と,
前記補間処理された仮想視点奥行きマップの奥行き値の分布が滑らかでない部分を平滑化処理する平滑化処理手段と,
前記平滑化処理後の仮想視点奥行きマップに,該奥行きマップが持つ被写体の奥行き値に基づいて,前記入力された複数の画像データのうち視点位置が前記仮想視点に近い方の画像を優先してテクスチャマッピングすることで輝度と色度を描画することにより,前記仮想視点から見た画像を生成する仮想視点画像生成手段とを有し,
前記仮想視点奥行きマップ補正処理手段は,
前記補間処理によっても補間できないオクルージョン領域の奥行き値を,その周囲の奥行き値を用いて補間処理する仮想視点奥行きマップ補間処理手段を有する
ことを特徴とする。
【0014】
(3)前記(2)の仮想視点画像生成装置において,奥行きマップ生成手段は,前記それぞれ異なる視点位置ごとに多視点画像データを入力し,該多視点画像データ間の対応点を抽出してステレオ法により奥行きを推定するものであることを特徴とする。
【0015】
(4)前記(2)の仮想視点画像生成装置において,奥行きマップ生成手段は,レーザ光や画像パターンを照射することにより奥行きを推定するものであることを特徴とする。
【0016】
(5)前記(2)の仮想視点画像生成装置において,画像データ入力手段は,カメラと鏡等を組み合わせることにより,1台のカメラから複数の視点位置における画像データを取得できるようなものであることを特徴とする。
【0017】
すなわち,本発明においては,複数の視点から見た奥行きマップを同時に取得し,これらを統合して仮想視点位置から見た奥行きマップを生成することを特徴とする。
【0018】
従来技術のように,多視点画像間の対応点を抽出して多視点画像間を補間する方法とは,本発明は,対応点抽出する多視点画像のカメラ位置の外側に仮想視点位置を置いても滑らかな仮想視点画像を生成できるという点で異なる。また,ビデオカメラを移動しながら視差像を撮像する方法とは,本発明は,動物体にも適用可能であり,明らかな三次元形状モデルを生成しないという点で異なる。
【0019】
本発明の作用は,以下のとおりである。本発明では,複数の奥行きマップを統合して1枚の仮想視点の奥行きマップを生成するため,奥行きマップの生成に関与しない画像間については対応点を推定する必要がない。したがって,すべての多視点画像間の対応点が抽出されなくても,仮想視点画像を生成することができる。このため,多視点画像のカメラ間隔が離れている場合においても,滑らかな仮想視点画像を生成することができる。
【0020】
本発明は,一方の視点から見えないオクルージョン領域の奥行きデータを他の視点から見た奥行きデータで補間して仮想視点奥行きマップを生成する手法であるため,1枚の奥行きマップから仮想視点奥行きマップを生成する手法と比較して,密な仮想視点奥行きマップを生成することができる。
【0021】
また,本発明は,いったん仮想視点から見た奥行きマップを生成し,この仮想視点奥行きマップに多視点画像データをマッピングする手法であるため,三次元形状モデルにテクスチャマッピングを施す手法と比較して,より精度の低い奥行きマップからも,より滑らかな仮想視点画像を生成することができる。
【0022】
また,本発明は,三次元形状モデルを生成しないため,仮想視点画像生成処理にかかるデータ量を低く抑えることができる。
【0023】
【発明の実施の形態】
〔第1の実施の形態〕
図1は,本発明の第1の実施の形態による仮想視点画像生成装置の全体的な構成の概要を示す図である。図中,10は被写体,21〜24,31〜34はカメラ,100は仮想視点画像生成部,40は画像表示装置を表す。
【0024】
奥行きマップは,ステレオ法により,多眼カメラ21〜24により取得された多眼画像と多眼カメラ31〜34により取得された多眼画像から,それぞれ1枚ずつ合計2枚を取得する。これらの奥行きマップとカメラ21〜24,31〜34により取得された多眼画像を仮想視点画像生成部100に入力し,仮想視点画像生成部100で生成された仮想視点画像を画像表示装置40に表示する。
【0025】
図1では,4台のカメラから1枚の奥行きマップを取得する場合について示しているが,任意の台数のカメラから1枚の奥行きマップを取得してもよい。また,図1では,2ヶ所の視点位置から見た奥行きマップを取得する場合について説明したが,3ヶ所以上の視点位置から見た奥行きマップを取得してもよい。
【0026】
以上により構成された仮想視点画像生成装置における処理動作を,図2を用いて説明する。図2は,図1に示す仮想視点画像生成装置の処理の流れを説明するためのブロック図である。図中,カメラ装置20,30は多視点画像を撮影するための上下左右のマトリックス状に配置された多眼のカメラ装置である。多視点画像入力部101は,カメラ装置20,30によって撮影された多視点画像を入力する。奥行き検出部102は,カメラ装置20,30のそれぞれの視点位置から見た被写体の奥行きデータを検出する。
【0027】
視点位置指定部103は,生成しようとする仮想視点画像の視点位置を指定する手段である。奥行きマップ入力部104は,奥行き検出部102によって検出された奥行きデータを奥行きマップとして入力する。仮想視点位置入力部105は,視点位置指定部103によって指定された視点位置を入力する。カメラパラメータデータ入力部106は,多眼のカメラ装置20,30の位置や焦点距離等のカメラパラメータを入力する。仮想視点奥行きマップ生成部107は,奥行きマップ入力部104の奥行きマップと仮想視点位置入力部105の仮想視点位置データとカメラパラメータデータ入力部106のカメラパラメータデータをもとに仮想視点奥行きマップを生成する。
【0028】
奥行きマップ補間処理部108は,仮想視点奥行きマップ生成部107で生成された仮想視点奥行きマップで欠落した部分を補間処理する。奥行きマップ平滑化処理部109は,奥行きマップ補間処理部108で補間処理された奥行きマップを平滑化処理する。仮想視点画像再構成部110は,多視点画像入力部101の多視点画像をもとに奥行きマップ平滑化処理部109で処理された仮想視点奥行きマップと仮想視点位置入力部105の仮想視点位置データとカメラパラメータデータ入力部106のカメラパラメータデータに基づいて,仮想視点画像を再構成する。画像表示部111は,仮想視点画像再構成部110によって構成された仮想視点画像を表示する。表示スクリーン41は,仮想視点画像を表示させるための装置である。
【0029】
奥行き検出部102には,例えば多眼のカメラ画像の対応点を抽出してステレオ法により奥行きを推定する装置を用いる。奥行き検出部102の動作を,図3を用いて詳細に説明する。図3は,多眼カメラシステムのカメラ配置と投影の概念を説明するための図である。
【0030】
原点に基準カメラ51を置き,その周りの一定の距離Lに4つの参照カメラ52〜55を置く。すべてのカメラの光軸は平行にする。また,すべてのカメラは同じ仕様のものを用い,仕様の違いはカメラの構成に応じて補正し,図3に示すような幾何学構成に補正する。図3の配置では,三次元空間の点P=(X,Y,Z)はX−Y平面から焦点距離fの距離にある基準画像上の点p=(u,v)に投影される。ここで,u=fX/Z,v=fY/Z,である。点Pはまた,参照カメラC(i=1,2,3,4)の画像上の点p=(u,v)にも投影される。ここで,
=f(X−Di,x )/Z v=f(Y−Di,y )/Z
ただし,基線長ベクトルD=(Di,x ,Di,y )はそれぞれD=(L,0),D=(−L,0),D=(0,L),D=(0,−L)である。すべての参照カメラ52〜55と基準カメラ51の基線長が等しい構成の下では,点Pの真の視差dは,すべてのiに対して,
=fL/Z=|p−p
であることから,視差を推定することによって奥行きが取得できる。視差から奥行きを求めるためには最低2台のカメラがあれば可能であるが,図3に示すようなカメラ構成を用いることにより,オクルージョンのために真の視差の推定が困難で奥行きを決定できないような場合を回避することができる。
【0031】
次に,仮想視点奥行きマップ生成部107の動作をより詳細に説明する。奥行きマップは,ある視点位置から撮影された画像中の各画素について,カメラから被写体までの距離の値を保持するものである。いわば,通常の画像は画像面上の各画素に輝度と色度とが対応しているものであるのに対し,奥行きマップは,画像面上の各画素に奥行き値が対応しているものである。
【0032】
仮想視点奥行きマップ生成部107では,奥行きマップ入力部104に保持されている奥行きマップと仮想視点位置入力部105の仮想視点位置データとカメラパラメータデータ入力部106のカメラパラメータデータに基づいて,仮想視点から見た奥行きマップを生成する。奥行きマップ入力部104に保持されている奥行きマップは,多視点画像を撮影した各視点位置から見た画像の各画素についての被写体の奥行き情報を持つものとする。
【0033】
まず,仮想視点位置入力部105の仮想視点位置データとカメラパラメータデータ入力部106のカメラパラメータデータとにより,仮想視点位置に最も近い視点位置から見た奥行きマップを,奥行きマップ入力部104に保持されている奥行きマップの中から2枚以上選択する。
【0034】
図4に,実画像を撮影した視点と仮想視点のカメラ座標系と投影画像面の座標系とを示す。選択された奥行きマップのうち任意の1枚を撮像したカメラ座標系を(X,Y,Z,仮想視点位置のカメラ座標系を(X,Y,Zとする。前記奥行きマップ上の任意の点p=(u,v)に投影された三次元空間の点P=(X,Y,ZのZが求められているとき,実視点の座標系から見た点PのX,Y座標はそれぞれ
=Z/f (式1)
=Z′v/f (式2)
で与えられる。ここで,fはカメラの焦点距離である。
【0035】
今,二つの座標系(X,Y,Zと(X,Y,Zとが,回転行列R21=[rij]∈R3x3 と並進行列T21=(Δx,Δy,Δz)を用いて,
(X,Y,Z=R21(X,Y,Z+T21 (式3)
の関係で表わせるとする。(式3)より得られた奥行き値Zは,仮想視点座標系(X,Y,Zで見た点Pの奥行き値である。点P=(X,Y,Zは,仮想視点奥行きマップ上の点p=(u,v)に投影される。(u,v)は,(式3)により得られたX,Yを用いて,次式により求められる。
【0036】
=fX/Z (式4)
=fY/Z (式5)
したがって,仮想視点奥行きマップ上の点p=(u,v)の奥行き値をZと決定できる。
【0037】
以上の処理を,奥行きマップ中のすべての点(u,v)について繰り返し行い,選択された奥行きマップの保持する奥行きの値を,仮想視点から見た奥行きマップ中の画素の奥行き値に変換する。同様の処理を,選択されたすべての奥行きマップについて行うことにより,奥行き値の空白の少ない,密な仮想視点奥行きマップを作る。
【0038】
次に,奥行きマップ補間処理部108と奥行きマップ平滑化処理部109について,図5を用いて説明する。図5(B)〜(E)は,図5(A)に示す球を撮影した画像を走査線A−Bで切断し,その走査線上の奥行きの値を縦軸に表したものである。
【0039】
奥行きマップ補間処理部108では,仮想視点奥行きマップ生成部107で生成された(B)に示す仮想視点奥行きマップ中の,オクルージョンにより視差が推定できなかったために奥行き値を持たない画素61の奥行き値を,奥行き値が既知であるような周囲の画素62の奥行き値を用いて,局所的な領域内では奥行きは急激に変化しないという仮定の下,線形補間処理を行う。結果として,すべての画素の奥行き値を持つ(C)に示す仮想視点奥行きマップが生成される。
【0040】
奥行きマップ平滑化処理部109では,奥行きマップ補間処理部108で処理された(C)に示す仮想視点奥行きマップの奥行き値の平滑化処理を行う。まず,仮想視点奥行きマップの走査線上で奥行きが急激に変化している画素63の奥行き値を除去し,周囲の画素64の奥行き値を用いて,局所的な領域内では奥行きは急激に変化しないという仮定の下,線形補間処理を行い,(D)に示すような仮想視点奥行きマップを生成する。さらに,被写体の表面を滑らかな曲面で近似するために,仮想視点奥行きマップ全体に対して平滑化処理を行い,(E)に示す仮想視点奥行きマップを得る。
【0041】
平滑化処理には,例えば一般的な二次微分フィルタを用いることができる。このような被写体の表面を滑らかな曲面で近似する平滑化処理には,仮想視点画像にテクスチャをマッピングしたときの画質の低下を抑制する効果がある。
【0042】
次に,仮想視点画像再構成部110について,図6を用いて説明する。仮想視点画像再構成部110は,カメラパラメータデータ入力部106のカメラパラメータデータと奥行きマップ平滑化処理部109の仮想視点奥行きマップのデータをもとに,多視点画像入力部101が入力した多視点画像のテクスチャをマッピングして,仮想視点位置入力部105の仮想視点位置から見た仮想視点画像を生成する。
【0043】
仮想視点画像再構成部110で用いる座標変換は,仮想視点奥行きマップ生成部107で用いたものの逆変換に当たる。しかし,奥行きマップ補間処理部108と奥行きマップ平滑化処理部109での処理により,仮想視点奥行きマップの保持する奥行き値が変化しているため,もう一度新しい奥行き値を用いて座標変換を行う必要がある。
【0044】
ここで,仮想視点奥行きマップの座標系を(X,Y,Z,多視点画像の中の任意の1枚の座標系を(X,Y,Zとする。仮想視点奥行きマップ中の任意の点p=(u,v)の画素の奥行きがZであるとき,この画素p=(u,v)に投影される被写体の三次元空間中の点P=(X,Y,Zの座標は,
=Z/f (式6)
=Z/f (式7)
で与えられる。ここで,fはカメラの焦点距離である。
【0045】
今,二つの座標系(X,Y,Zと(X,Y,Zとが,回転行列R32=[rij]∈R3x3 と並進行列T32=(Δx,Δy,Δz)を用いて,
(X,Y,Z=R32(X,Y,Z+T32 (式8)
の関係で表せるとする。(式6),(式7)を(式8)に代入すると,(X,Y,Z系で見た,仮想視点画像中の点(u,v)に投影される被写体の三次元空間中の点P=(X,Y,Zが計算される。点Pは,実画像上の点p=(u,v)に投影される。(u,v)は,(式8)により得られたX,Yを用いて次式により計算することができる。
【0046】
=fX′/Z (式9)
=fY′/Z (式10)
この(式9),(式10)により計算された多視点画像中の点(u,v)の画素の輝度値と色度値を仮想視点画像中の点(u,v)に描画する。この処理を多視点画像中のすべての点について繰り返し行うことで,仮想視点位置入力部105の視点位置から見た仮想視点画像が生成される。
【0047】
〔第2の実施の形態〕
次に,本発明の第2の実施の形態について,図7を用いて説明する。図7は,第2の実施の形態による仮想視点画像生成装置の全体的な構成の概要を示す図である。図7中,221,231は奥行き検出器,220,230はカメラ,10は被写体,200は仮想視点画像生成部,240は画像表示装置を表す。
【0048】
奥行き検出器221,231は,レーザビームや画像パターンを照射することにより,能動的に被写体の奥行きを取得する装置である。このような奥行き検出器として,例えばレーザレンジファインダを用いることができる。奥行き検出器221,231により取得された奥行きマップと,カメラ220,230により取得された多視点画像を仮想視点画像生成部200に入力し,仮想視点画像生成部200で生成された仮想視点画像を,画像表示装置240に表示する。
【0049】
図7では,奥行き検出器221,231とカメラ220,230を別個の装置として説明したが,一つの装置で奥行きマップと画像が同時に取得できるような装置を用いてもよい。このほか,奥行き検出器221,231には,カメラ220,230により撮影された画像の各画素についての奥行き情報を検出することができるいかなる装置でも用いることができる。また,図7では,2ヶ所の視点位置から見た奥行きマップを取得する場合について説明したが,3ヶ所以上の視点位置から見た奥行きマップを取得してもよい。
【0050】
〔第3の実施の形態〕
次に,本発明の第3の実施の形態について,図8を用いて説明する。図8は,本実施の形態で用いるカメラ装置の構成を示す図である。
【0051】
本実施の形態では,カメラと液晶シャッタと偏向ビームスプリッタと鏡とを組み合わせることにより,1台のカメラで複数の視点位置から見た多視点画像データを取得する。図8中,301はカメラ,302は液晶シャッタ(TN),303は偏向ビームスプリッタ(PBS),304は鏡,305は多視点画像データの視点位置で,実際にはカメラが置かれていない位置を示す。液晶シャッタ302は,電圧を加えた時はP偏向光だけを通し,電圧を加えない時はS偏向光だけを通す。偏向ビームスプリッタ303は,P偏向光を透過し,S偏向光を反射するような素子である。
【0052】
まず,カメラ301を用いて,カメラ301の位置から見た画像データを取得する場合について説明する。液晶シャッタ302に電圧を加え,P偏向光だけを通すようにする。そうすると,偏向ビームスプリッタ303の透過成分であるP偏向光だけがカメラ301に入射し,その結果カメラ301の位置から見た画像データを取得することができる。
【0053】
次に,カメラ301を用いて,視点位置305から見た画像データを取得する場合について説明する。液晶シャッタ302の電圧を切り,S偏向光だけを通すようにする。すると,偏向ビームスプリッタ303の反射成分であるS偏向光だけがカメラ301に入射する。カメラ301に入射するS偏向光は鏡304により反射されたものであるため,視点位置305から見た画像データを取得することができる。
【0054】
【実施例】
次に,本発明の具体的な実施例について,図9を用いて説明する。本実施例では,図9に示すように,三次元位置が既知である2ヶ所の視点から見た奥行き画像A,Bを用いて,一方の視点から見えないオクルージョン領域を他方の視点からの情報で補間して,仮想視点から見た仮想視点奥行き画像を生成する。ここで2枚の奥行き画像A,Bは,個々の画素の対応関係がとれている必要はない。
【0055】
この仮想視点奥行き画像には,ノイズの影響や奥行きが急激に変化する部分で,奥行きの値が決定されない点がある。それらの点は,周囲の画素で線形補間する。さらに,二次微分フィルタを用いて仮想視点奥行き画像を平滑化処理し,処理後の仮想視点奥行き画像に,実画像をテクスチャマッピングして仮想視点画像を生成する。その際,視点位置の近い方の実画像を優先する。
【0056】
この方法の特徴は,2枚の奥行き画像をもとに仮想視点から見た奥行き画像を生成し,これに処理を加えて実画像をテクスチャマッピングすることで,元の奥行き画像の精度が悪かったり,ノイズが多い場合でも,滑らかな仮想視点画像を生成できるところにある。
【0057】
図10〜図16は,本実施例で用いた画像を示す図である。図10および図11は実画像であり,この2つの実画像の視点から見た奥行き画像を,図12および図13に示す。奥行き画像は,1cm間隔でx軸方向に移動するカメラで撮像した5枚の多視点画像をもとに,多基線ステレオ法を用いて計算した。これらの奥行き画像の図において,奥行き値は実際には濃度値の変化で表されているが,本図では図面表記の都合上,奥行き値(濃度値)が大きく変化する部分の輪郭を示している。これら2枚の奥行き画像から,本発明の手法を用いて生成した仮想視点奥行き画像が,図14に示す画像である。図15は,図14に示す仮想視点奥行き画像に,図10と図11の実画像をテクスチャマッピングして得られた仮想視点画像である。
【0058】
図16は,本発明による手法と従来の手法との比較を示す図である。図16(A)に示すように,本発明の手法による仮想視点画像では,奥行きが急激に変化するような顔の輪郭部分のノイズが軽減され,図16(B)に示す従来の手法による仮想視点画像に比べて,鮮明な画像が得られている。また,仮想視点奥行き画像を平滑化処理しているため,テクスチャマッピングの際の仮想視点画像の解像度の低下も抑えられている。
【0059】
【発明の効果】
以上説明したように,本発明によれば,与えられた視点位置に応じて,複数枚の画像とその奥行き情報をもとに観察者から見た画像を再構成することにより,視点位置を移動させた場合にそれに対応した画像をスムーズに出力することができる。本手法では,奥行き情報をもとに画像を再構成して仮想視点画像を生成するため,もととなる画像を撮像する位置の間隔が離れている場合においても,滑らかな仮想視点画像を生成できる利点がある。装置に必要な記憶容量も,考えうる視点移動に対応した画像をすべて保持する場合に比べて,極めて少なくてすむ。処理速度については,三次元形状モデルにテクスチャをマッピングする手法に比べて,高速化が可能である。滑らかに補正された仮想視点奥行きマップに基づいて仮想視点画像を生成する手法であるため,滑らかな仮想視点画像を生成することが可能である。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の仮想視点画像生成装置の全体的な構成の概要を示す図である。
【図2】第1の実施の形態における仮想視点画像生成装置の処理の流れを説明するためのブロック図である。
【図3】多眼カメラシステムのカメラ配置と投影の概念を説明するための図である。
【図4】仮想視点奥行きマップ生成部で用いる座標変換を説明するための図である。
【図5】奥行きマップ補間処理部と奥行きマップ平滑化処理部の処理を説明するための図である。
【図6】仮想視点画像再構成部で用いる座標変換を説明するための図である。
【図7】本発明の第2の実施の形態の仮想視点画像生成装置の全体的な構成の概要を示す図である。
【図8】本発明の第3の実施の形態で用いるカメラ装置の構成を示す図である。
【図9】本発明の実施例の概要を説明するための図である。
【図10】実画像の例を示す図である。
【図11】実画像の例を示す図である。
【図12】図10の実画像に対応する奥行き画像の例を示す図である。
【図13】図11の実画像に対応する奥行き画像の例を示す図である。
【図14】仮想視点奥行き画像の例を示す図である。
【図15】生成した仮想視点画像の例を示す図である。
【図16】本発明の手法による仮想視点画像と従来の手法による仮想視点画像との比較を示す図である。
【図17】従来の技術を説明するための図である。
【図18】
従来の技術を説明するための図である。
【図19】
従来の技術を説明するための図である。
【符号の説明】
10 被写体
20,30 カメラ装置
21〜24 カメラ
31〜34 カメラ
40 画像表示装置
41 表示スクリーン
100 仮想視点画像生成部
101 多視点画像入力部
102 奥行き検出部
103 視点位置指定部
104 奥行きマップ入力部
105 仮想視点位置入力部
106 カメラパラメータデータ入力部
107 仮想視点奥行きマップ生成部
108 奥行きマップ補間処理部
109 奥行きマップ平滑化処理部
110 仮想視点画像再構成部
111 画像表示部

Claims (6)

  1. 視点位置に応じた画像を生成するための仮想視点画像生成方法において,
    それぞれ異なる位置を視点とする複数の画像データを入力する過程と,
    前記入力された複数の画像データのそれぞれに対応して,該画像データの各画素について,前記それぞれ異なる視点位置から見た被写体までの奥行き値を保持する複数枚の奥行きマップを生成する過程と,
    前記複数枚の奥行きマップの中から,指定された仮想視点に最も近い視点位置から見た奥行きマップを含む2枚以上の奥行きマップを選択し,該選択された奥行きマップのうちの1枚をもとに,三次元空間内での視点位置を座標変換することにより,前記仮想視点から見た仮想視点奥行きマップを生成する過程と,
    前記仮想視点奥行きマップについて,前記1枚の奥行きマップの視点位置から見ると物体の影になって隠されているオクルージョン領域の奥行き値を,前記選択された奥行きマップのうち前記オクルージョン領域が隠されないような他の視点位置から見た奥行きマップのデータをもとに,三次元空間内での視点位置を座標変換することで補間処理する過程と,
    前記補間処理された仮想視点奥行きマップの奥行き値の分布が滑らかでない部分を平滑化処理する過程と,
    前記平滑化処理後の仮想視点奥行きマップに,該奥行きマップが持つ被写体の奥行き値に基づいて,前記入力された複数の画像データのうち視点位置が前記仮想視点に近い方の画像を優先してテクスチャマッピングすることで輝度と色度を描画することにより,前記仮想視点から見た画像を生成する過程とを有する
    ことを特徴とする仮想視点画像生成方法。
  2. 視点位置に応じた画像を生成するための仮想視点画像生成装置において,
    それぞれ異なる位置を視点とする複数の画像データを入力する画像データ入力手段と,
    前記入力された複数の画像データのそれぞれに対応して,該画像データの各画素について,前記それぞれ異なる視点位置から見た被写体までの奥行き値を保持する複数枚の奥行きマップを生成する奥行きマップ生成手段と,
    前記複数枚の奥行きマップの中から,指定された仮想視点に最も近い視点位置から見た奥行きマップを含む2枚以上の奥行きマップを選択し,該選択された奥行きマップのうちの1枚をもとに,三次元空間内での視点位置を座標変換することにより,前記仮想視点から見た仮想視点奥行きマップを生成する仮想視点奥行きマップ生成手段と,
    前記仮想視点奥行きマップについて,前記1枚の奥行きマップの視点位置から見ると物体の影になって隠されているオクルージョン領域の奥行き値を,前記選択された奥行きマップのうち前記オクルージョン領域が隠されないような他の視点位置から見た奥行きマップのデータをもとに,三次元空間内での視点位置を座標変換することで補間処理する仮想視点奥行きマップ補正処理手段と,
    前記補間処理された仮想視点奥行きマップの奥行き値の分布が滑らかでない部分を平滑化処理する平滑化処理手段と,
    前記平滑化処理後の仮想視点奥行きマップに,該奥行きマップが持つ被写体の奥行き値に基づいて,前記入力された複数の画像データのうち視点位置が前記仮想視点に近い方の画像を優先してテクスチャマッピングすることで輝度と色度を描画することにより,前記仮想視点から見た画像を生成する仮想視点画像生成手段とを備える
    ことを特徴とする仮想視点画像生成装置。
  3. 請求項2記載の仮想視点画像生成装置において,
    前記仮想視点奥行きマップ補正処理手段は,前記補間処理によっても補間できないオクルージョン領域の奥行き値を,その周囲の奥行き値を用いて補間処理する手段を備える
    ことを特徴とする仮想視点画像生成装置。
  4. 請求項2または請求項3記載の仮想視点画像生成装置において,
    記奥行きマップ生成手段は,前記それぞれ異なる視点位置ごとに多視点画像データを入力し,該多視点画像データ間の対応点を抽出してステレオ法により三角測量の原理を用いて受動的に奥行きを推定することによって奥行きマップを生成する
    ことを特徴とする仮想視点画像生成装置。
  5. 請求項2または請求項3記載の仮想視点画像生成装置において,
    記奥行きマップ生成手段は,レーザ光による画像パターンを被写体に照射することにより能動的に奥行きを推定することによって奥行きマップを生成する
    ことを特徴とする仮想視点画像生成装置。
  6. 請求項2,請求項3,請求項4または請求項5記載の仮想視点画像生成装置において,
    記画像データ入力手段は,複数の視点位置に対応する光路上に配置され光の一部または全部を反射または透過する複数の光学的手段によって反射または透過された光が通る光路上の一つに配置された1台のカメラから複数の視点位置における画像データを取得するものである
    ことを特徴とする仮想視点画像生成装置。
JP01256299A 1999-01-21 1999-01-21 仮想視点画像生成方法およびその装置 Expired - Fee Related JP3593466B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP01256299A JP3593466B2 (ja) 1999-01-21 1999-01-21 仮想視点画像生成方法およびその装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP01256299A JP3593466B2 (ja) 1999-01-21 1999-01-21 仮想視点画像生成方法およびその装置

Publications (2)

Publication Number Publication Date
JP2000215311A JP2000215311A (ja) 2000-08-04
JP3593466B2 true JP3593466B2 (ja) 2004-11-24

Family

ID=11808797

Family Applications (1)

Application Number Title Priority Date Filing Date
JP01256299A Expired - Fee Related JP3593466B2 (ja) 1999-01-21 1999-01-21 仮想視点画像生成方法およびその装置

Country Status (1)

Country Link
JP (1) JP3593466B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106791774A (zh) * 2017-01-17 2017-05-31 湖南优象科技有限公司 基于深度图的虚拟视点图像生成方法
CN107911629A (zh) * 2017-11-03 2018-04-13 浙江大华技术股份有限公司 一种亮度调节方法及装置

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002262156A (ja) * 2000-12-26 2002-09-13 Matsushita Electric Ind Co Ltd カメラ装置、カメラシステムおよび画像処理方法
JP2003107603A (ja) * 2001-09-28 2003-04-09 Namco Ltd 立体視画像生成装置、立体視画像生成情報および情報記憶媒体
KR100433625B1 (ko) * 2001-11-17 2004-06-02 학교법인 포항공과대학교 스테레오 카메라의 두영상과 양안차도를 이용한 다시점영상 합성 장치
JP4021685B2 (ja) * 2002-03-04 2007-12-12 松下電器産業株式会社 画像合成変換装置
US7538774B2 (en) 2003-06-20 2009-05-26 Nippon Telegraph And Telephone Corporation Virtual visual point image generating method and 3-d image display method and device
JP4595313B2 (ja) * 2003-11-14 2010-12-08 ソニー株式会社 撮像表示装置及び方法、画像送受信システム
JP4069855B2 (ja) 2003-11-27 2008-04-02 ソニー株式会社 画像処理装置及び方法
JP4586447B2 (ja) * 2004-07-23 2010-11-24 ソニー株式会社 画像処理装置及び方法、プログラム
GB2418314A (en) * 2004-09-16 2006-03-22 Sharp Kk A system for combining multiple disparity maps
US7728877B2 (en) * 2004-12-17 2010-06-01 Mitsubishi Electric Research Laboratories, Inc. Method and system for synthesizing multiview videos
JP4617965B2 (ja) * 2005-03-31 2011-01-26 ソニー株式会社 画像処理方法、その装置およびプログラム
JP4727329B2 (ja) * 2005-07-15 2011-07-20 パナソニック株式会社 画像合成装置及び画像合成方法
US7873238B2 (en) 2006-08-30 2011-01-18 Pictometry International Corporation Mosaic oblique images and methods of making and using same
EP2076055B1 (en) * 2007-12-27 2012-10-24 Saab AB Method for displaying a virtual image
JP4944046B2 (ja) * 2008-01-07 2012-05-30 日本電信電話株式会社 映像符号化方法,復号方法,符号化装置,復号装置,それらのプログラムおよびコンピュータ読み取り可能な記録媒体
JP2009172122A (ja) 2008-01-24 2009-08-06 Brother Ind Ltd ミシン
KR101367284B1 (ko) 2008-01-28 2014-02-26 삼성전자주식회사 시점 변화에 따른 영상 복원 방법 및 장치
JP5086120B2 (ja) * 2008-02-07 2012-11-28 日本電信電話株式会社 奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体
JP4838275B2 (ja) * 2008-03-03 2011-12-14 日本電信電話株式会社 距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
JP5011168B2 (ja) * 2008-03-04 2012-08-29 日本電信電話株式会社 仮想視点画像生成方法、仮想視点画像生成装置、仮想視点画像生成プログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4964827B2 (ja) * 2008-06-05 2012-07-04 日本電信電話株式会社 多視点距離情報符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
JP5566385B2 (ja) * 2008-08-20 2014-08-06 トムソン ライセンシング 洗練された奥行きマップ
JP4998422B2 (ja) * 2008-09-25 2012-08-15 Kddi株式会社 画像生成装置、方法、通信システム及びプログラム
JP5035195B2 (ja) * 2008-09-25 2012-09-26 Kddi株式会社 画像生成装置及びプログラム
US8913105B2 (en) 2009-01-07 2014-12-16 Thomson Licensing Joint depth estimation
EP2775724A3 (en) * 2009-03-19 2014-10-15 LG Electronics, Inc. Method for processing three dimensional (3D) video signal and digital broadcast receiver for performing the processing method
KR20100135032A (ko) * 2009-06-16 2010-12-24 삼성전자주식회사 2차원 영상의 3차원 영상 변환 장치 및 방법
DE102010009291A1 (de) * 2010-02-25 2011-08-25 Expert Treuhand GmbH, 20459 Verfahren und Vorrichtung für ein anatomie-adaptiertes pseudoholographisches Display
JP2011244025A (ja) * 2010-05-13 2011-12-01 Sony Corp 画像処理装置および画像処理方法
KR101385514B1 (ko) * 2010-06-08 2014-04-16 주식회사 에스칩스 깊이 맵 정보를 이용한 입체 영상 변환 방법 및 장치
WO2012063540A1 (ja) * 2010-11-12 2012-05-18 シャープ株式会社 仮想視点画像生成装置
US8711206B2 (en) * 2011-01-31 2014-04-29 Microsoft Corporation Mobile camera localization using depth maps
BR112013023302A2 (pt) * 2011-03-18 2016-12-20 Sony Corp aparelho e método de processamento de imagem
JP5824896B2 (ja) * 2011-06-17 2015-12-02 ソニー株式会社 画像処理装置および方法、並びにプログラム
KR101609486B1 (ko) * 2011-09-12 2016-04-05 인텔 코포레이션 모션 패럴랙스를 이용한 2d 이미지로부터의 3d 지각 생성
JP5820716B2 (ja) * 2011-12-15 2015-11-24 シャープ株式会社 画像処理装置、画像処理方法、コンピュータプログラム、記録媒体、立体画像表示装置
JP5755571B2 (ja) * 2012-01-11 2015-07-29 シャープ株式会社 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
JP5373931B2 (ja) * 2012-03-22 2013-12-18 日本電信電話株式会社 仮想視点画像生成方法,仮想視点画像生成装置および仮想視点画像生成プログラム
JP5531282B2 (ja) * 2012-06-18 2014-06-25 日本電信電話株式会社 多視点画像符号化方法,復号方法,符号化装置,復号装置,符号化プログラム,復号プログラムおよびコンピュータ読み取り可能な記録媒体
JP6021541B2 (ja) * 2012-09-13 2016-11-09 キヤノン株式会社 画像処理装置及び方法
CN104662897A (zh) * 2012-09-25 2015-05-27 日本电信电话株式会社 图像编码方法、图像解码方法、图像编码装置、图像解码装置、图像编码程序、图像解码程序以及记录介质
WO2014050827A1 (ja) * 2012-09-25 2014-04-03 日本電信電話株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及び記録媒体
US9092890B2 (en) * 2012-12-20 2015-07-28 Ricoh Company, Ltd. Occlusion-aware reconstruction of three-dimensional scenes from light field images
CN105247860B (zh) * 2013-06-05 2017-12-19 索尼公司 图像处理设备及图像处理方法
KR102156402B1 (ko) 2013-11-05 2020-09-16 삼성전자주식회사 영상 처리 방법 및 장치
WO2015178217A1 (ja) * 2014-05-21 2015-11-26 ソニー株式会社 画像処理装置および方法
CN105184780B (zh) 2015-08-26 2018-06-05 京东方科技集团股份有限公司 一种立体视觉深度的预测方法和系统
EP3422711A1 (en) * 2017-06-29 2019-01-02 Koninklijke Philips N.V. Apparatus and method for generating an image
JP7033865B2 (ja) 2017-08-10 2022-03-11 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム
KR102129085B1 (ko) * 2018-12-12 2020-07-01 서울과학기술대학교 산학협력단 영상 데이터를 합성하는 장치 및 방법
CN111210510B (zh) 2020-01-16 2021-08-06 腾讯科技(深圳)有限公司 三维人脸模型生成方法、装置、计算机设备及存储介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106791774A (zh) * 2017-01-17 2017-05-31 湖南优象科技有限公司 基于深度图的虚拟视点图像生成方法
CN107911629A (zh) * 2017-11-03 2018-04-13 浙江大华技术股份有限公司 一种亮度调节方法及装置

Also Published As

Publication number Publication date
JP2000215311A (ja) 2000-08-04

Similar Documents

Publication Publication Date Title
JP3593466B2 (ja) 仮想視点画像生成方法およびその装置
Gluckman et al. Planar catadioptric stereo: Geometry and calibration
JP3745117B2 (ja) 画像処理装置及び画像処理方法
US6191808B1 (en) Image processing method with viewpoint compensation and apparatus therefor
Kang et al. 3-D scene data recovery using omnidirectional multibaseline stereo
KR100950046B1 (ko) 무안경식 3차원 입체 tv를 위한 고속 다시점 3차원 입체영상 합성 장치 및 방법
US6233004B1 (en) Image processing method and apparatus
US20020106120A1 (en) Method of analyzing in real time the correspondence of image characteristics in corresponding video images
JP3524147B2 (ja) 3次元画像表示装置
JPH08331607A (ja) 三次元表示画像生成方法
JP3561446B2 (ja) 画像生成方法及びその装置
US11812009B2 (en) Generating virtual reality content via light fields
JP7326442B2 (ja) 広角画像からの視差推定
JP3450792B2 (ja) 奥行き画像計測装置及び方法、並びに複合現実感提示システム
Knorr et al. Stereoscopic 3D from 2D video with super-resolution capability
JPH09245195A (ja) 画像処理方法およびその装置
Shimamura et al. Construction of an immersive mixed environment using an omnidirectional stereo image sensor
JP2001256482A (ja) 視差画像生成装置および視差画像生成方法
JPH0981746A (ja) 二次元表示画像生成方法
JPH1097642A (ja) 画像処理方法及び装置及び記憶媒体
JP3054312B2 (ja) 画像処理装置及び方法
CN104463958A (zh) 基于视差图融合的三维超分辨率方法
JP6595878B2 (ja) 要素画像群生成装置及びそのプログラム
JP3122629B2 (ja) 任意視点画像生成装置
JP2004310777A (ja) 複数個の入力イメージからバーチャルイメージを合成する複合カメラ及び方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040824

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040830

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080903

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080903

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090903

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090903

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100903

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees