JP2009186369A - Depth information acquisition method, depth information acquiring device, program, and recording medium - Google Patents

Depth information acquisition method, depth information acquiring device, program, and recording medium Download PDF

Info

Publication number
JP2009186369A
JP2009186369A JP2008027831A JP2008027831A JP2009186369A JP 2009186369 A JP2009186369 A JP 2009186369A JP 2008027831 A JP2008027831 A JP 2008027831A JP 2008027831 A JP2008027831 A JP 2008027831A JP 2009186369 A JP2009186369 A JP 2009186369A
Authority
JP
Japan
Prior art keywords
virtual
cameras
depth information
similarity
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008027831A
Other languages
Japanese (ja)
Other versions
JP5086120B2 (en
Inventor
Masahiro Ueno
雅浩 上野
Yasuko Ando
康子 安藤
Yutaka Kunida
豊 國田
Ai Isogai
愛 磯貝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2008027831A priority Critical patent/JP5086120B2/en
Publication of JP2009186369A publication Critical patent/JP2009186369A/en
Application granted granted Critical
Publication of JP5086120B2 publication Critical patent/JP5086120B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a method, or the like, of acquiring the depth information on an image of a desired direction from a virtual view point. <P>SOLUTION: Images acquired by photographing the same object and the same scenery by using n cameras (n≥2) are input, and a plurality of virtual surfaces are installed in the virtual view point and in the field of view from the virtual view point. When a point of each virtual surface, corresponding to any image in the images, as seen from the virtual view point, is assumed to be an investigatory point, each corresponding point on each image imaged by each of n cameras, corresponding to the investigating point for each virtual surface is calculated, two cameras are selected from n cameras, the difference degree of each corresponding point on the images imaged with two cameras of all groups is calculated; the calculated difference degree is converted into similarity that decreases with increase with difference degree and becomes 0, when the difference degree is infinity, the similarities of all the groups are integrated and the integrated similarity is output; and the distance to the virtual surface having the largest integrated similarity from the virtual view point is output as depth information on any pixel in the image, as seen from the virtual view point. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、奥行き情報取得方法、奥行き情報取得装置、プログラムおよび記録媒体に係り、特に、複数のカメラで撮られた複数の画像データを用いて、仮想視点から見た所望の方向の画像の奥行き情報を取得する方法に関する。   The present invention relates to a depth information acquisition method, a depth information acquisition device, a program, and a recording medium. It relates to a method for obtaining information.

複数のカメラで撮られた複数の画像データを用いて、ある視点からみた画像の奥行き情報を取得する方法として、マルチベースラインステレオ法(下記、非特許文献1参照)、あるいは、多層信頼度マップを用いる方法(下記、非特許文献2参照)が知られている。
以下、複数のカメラで撮られた複数の画像データを用いて、ある視点からみた画像の奥行き情報を取得する従来の方法について説明する。
図1は、複数のカメラで撮られた複数の画像データを用いて、ある視点からみた画像の奥行き情報を取得する従来の方法を説明するための図である。
図1において、2001は基準カメラC、2002は基準カメラCのレンズ、2003は基準カメラCのレンズ中心(基準視点)、2004は基準カメラCの撮像素子、2005は基準カメラCの撮像素子の原点、2006は基準カメラCの撮像素上の任意の画素の中心点、2010は基準カメラCの視線、2011は調査点、2012は基準カメラCの光軸(基準視点を通る、基準カメラCの撮像素子に垂直な線)、1101はその他のカメラ(カメラC)、1102はカメラCのレンズ、1103はカメラCのレンズ中心、1104はカメラCの撮像素子、1105はカメラCの撮像素子の原点、1106はカメラCの撮像素上における調査点2011の結像点、1110はカメラCの視線である。
複数のカメラの中の1つを基準カメラC(2001)、その他のカメラはCとする。但し、iはカメラを区別する番号である。カメラの位置、方向は自由に決定される。
図中のdは、基準カメラC(2001)から、調査点2011が存在する平面までの距離を表し、基準カメラC(2001)の光軸2012に調査点2011から下ろした垂線との交点と、基準カメラC(2001)のレンズ中心2003(基準視点)との間の距離である
ここで、取得したいのは、基準カメラC(2001)の撮像素子(2004)上に映る画像の、各ピクセル毎の奥行き情報である。
As a method of acquiring depth information of an image viewed from a certain viewpoint using a plurality of image data taken by a plurality of cameras, a multi-baseline stereo method (see Non-Patent Document 1 below) or a multilayer reliability map is used. There is known a method (see Non-Patent Document 2 below).
A conventional method for acquiring depth information of an image viewed from a certain viewpoint using a plurality of image data taken by a plurality of cameras will be described below.
FIG. 1 is a diagram for explaining a conventional method for acquiring depth information of an image viewed from a certain viewpoint using a plurality of image data taken by a plurality of cameras.
In Figure 1, the reference camera C R, 2002 is the base camera C R lenses 2001, 2003 lens center of the base camera C R (reference viewpoint), the imaging element of the base camera C R 2004, 2005 base camera C R origin of imaging device, the central point of any pixel of the image Motojo of the base camera C R 2006, 2010 line of sight of the base camera C R, 2011 survey point, the optical axis (reference viewpoint of the reference camera C R 2012 the pass, the base camera C a line perpendicular to the imaging element R), 1101 other cameras (camera C 1), 1102 is the lens camera C 1, 1103 the lens center of the camera C 1, 1104 is the camera C 1 imaging device, 1105 of the image pickup device of the camera C 1 origin, 1106 imaging point survey point 2011 in the image pickup Motojo cameras C 1, 1110 the view of the camera C 1 It is.
One of the plurality of cameras is a reference camera C R (2001), and the other cameras are C i . However, i is a number which distinguishes a camera. The position and direction of the camera can be freely determined.
D in the figure, a reference from the camera C R (2001), represents the distance to the plane in which there is survey point 2011, the intersection of the reference camera C R perpendicular line drawn from the survey point 2011 to the optical axis 2012 of the (2001) When, in a where the distance between the base camera C R lens center 2003 (reference viewpoint) of (2001), want to get the base camera C R image incident on the image sensor (2004) of the (2001) Depth information for each pixel.

Figure 2009186369
Figure 2009186369

Figure 2009186369
Figure 2009186369

Figure 2009186369
Figure 2009186369

なお、本願発明に関連する先行技術文献としては以下のものがある。
M.Okutomi,T.Kanade,“A Multiple-Baseline Stereo”,IEEE Trans.Pattren Analysis and Machine Intelligence,Vol.15,No.4,April 1993. 國田 豊他,“多層信頼度マップを用いた3次元映像の実時間生成システム”,映像情報メディア学会誌,Vol.60,No.7,2006,pp1102〜1110.
As prior art documents related to the invention of the present application, there are the following.
M. Okutomi, T. Kanade, “A Multiple-Baseline Stereo”, IEEE Trans. Pattren Analysis and Machine Intelligence, Vol. 15, No. 4, April 1993. Yutaka Kunida et al., “Real-time 3D video generation system using multi-layer reliability map”, Journal of the Institute of Image Information and Television Engineers, Vol. 60, No. 7, 2006, pp1102-1110.

しかしながら、前述の非特許文献1に記載の方法では、基準カメラCが実カメラである必要があるため、実カメラを測定したい視点と光軸となるように調整する必要がある。そのため、一旦カメラを配置した後に、仮想的な視点(仮想視点)と光軸(仮想光軸)を持つ仮想カメラで撮像した画像の奥行き情報を得ることができないという問題点があった。
また、前述の(2)式に示す統合した相違度が、各カメラの相違度の和であるため、オクルージョン(実カメラから撮像できない箇所が存在すること)等の発生により、1つでも各カメラの相違度が小さいとき、統合された相違度が影響を受けて小さくなり、奥行きを決定される際に誤差が発生し易くなるという問題点があった。
前述の非特許文献2では、前述の非特許文献1の基準カメラCが実カメラである必要があるという問題点を解決しているが、オクルージョンに弱いという問題点は解決できていない。
本発明は、前記従来技術の問題点を解決するためになされたものであり、本発明の目的は、奥行き情報取得方法および奥行き情報取得装置において、オクルージョンによる影響が小さい方法で、仮想視点から見た所望の方向の画像の奥行き情報を取得することが可能となる技術を提供することにある。
また、本発明の他の目的は、前述の奥行き情報取得方法をコンピュータに実行させるためのプログラム、および当該プログラムを記録した記録媒体を提供することにある。
本発明の前記ならびにその他の目的と新規な特徴は、本明細書の記述及び添付図面によって明らかにする。
However, the method described in Non-Patent Document 1 described above, since the reference camera C R is required to be real camera, it is necessary to adjust so that the viewpoint and the optical axis to be measured actual camera. For this reason, there is a problem in that it is impossible to obtain depth information of an image captured by a virtual camera having a virtual viewpoint (virtual viewpoint) and an optical axis (virtual optical axis) once the camera is arranged.
In addition, since the integrated difference shown in the above equation (2) is the sum of the differences of the cameras, even one camera is generated due to the occurrence of occlusion (there is a portion that cannot be captured from the actual camera) or the like. When the dissimilarity is small, the integrated dissimilarity is affected and becomes small, and there is a problem that an error is likely to occur when the depth is determined.
Non-Patent Document 2 described above, although solving the problem that it is necessary base camera C R of the Non-Patent Document 1 above is real camera, not be solved a problem that weak occlusion.
The present invention has been made to solve the problems of the prior art, and an object of the present invention is to provide a depth information acquisition method and a depth information acquisition device that are less affected by occlusion and viewed from a virtual viewpoint. Another object of the present invention is to provide a technique capable of acquiring depth information of an image in a desired direction.
Another object of the present invention is to provide a program for causing a computer to execute the above-described depth information acquisition method, and a recording medium on which the program is recorded.
The above and other objects and novel features of the present invention will become apparent from the description of this specification and the accompanying drawings.

本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、下記の通りである。
本発明は、視点の異なるn(n≧2)個のカメラで撮影した画像情報を用いて任意の視点である仮想視点から見た画像の奥行き情報を取得する奥行き情報取得方法であって、前記n個のカメラを用いて同一の物体や風景を撮影した画像を入力するステップ1と、前記仮想視点を設定するステップ2と、前記仮想視点から見た視野中に複数の仮想面を層状に設置するステップ3と、前記仮想視点から見た画像中の任意の画素に対応する前記各仮想面の点を調査点とするとき、前記仮想面を1つ選び、前記選択した仮想面中の前記調査点に対応する前記n個のカメラのそれぞれで撮像した各画像上のそれぞれの対応点を計算するステップ4と、前記n個のカメラの中から2個のカメラを選択し、当該選択した2個のカメラで撮像した画像上のそれぞれの対応点の相違度を計算するステップ5と、前記ステップ5で計算した相違度を、相違度が大きい程小さな値となり、相違度が無限大の時に0となる類似度に変換するステップ6と、前記ステップ5と、前記ステップ6とを前記n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行するステップ7と、前記n(n−1)/2組の全ての組の類似度を統合し、統合類似度を出力するステップ8と、前記すべての仮想面に対して、前記ステップ4ないしステップ8を実行するステップ9と、前記仮想視点から、前記ステップ9で求められた各仮想面における統合類似度の中で最も大きい統合類似度を持つ仮想面までの距離を、前記仮想視点から見た画像中の任意の画素の奥行き情報とするステップ10と、ユーザが欲する全ての調査点に対して前記のステップ4〜ステップ10を実行するステップ11とを有する。
Of the inventions disclosed in this application, the outline of typical ones will be briefly described as follows.
The present invention is a depth information acquisition method for acquiring depth information of an image viewed from a virtual viewpoint that is an arbitrary viewpoint using image information captured by n (n ≧ 2) cameras having different viewpoints, Step 1 for inputting images obtained by photographing the same object or landscape using n cameras, Step 2 for setting the virtual viewpoint, and arranging a plurality of virtual planes in a field of view viewed from the virtual viewpoint. Step 3 and selecting a point of each virtual plane corresponding to an arbitrary pixel in the image viewed from the virtual viewpoint as a survey point, select one of the virtual planes, and the survey in the selected virtual plane Step 4 for calculating each corresponding point on each image captured by each of the n cameras corresponding to a point, and selecting two cameras from the n cameras, and selecting the selected two That on the image taken by the camera Step 5 for calculating the dissimilarity between the corresponding points, and Step 6 for converting the dissimilarity calculated in Step 5 into a similarity that becomes a smaller value as the dissimilarity increases and becomes 0 when the dissimilarity is infinite. Executing step 5 and step 6 on all sets of n (n−1) / 2 sets for selecting two cameras from the n cameras; Step 8 for integrating the similarities of all sets of n (n-1) / 2 sets, and outputting the integrated similarity, and Step 9 for executing Steps 4 to 8 for all the virtual surfaces And an arbitrary pixel in the image viewed from the virtual viewpoint, the distance from the virtual viewpoint to the virtual surface having the largest integrated similarity among the integrated similarities in each virtual surface obtained in the step 9 Step 10 as depth information of And a step 11 to perform steps 4 10 said to all survey points that the user wants.

また、本発明では、前記ステップ8は、前記n(n−1)/2組の全ての組で計算した類似度にパラメータを加算し、当該パラメータを加算した前記n(n−1)/2組の全ての組で計算した類似度を乗算し、統合類似度として出力するステップである。
また、本発明では、前記ステップ8は、前記n(n−1)/2組の全ての組で計算した類似度の中で最も大きい類似度を選択し、当該選択した類似度を統合類似度として出力するステップである。
また、本発明は、前述の奥行き情報取得方法を実現する奥行き情報取得装置である。
また、本発明は、前述の奥行き情報取得方法をコンピュータに実行させるためのプログラムである。
また、本発明は、前述のプログラムを記録したコンピュータ読み取り可能な記録媒体である。
In the present invention, the step 8 adds a parameter to the similarity calculated in all the n (n-1) / 2 sets, and adds the parameter to the n (n-1) / 2. This is a step of multiplying the similarities calculated for all the pairs and outputting them as integrated similarities.
In the present invention, the step 8 selects the highest similarity among the similarities calculated in all the n (n−1) / 2 pairs, and the selected similarity is used as the integrated similarity. As the output step.
In addition, the present invention is a depth information acquisition device that implements the depth information acquisition method described above.
Moreover, this invention is a program for making a computer perform the above-mentioned depth information acquisition method.
The present invention is also a computer-readable recording medium that records the above-described program.

本願において開示される発明のうち代表的なものによって得られる効果を簡単に説明すれば、下記の通りである。
本発明の奥行き情報取得方法および奥行き情報取得装置によれば、オクルージョンによる影響が小さい方法で、仮想視点から見た所望の方向の画像の奥行き情報を取得することが可能となる。
The effects obtained by the representative ones of the inventions disclosed in the present application will be briefly described as follows.
According to the depth information acquisition method and the depth information acquisition apparatus of the present invention, it is possible to acquire depth information of an image in a desired direction viewed from a virtual viewpoint by a method that is less affected by occlusion.

以下、図面を参照して本発明の実施例を詳細に説明する。
なお、実施例を説明するための全図において、同一機能を有するものは同一符号を付け、その繰り返しの説明は省略する。
図2は、本発明の実施例の情報取得方法を説明するための図である。
図2において、1001は仮想カメラC、1002は仮想カメラCのレンズ、1003は仮想カメラCのレンズ中心(仮想視点)、1004は仮想カメラCの撮像素子、1005は仮想カメラCの撮像素子の原点、1006は仮想カメラCの撮像素上の任意の画素の中心点、1010は仮想カメラCの視線、1011は調査点、1012はユーザが見たい空間的な範囲内の仮想面群、1101はその他のカメラ(カメラC)、1102はカメラCのレンズ、1103はカメラCのレンズ中心、1104はカメラCの撮像素子、1105はカメラCの撮像素子の原点、1106はカメラCの撮像素上における調査点1011の結像点、1110はカメラCの視線である。
本実施例では、図1に示す実カメラである基準カメラCに代えて、仮想カメラCを使用する。また、本実施例では、実カメラを2台以上用意し、実カメラの群から2台を選び出す組合わせを作る。n台の実カメラがあれば、n(n−1)/2の組合せがあるので、その組み合わせを作る。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
In all the drawings for explaining the embodiments, parts having the same functions are given the same reference numerals, and repeated explanation thereof is omitted.
FIG. 2 is a diagram for explaining an information acquisition method according to the embodiment of this invention.
2, 1001 virtual camera C v, 1002 is a lens of a virtual camera C v, 1003 the lens center of the virtual camera C v (virtual viewpoint), 1004 image sensor of the virtual camera C v, 1005 is the virtual camera C v origin of imaging device, 1006 a center point of an arbitrary pixel of the imaging Motojo of the virtual camera C v, 1010 the visual axis of the virtual camera C v, 1011 survey point, 1012 in the spatial extent wants to see the user virtual surface group, 1101 other cameras (camera C 1), 1102 is the lens camera C 1, 1103 the lens center of the camera C 1, 1104 the image pickup device of the camera C 1, 1105 is the image pickup device of the camera C 1 origin, 1106 imaging point survey point 1011 in the image pickup Motojo the camera C 1, 1110 is a line of sight camera C 1.
In this embodiment, instead of the reference camera C R is a real camera shown in FIG. 1, using the virtual camera C v. In this embodiment, two or more real cameras are prepared, and a combination for selecting two from the group of real cameras is made. If there are n actual cameras, there are n (n-1) / 2 combinations, so that combination is made.

Figure 2009186369
Figure 2009186369

以下、本実施例の奥行き情報取得方法を、図3のフローチャート用いて説明する。
(1)ステップ101
n(n≧2)台の実カメラCi(i=1,...,n)で、同一物体や風景を撮影し、撮影した画像を後述する奥行き情報取得装置に入力する。このとき、各カメラCi(i=1,...,n)において、コンピュータビジョンの分野で知られているカメラの内部に関するパラメタ(カメラ内部パラメタ)と、カメラの位置、姿勢に関するパラメタ(カメラ外部パラメタ)は既知とする。カメラ内部パラメタは、行列表記すると、下記(3)式で表される。
Hereinafter, the depth information acquisition method of the present embodiment will be described with reference to the flowchart of FIG.
(1) Step 101
The n (n ≧ 2) real cameras Ci (i = 1,..., n) photograph the same object or landscape, and input the photographed image to a depth information acquisition apparatus described later. At this time, in each camera Ci (i = 1,..., N), parameters relating to the inside of the camera (camera internal parameters) known in the field of computer vision and parameters relating to the position and orientation of the camera (external to the camera) Parameter) is assumed to be known. The camera internal parameter is expressed by the following equation (3) when expressed in a matrix.

Figure 2009186369
Figure 2009186369

Figure 2009186369
Figure 2009186369

(2)ステップ102
このステップでは、ユーザが自分の目を持っていきたい場所を決め、そこに仮想視点1003を設置する。
(3)ステップ103
このステップでは、仮想視点1003から見た視野中に複数の仮想面1012を層状に設置する。
(4)ステップ104
このステップでは、仮想視点1003から見た画像中の任意の画素に対応する、各仮想面1012の点を調査点1011とするとき、仮想面を1つ選び、選択した仮想面中の調査点1011に対応するn個のカメラのそれぞれで撮像した複数の画像上のそれぞれの対応点の座標を計算する。
このステップでは、仮想視点1003から見た視野内であって、ユーザが生成したい画像の範囲を表す仮想的な面を設置する。これは、仮想視点1003をレンズ中心としたレンズ1002を持つ仮想カメラ1001の撮像素子1004と見なすことができる。
次に、ユーザが見たい画像の精細度を決め、それを満足するように、仮想カメラ1001の撮像素子1004の面上の画素を配置する。
これにより、ユーザが見たい視点である仮想視点1003に設置した仮想カメラ1001のパラメタが決まる。
この仮想カメラ1001の内部/外部パラメタは、下記(5)式で表される。
(2) Step 102
In this step, a place where the user wants to take his / her eyes is determined, and a virtual viewpoint 1003 is set there.
(3) Step 103
In this step, a plurality of virtual surfaces 1012 are installed in layers in the field of view viewed from the virtual viewpoint 1003.
(4) Step 104
In this step, when a point on each virtual plane 1012 corresponding to an arbitrary pixel in the image viewed from the virtual viewpoint 1003 is set as the survey point 1011, one virtual plane is selected and the survey point 1011 in the selected virtual plane is selected. The coordinates of the corresponding points on the plurality of images captured by each of the n cameras corresponding to are calculated.
In this step, a virtual plane that is within the field of view viewed from the virtual viewpoint 1003 and that represents the range of the image that the user wants to generate is installed. This can be regarded as the image sensor 1004 of the virtual camera 1001 having the lens 1002 with the virtual viewpoint 1003 as the lens center.
Next, the definition of the image the user wants to see is determined, and the pixels on the surface of the image sensor 1004 of the virtual camera 1001 are arranged so as to satisfy the definition.
Thereby, the parameters of the virtual camera 1001 installed at the virtual viewpoint 1003 that is the viewpoint that the user wants to see are determined.
The internal / external parameters of the virtual camera 1001 are expressed by the following equation (5).

Figure 2009186369
Figure 2009186369

ここで、(5)式の内容は、前述の(3)式、(4)式と同様であるので、詳細な説明は省略する。
次に、仮想カメラ1001の撮像素子1004の任意の画素1006を1つ選択する。そして、仮想始点1003と画素1006とを通る直線である仮想視線1010と、各仮想面群1012の仮想面との交点を調査点1011とする。
次に、仮想平面群1012の中から仮想面を1つ選び、当該選択した仮想面中の調査点1011に対応するn個のカメラのそれぞれで撮像した複数の画像上のそれぞれの対応点の座標を計算する。
Here, since the content of the equation (5) is the same as the above-described equations (3) and (4), a detailed description thereof will be omitted.
Next, one arbitrary pixel 1006 of the image sensor 1004 of the virtual camera 1001 is selected. Then, an intersection point between a virtual line of sight 1010 that is a straight line passing through the virtual start point 1003 and the pixel 1006 and a virtual plane of each virtual plane group 1012 is set as an investigation point 1011.
Next, one virtual plane is selected from the virtual plane group 1012, and the coordinates of the corresponding points on the plurality of images captured by each of the n cameras corresponding to the survey point 1011 in the selected virtual plane are selected. Calculate

Figure 2009186369
Figure 2009186369

Figure 2009186369
Figure 2009186369

Figure 2009186369
Figure 2009186369

Figure 2009186369
Figure 2009186369

Figure 2009186369
Figure 2009186369

Figure 2009186369
Figure 2009186369

Figure 2009186369
Figure 2009186369

視点位置入力手段2は、例えば、マウス、キーボード等の入力するデバイスである。
被写体画像取得手段12は、同一の物体や風景を撮影した画像を取得する手段であるが、あらかじめ撮影した画像を記録装置から読み出すことで取得することも可能である。なお、複数の視点位置から撮影した画像は、すべてのカメラ間の同期をとることにより同一時刻に撮影したものであることが望ましいが、同一の物体や風景の位置・姿勢の変化が十分に遅く、静止物と見なせる場合にはこの限りではない。
また、奥行き情報取得手段13は、対応点計算手段131と、相違度計算手段132と、類似度変換手段133と、統合類似度計算手段134と、奥行き情報出力手段135とで構成される。
対応点計算手段131は、図3のステップ104の処理を、n(≧2)個の全てのカメラに対して実行する。
相違度計算手段132は、図3のステップ105の処理を、n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行する。
類似度変換手段133は、図3のステップ106の処理を、n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行する。
統合類似度計算手段134は、図3のステップ108の処理を、n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行する。
奥行き情報出力手段135は、図3のステップ110と、ステップ111の処理を実行し、奥行き情報を出力する。
ここで、奥行き情報取得手段13は、ユーザが欲する全ての調査点に対する奥行き情報を取得する。即ち、対応点計算手段131と、相違度計算手段132と、類似度変換手段133と、統合類似度計算手段134と、奥行き情報出力手段135とは、ユーザが欲する全ての調査点に対して、前述の処理(図3のステップ111の処理)を実行する。
The viewpoint position input means 2 is an input device such as a mouse or a keyboard.
The subject image acquisition unit 12 is a unit that acquires an image of the same object or landscape, but it can also be acquired by reading out an image captured in advance from the recording device. Note that images taken from multiple viewpoint positions are preferably taken at the same time by synchronizing all cameras, but the changes in the position and orientation of the same object or landscape are sufficiently slow. However, this is not the case when it can be regarded as a stationary object.
The depth information acquisition unit 13 includes a corresponding point calculation unit 131, a dissimilarity calculation unit 132, a similarity conversion unit 133, an integrated similarity calculation unit 134, and a depth information output unit 135.
The corresponding point calculation unit 131 executes the process of step 104 in FIG. 3 for all n (≧ 2) cameras.
The dissimilarity calculation means 132 executes the process of step 105 in FIG. 3 for all sets of n (n−1) / 2 sets that select two cameras from the n cameras.
The similarity conversion unit 133 executes the process of step 106 in FIG. 3 for all sets of n (n−1) / 2 sets that select two cameras from the n cameras.
The integrated similarity calculation means 134 executes the processing of step 108 in FIG. 3 for all sets of n (n−1) / 2 sets that select two cameras from the n cameras.
The depth information output unit 135 executes the processing of step 110 and step 111 in FIG. 3 and outputs depth information.
Here, the depth information acquisition means 13 acquires depth information for all survey points desired by the user. That is, the corresponding point calculation unit 131, the dissimilarity calculation unit 132, the similarity conversion unit 133, the integrated similarity calculation unit 134, and the depth information output unit 135 are provided for all survey points desired by the user. The above-described process (the process of step 111 in FIG. 3) is executed.

以上説明したように、本実施例によれば、従来の方法に比べて、基準カメラが実カメラでないため、ユーザが奥行き情報を取得したい仮想カメラの位置に実カメラを置く必要が無い。また、仮想カメラが実カメラでないため、自由に設定した仮想視点と光軸の奥行き情報を取得できる。
また、奥行きを選択するときの評価関数を、(n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組の類似度(0以上の類似度)+1)の積、または最大値としたため、オクルージョンの影響により類似度が低くなったペアの類似度はほぼ1となる。これにより、統合した類似度への影響は小さくなるため、オクルージョンの影響を受け難くなり、その結果、奥行き情報の精度を向上させることが可能となる。
さらに、相違度の計算において、n個のカメラの中から2個のカメラを選択するn(n−1)/2組の各組ごとに計算しており、相違度の計算する際のカメラの選び方が最小単位となっていることから、オクルージョンを回避できた組の2個のカメラが得易くなるため、オクルージョンに対して耐性ができ、その結果、奥行き情報の精度を高くすることが可能となる。
以上、本発明者によってなされた発明を、前記実施例に基づき具体的に説明したが、本発明は、前記実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。
As described above, according to the present embodiment, since the reference camera is not a real camera, it is not necessary for the user to place the real camera at the position of the virtual camera for which depth information is desired to be acquired, as compared with the conventional method. In addition, since the virtual camera is not a real camera, it is possible to acquire freely set virtual viewpoint and optical axis depth information.
In addition, the evaluation function for selecting the depth is expressed by (similarity of all the n (n−1) / 2 sets of selecting two cameras from n cameras (similarity of 0 or more). Since the product of +1) or the maximum value is used, the similarity of a pair whose similarity is low due to the influence of occlusion is approximately 1. Thereby, since the influence on the integrated similarity becomes small, it becomes difficult to be affected by the occlusion, and as a result, the accuracy of the depth information can be improved.
Further, in the calculation of the degree of difference, the calculation is performed for each group of n (n−1) / 2 sets for selecting two cameras from the n cameras. Since the method of selection is the smallest unit, it becomes easy to obtain a pair of cameras that can avoid occlusion, so that resistance to occlusion can be obtained, and as a result, accuracy of depth information can be increased. Become.
As mentioned above, the invention made by the present inventor has been specifically described based on the above embodiments. However, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the scope of the invention. Of course.

従来の奥行き情報取得方法を説明するための図である。It is a figure for demonstrating the conventional depth information acquisition method. 本発明の実施例の奥行き情報取得方法を説明するための図である。It is a figure for demonstrating the depth information acquisition method of the Example of this invention. 本発明の実施例の奥行き情報取得方法の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the depth information acquisition method of the Example of this invention. 仮想平面と仮想視線の交点と結像点の近傍の撮像素子上の画素の図(注目点を中心とする撮像素子画素と同じ大きさの四角形と撮像素子の画素の関係図)である。It is a figure of the pixel on the image sensor in the vicinity of the intersection of the virtual plane and the virtual line of sight and the image formation point (relationship diagram of a rectangle having the same size as the image sensor pixel around the point of interest and the pixel of the image sensor). 本発明の実施例の奥行き情報取得装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the depth information acquisition apparatus of the Example of this invention.

符号の説明Explanation of symbols

1 奥行き情報取得装置
2 視点位置入力手段
3 被写体撮影手段
11 仮想面・仮想視点決定手段
12 カメラ画像取得手段
13 奥行き情報取得手段
131 対応点計算手段
132 相違度計算手段
133 類似度変換手段
134 統合類似度計算手段
135 奥行き情報出力手段
1001 仮想カメラ
1002 仮想カメラのレンズ、
1003 仮想カメラのレンズの中心(仮想視点)
1004 仮想カメラの撮像素子
1005 仮想カメラの撮像素子の原点
1006 調査点の仮想カメラの撮像素子上の結像点
1010 仮想カメラの視線
1011,2011 調査点
1012 仮想平面群
1101 実カメラ
1102 実カメラのレンズ
1103 実カメラのレンズのレンズ中心
1104 実カメラの撮像素子
1105 実カメラの撮像素子の原点
1106 調査点の実カメラの撮像素子上の結像点
1110 実カメラの視線
2001 基準カメラ
2002 基準カメラのレンズ、
2003 基準カメラのレンズの中心(仮想視点)
2004 基準カメラの撮像素子
2005 基準カメラの撮像素子の原点
2006 調査点の基準カメラの撮像素子上の結像点
2010 基準カメラの視線
5106 仮想平面と仮想視線の交点の結像点
5111 仮想平面と仮想視線の交点の結像点を中心とする撮像素子の画素と同じ大きさの四角形
5112 仮想平面と仮想視線の交点の結像点の近傍の撮像素子上の画素群
DESCRIPTION OF SYMBOLS 1 Depth information acquisition apparatus 2 Viewpoint position input means 3 Subject imaging means 11 Virtual surface / virtual viewpoint determination means 12 Camera image acquisition means 13 Depth information acquisition means 131 Corresponding point calculation means 132 Dissimilarity calculation means 133 Similarity degree conversion means 134 Integrated similarity Degree calculation means 135 Depth information output means 1001 Virtual camera 1002 Virtual camera lens,
1003 Virtual camera lens center (virtual viewpoint)
DESCRIPTION OF SYMBOLS 1004 Image sensor of virtual camera 1005 Origin of image sensor of virtual camera 1006 Imaging point on image sensor of virtual camera of investigation point 1010 Line of sight of virtual camera 1011, 2011 Investigation point 1012 Virtual plane group 1101 Real camera 1102 Lens of real camera 1103 Lens center of lens of real camera 1104 Image sensor of real camera 1105 Origin point of image sensor of real camera 1106 Imaging point on image sensor of real camera of investigation point 1110 Line of sight of real camera 2001 Reference camera 2002 Lens of reference camera,
2003 Reference camera lens center (virtual viewpoint)
2004 Image pickup element of reference camera 2005 Origin of image pickup element of reference camera 2006 Imaging point on image pickup element of reference camera of survey point 2010 Line of sight of reference camera 5106 Image formation point of intersection of virtual plane and virtual line of sight 5111 Virtual plane and virtual A square 5112 having the same size as the pixel of the image sensor centering on the imaging point at the intersection of the line of sight 5112 A pixel group on the image sensor in the vicinity of the image formation point at the intersection of the virtual plane and the virtual line of sight

Claims (8)

視点の異なるn(n≧2)個のカメラで撮影した画像情報を用いて任意の視点である仮想視点から見た画像の奥行き情報を取得する奥行き情報取得方法であって、
前記n個のカメラを用いて同一の物体や風景を撮影した画像を入力するステップ1と、
前記仮想視点を設定するステップ2と、
前記仮想視点から見た視野中に複数の仮想面を層状に設置するステップ3と、
前記仮想視点から見た画像中の任意の画素に対応する前記各仮想面の点を調査点とするとき、前記仮想面を1つ選び、前記選択した仮想面中の前記調査点に対応する前記n個のカメラのそれぞれで撮像した各画像上のそれぞれの対応点を計算するステップ4と、
前記n個のカメラの中から2個のカメラを選択し、当該選択した2個のカメラで撮像した画像上のそれぞれの対応点の相違度を計算するステップ5と、
前記ステップ5で計算した相違度を、相違度が大きい程小さな値となり、相違度が無限大の時に0となる類似度に変換するステップ6と、
前記ステップ5と、前記ステップ6とを前記n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して実行するステップ7と、
前記n(n−1)/2組の全ての組の類似度を統合し、統合類似度を出力するステップ8と、
前記すべての仮想面に対して、前記ステップ4ないしステップ8を実行するステップ9と、
前記仮想視点から、前記ステップ9で求められた各仮想面における統合類似度の中で最も大きい統合類似度を持つ仮想面までの距離を、前記仮想視点から見た画像中の任意の画素の奥行き情報とするステップ10とを有することを特徴とする奥行き情報取得方法。
A depth information acquisition method for acquiring depth information of an image viewed from a virtual viewpoint that is an arbitrary viewpoint using image information captured by n (n ≧ 2) cameras having different viewpoints,
Inputting an image obtained by photographing the same object or landscape using the n cameras;
Step 2 for setting the virtual viewpoint;
Installing a plurality of virtual planes in layers in the field of view viewed from the virtual viewpoint; and
When the point of each virtual surface corresponding to an arbitrary pixel in the image viewed from the virtual viewpoint is used as a survey point, the virtual surface is selected and the one corresponding to the survey point in the selected virtual surface is selected. calculating each corresponding point on each image captured by each of the n cameras;
Step 5 of selecting two cameras from the n cameras and calculating the difference between the corresponding points on the images captured by the two selected cameras.
Step 6 for converting the degree of difference calculated in Step 5 into a degree of similarity that becomes smaller as the degree of difference is larger and becomes 0 when the degree of difference is infinite;
Executing step 5 and step 6 for all sets of n (n-1) / 2 sets for selecting two cameras from the n cameras; and
Step 8 of integrating the similarities of all the n (n-1) / 2 sets, and outputting the integrated similarity;
Step 9 for executing steps 4 to 8 for all the virtual planes;
The distance from the virtual viewpoint to the virtual plane having the largest integrated similarity among the integrated similarities in each virtual plane obtained in step 9 is the depth of an arbitrary pixel in the image viewed from the virtual viewpoint. A depth information acquisition method comprising: step 10 for information.
前記ステップ8は、前記n(n−1)/2組の全ての組で計算した類似度にパラメータを加算し、当該パラメータを加算した前記n(n−1)/2組の全ての組で計算した類似度を乗算し、統合類似度として出力するステップであることを特徴とする請求項1に記載の奥行き情報取得方法。   The step 8 adds a parameter to the similarity calculated in all the n (n−1) / 2 sets, and adds the parameter to all the n (n−1) / 2 sets. The depth information acquisition method according to claim 1, which is a step of multiplying the calculated similarity and outputting as an integrated similarity. 前記ステップ8は、前記n(n−1)/2組の全ての組で計算した類似度の中で最も大きい類似度を選択し、当該選択した類似度を統合類似度として出力するステップであることを特徴とする請求項1に記載の奥行き情報取得方法。   The step 8 is a step of selecting the largest similarity among the similarities calculated in all the n (n-1) / 2 pairs and outputting the selected similarity as an integrated similarity. The depth information acquisition method according to claim 1. 視点の異なるn(n≧2)個のカメラで撮影した画像情報を用いて、任意の視点である仮想視点から見た画像の奥行き情報を取得する奥行き情報取得装置であって、
前記n個のカメラを用いて同一の物体や風景を撮影した画像を入力する手段1と、
前記仮想視点を設定する手段2と、
前記仮想視点から見た視野中に複数の仮想面を層状に設置する手段3と、
前記仮想視点から見た画像中の任意の画素に対応する前記各仮想面の点を調査点とするとき、前記仮想面を1つ選び、前記選択した仮想面中の前記調査点に対応する前記n個のカメラのそれぞれで撮像した各画像上のそれぞれの対応点を計算する手段4と、
前記n個のカメラの中から2個のカメラを選択し、当該選択した2個のカメラで撮像した画像上のそれぞれの対応点の相違度を、前記n個のカメラの中から2個のカメラを選択するn(n−1)/2組の全ての組に対して計算する手段5と、
前記手段5で計算した前記n(n−1)/2組の全ての組の相違度を、相違度が大きい程小さな値となり、相違度が無限大の時に0となる類似度に変換する手段6と、
前記n(n−1)/2組の全ての組の類似度を統合し、統合類似度を出力する手段7と、
前記すべての仮想面に対して、前記手段4ないし手段7を実行する手段8と、
前記仮想視点から前記手段8で求められた各仮想面における統合類似度の中で最も大きい統合類似度を持つ仮想面までの距離を、前記仮想視点から見た画像中の任意の画素の奥行き情報とする手段9とを有することを特徴とする奥行き情報取得装置。
A depth information acquisition device that acquires depth information of an image viewed from a virtual viewpoint, which is an arbitrary viewpoint, using image information captured by n (n ≧ 2) cameras having different viewpoints,
Means 1 for inputting images obtained by photographing the same object or landscape using the n cameras;
Means 2 for setting the virtual viewpoint;
Means 3 for arranging a plurality of virtual surfaces in a layered manner in the visual field viewed from the virtual viewpoint;
When the point of each virtual surface corresponding to an arbitrary pixel in the image viewed from the virtual viewpoint is used as a survey point, the virtual surface is selected and the one corresponding to the survey point in the selected virtual surface is selected. means 4 for calculating corresponding points on each image captured by each of the n cameras;
Two cameras are selected from the n cameras, and the degree of difference between the corresponding points on the image captured by the selected two cameras is calculated from the two cameras. Means 5 for calculating for all pairs of n (n-1) / 2 pairs
Means for converting the dissimilarity of all the n (n-1) / 2 pairs calculated by the means 5 into a similarity that becomes smaller as the dissimilarity is larger and becomes 0 when the dissimilarity is infinite. 6 and
Means 7 for integrating the similarities of all the n (n-1) / 2 sets and outputting the integrated similarity;
Means 8 for executing said means 4 to means 7 for all said virtual surfaces;
Depth information of an arbitrary pixel in the image viewed from the virtual viewpoint, the distance from the virtual viewpoint to the virtual surface having the largest integrated similarity among the integrated similarities in each virtual surface obtained by the means 8 And a depth information acquiring apparatus.
前記手段7は、前記n(n−1)/2組の全ての組で計算した類似度にパラメータを加算し、当該パラメータを加算した前記n(n−1)/2組の全ての組で計算した類似度を乗算して、統合類似度として出力することを特徴とする請求項4に記載の奥行き情報取得装置。   The means 7 adds a parameter to the similarity calculated in all the n (n−1) / 2 sets, and adds the parameter to all the n (n−1) / 2 sets. The depth information acquisition apparatus according to claim 4, wherein the calculated similarity is multiplied and output as an integrated similarity. 前記手段7は、前記n(n−1)/2組の全ての組で計算した類似度の中で最も大きい類似度を選択し、当該選択した類似度を統合類似度として出力することを特徴とする請求項4に記載の奥行き情報取得装置。   The means 7 selects the largest similarity among the similarities calculated in all the n (n-1) / 2 pairs, and outputs the selected similarity as an integrated similarity. The depth information acquisition apparatus according to claim 4. 請求項1乃至請求項3のいずれか1項に記載の奥行き情報取得方法をコンピュータに実行させるためのプログラム。   The program for making a computer perform the depth information acquisition method of any one of Claims 1 thru | or 3. 請求項7に記載のプログラムを記録したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium on which the program according to claim 7 is recorded.
JP2008027831A 2008-02-07 2008-02-07 Depth information acquisition method, depth information acquisition device, program, and recording medium Expired - Fee Related JP5086120B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008027831A JP5086120B2 (en) 2008-02-07 2008-02-07 Depth information acquisition method, depth information acquisition device, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008027831A JP5086120B2 (en) 2008-02-07 2008-02-07 Depth information acquisition method, depth information acquisition device, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2009186369A true JP2009186369A (en) 2009-08-20
JP5086120B2 JP5086120B2 (en) 2012-11-28

Family

ID=41069754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008027831A Expired - Fee Related JP5086120B2 (en) 2008-02-07 2008-02-07 Depth information acquisition method, depth information acquisition device, program, and recording medium

Country Status (1)

Country Link
JP (1) JP5086120B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013083505A (en) * 2011-10-07 2013-05-09 National Institute Of Information & Communication Technology Three-dimensional coordinate position estimating device, method and program thereof, three-dimensional coordinate estimating system, and camera calibration informative generator
WO2015178217A1 (en) * 2014-05-21 2015-11-26 ソニー株式会社 Image processing apparatus and method
KR20200072338A (en) * 2018-12-12 2020-06-22 서울과학기술대학교 산학협력단 Apparatus and method for composing video data

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06347220A (en) * 1993-06-07 1994-12-20 Sumitomo Electric Ind Ltd Image monitoring device and its usage
JPH11250252A (en) * 1998-03-02 1999-09-17 Tech Res & Dev Inst Of Japan Def Agency Three-dimensional object recognizing device and method therefor
WO1999058927A1 (en) * 1998-05-08 1999-11-18 Sony Corporation Image generating device and method
JP2000215311A (en) * 1999-01-21 2000-08-04 Nippon Telegr & Teleph Corp <Ntt> Method and device for generating virtual viewpoint image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06347220A (en) * 1993-06-07 1994-12-20 Sumitomo Electric Ind Ltd Image monitoring device and its usage
JPH11250252A (en) * 1998-03-02 1999-09-17 Tech Res & Dev Inst Of Japan Def Agency Three-dimensional object recognizing device and method therefor
WO1999058927A1 (en) * 1998-05-08 1999-11-18 Sony Corporation Image generating device and method
JP2000215311A (en) * 1999-01-21 2000-08-04 Nippon Telegr & Teleph Corp <Ntt> Method and device for generating virtual viewpoint image

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013083505A (en) * 2011-10-07 2013-05-09 National Institute Of Information & Communication Technology Three-dimensional coordinate position estimating device, method and program thereof, three-dimensional coordinate estimating system, and camera calibration informative generator
WO2015178217A1 (en) * 2014-05-21 2015-11-26 ソニー株式会社 Image processing apparatus and method
JPWO2015178217A1 (en) * 2014-05-21 2017-04-20 ソニー株式会社 Image processing apparatus and method
US10547822B2 (en) 2014-05-21 2020-01-28 Sony Corporation Image processing apparatus and method to generate high-definition viewpoint interpolation image
KR20200072338A (en) * 2018-12-12 2020-06-22 서울과학기술대학교 산학협력단 Apparatus and method for composing video data
KR102129085B1 (en) 2018-12-12 2020-07-01 서울과학기술대학교 산학협력단 Apparatus and method for composing video data

Also Published As

Publication number Publication date
JP5086120B2 (en) 2012-11-28

Similar Documents

Publication Publication Date Title
JP6112824B2 (en) Image processing method and apparatus, and program.
EP3101624B1 (en) Image processing method and image processing device
US20150177062A1 (en) Information processing apparatus, information processing method, and storage medium
JP2019510311A (en) Method and computer program product for calibrating a stereo imaging system using a planar mirror
JP2015035658A (en) Image processing apparatus, image processing method, and imaging apparatus
CN111373748A (en) System and method for externally calibrating a camera and diffractive optical element
JP2012248001A (en) Image processing apparatus, image processing method, and program
JP6304244B2 (en) 3D shape measuring apparatus, 3D shape measuring method, and 3D shape measuring program
JP5886242B2 (en) Image processing apparatus, image processing method, and image processing program
JP6300346B2 (en) IP stereoscopic image estimation apparatus and program thereof
JP2010079505A (en) Image generating apparatus and program
JP5809607B2 (en) Image processing apparatus, image processing method, and image processing program
TW201225658A (en) Imaging device, image-processing device, image-processing method, and image-processing program
TW202014993A (en) Information processing device, program, and information processing method
JP6552256B2 (en) Image processing apparatus and image processing apparatus control method
JP2022058658A (en) Device and method for obtaining positioning error map indicating sharpness level of image
JP6234401B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6580761B1 (en) Depth acquisition apparatus and method using polarization stereo camera
JP5086120B2 (en) Depth information acquisition method, depth information acquisition device, program, and recording medium
KR20220121533A (en) Method and device for restoring image obtained from array camera
JP6305232B2 (en) Information processing apparatus, imaging apparatus, imaging system, information processing method, and program.
Georgopoulos Photogrammetric automation: is it worth?
JP6602412B2 (en) Information processing apparatus and method, information processing system, and program.
JP2015005200A (en) Information processing apparatus, information processing system, information processing method, program, and memory medium
US11356632B2 (en) Display-information generating apparatus, information processing apparatus, and imaging system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120510

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120906

R150 Certificate of patent or registration of utility model

Ref document number: 5086120

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150914

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees