JP2011216076A - Image processor, image processing method, and image display device - Google Patents
Image processor, image processing method, and image display device Download PDFInfo
- Publication number
- JP2011216076A JP2011216076A JP2011024192A JP2011024192A JP2011216076A JP 2011216076 A JP2011216076 A JP 2011216076A JP 2011024192 A JP2011024192 A JP 2011024192A JP 2011024192 A JP2011024192 A JP 2011024192A JP 2011216076 A JP2011216076 A JP 2011216076A
- Authority
- JP
- Japan
- Prior art keywords
- depth
- image
- information
- depth information
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
Description
本開示は、画像処理装置、画像処理方法および画像表示装置に関する。 The present disclosure relates to an image processing device, an image processing method, and an image display device.
2次元画像(静止画像、動画像を含む)を元に画面内の奥行き情報を推定し、推定された奥行き情報に従って視差画像を生成する技術がある。 There is a technique for estimating depth information in a screen based on a two-dimensional image (including a still image and a moving image) and generating a parallax image according to the estimated depth information.
画像の高域成分に応じて複数の画面全体の奥行きを表したモデルをブレンドし、ブレンドされた奥行きモデルに画像の色信号の1つである赤信号を加算して最終的な奥行きを求める方法が開示されている(例えば、特許文献1)。また、3つの方法で画面全体の奥行きを推定し、推定された3つの奥行きを重み付き平均して最終的な奥行きを求める方法が開示されている(例えば、非特許文献1)。 A method of blending models representing the depth of the entire screen according to the high frequency components of the image, and adding the red signal that is one of the color signals of the image to the blended depth model to obtain the final depth Is disclosed (for example, Patent Document 1). Further, a method is disclosed in which the depth of the entire screen is estimated by three methods, and the final depth is obtained by weighted averaging of the three estimated depths (for example, Non-Patent Document 1).
複数の手法によって求められた画面内の奥行き分布による立体感を保持しつつ、オブジェクトの凹凸を表現する視差画像を生成するために用いられる奥行き情報を生成することを目的とする。 An object of the present invention is to generate depth information used to generate a parallax image representing the unevenness of an object while maintaining a stereoscopic effect due to the depth distribution in the screen obtained by a plurality of methods.
上記課題を解決するために本発明の一態様に係る視差画像生成装置は、第1奥行き算出部と、第2奥行き算出部と、第3合成部とを備える。第1奥行き算出部は、特定の画素値パターンに応じて分布情報を推定する第1推定部と、前記第1画像の動きに基づいて分布情報を推定する第2推定部と、前記第1および第2の推定部により推定された分布情報を合成して第1奥行き情報を生成する第1合成部と、を有する。第2奥行き算出部は、前記第1画像内のオブジェクト毎の相対的な凹凸を示す第2奥行き情報を生成する。第3合成部は、前記第1奥行き情報と、前記第2奥行き情報とを前記第1合成部とは異なる方法で合成して第3奥行き情報を生成する。 In order to solve the above problem, a parallax image generation device according to an aspect of the present invention includes a first depth calculation unit, a second depth calculation unit, and a third synthesis unit. A first depth calculating unit configured to estimate distribution information according to a specific pixel value pattern; a second estimating unit configured to estimate distribution information based on a motion of the first image; and A first combining unit that combines the distribution information estimated by the second estimating unit to generate first depth information. The second depth calculation unit generates second depth information indicating relative unevenness for each object in the first image. The third synthesis unit generates the third depth information by synthesizing the first depth information and the second depth information by a method different from that of the first synthesis unit.
以下、図面を参照しながら本発明の各実施形態について詳細に説明する。なお、以下の実施形態中では、同一の番号を付した部分については同様の動作を行うものとして、重ねての説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Note that, in the following embodiments, the same numbered portions are assumed to perform the same operation, and repeated description is omitted.
(第1の実施形態)
本実施形態は、2次元画像(静止画像、動画像を含む)である第1画像から、相互に視差のある少なくとも1枚の視差画像を生成する装置に関する。なお、以下の実施形態では、視差画像を2枚生成する方法について例示するが、これに限られるものではない。例えば、裸眼で立体視させる等の用途の場合には、視点数に対応する数の視差画像を生成しても構わない。
(First embodiment)
The present embodiment relates to an apparatus that generates at least one parallax image having parallax from a first image that is a two-dimensional image (including a still image and a moving image). In the following embodiment, a method for generating two parallax images is illustrated, but the present invention is not limited to this. For example, in the case of applications such as stereoscopic viewing with the naked eye, the number of parallax images corresponding to the number of viewpoints may be generated.
図1(a)は、本実施形態の視差画像生成装置を示す図である。視差画像生成装置は、第1奥行き算出部100と、第2奥行き算出部200と、合成部300、生成部400とを備える。
第1奥行き算出部101は、N(N≧2)個以上の推定部101(1)〜101(N)と、合成部103とを備える。
推定部101(1)〜101(N)は、それぞれに異なる方法で、推定部101(1)〜101(N)毎に3次元空間における再現範囲における第1画像内の奥行きの分布を示す分布情報を推定する。
合成部103は、推定部101(1)〜101(N)が推定した複数の分布情報を合成して第1奥行き情報を求める。
第2奥行き算出部200は、第1画像内のオブジェクト領域内での相対的な凹凸を示す第2奥行き情報を求める。オブジェクト領域とは、第1画面内でオブジェクトが存在する領域を示す。
FIG. 1A is a diagram illustrating a parallax image generation device according to the present embodiment. The parallax image generation device includes a first depth calculation unit 100, a second depth calculation unit 200, a synthesis unit 300, and a generation unit 400.
The first depth calculation unit 101 includes N (N ≧ 2) or more estimation units 101 (1) to 101 (N) and a synthesis unit 103.
The estimation units 101 (1) to 101 (N) are distributions indicating the distribution of the depth in the first image in the reproduction range in the three-dimensional space for each of the estimation units 101 (1) to 101 (N) by different methods. Estimate information.
The synthesizing unit 103 obtains first depth information by synthesizing a plurality of distribution information estimated by the estimating units 101 (1) to 101 (N).
The second depth calculation unit 200 obtains second depth information indicating relative unevenness in the object region in the first image. The object area indicates an area where an object exists in the first screen.
分布情報は、画面全体での奥行き再現範囲内での絶対的な奥行きを示すのに対して、凹凸情報はオブジェクト内での相対的な奥行きの関係を示すものである。つまり、分布情報が再現する奥行きの範囲は、再現範囲内であればいずれでもいいのに対し、凹凸情報が再現する奥行きの範囲は再現範囲に比べ狭い範囲となる。 The distribution information indicates an absolute depth within the depth reproduction range of the entire screen, while the unevenness information indicates a relative depth relationship within the object. In other words, the depth range in which the distribution information is reproduced may be any as long as it is within the reproduction range, whereas the depth range in which the unevenness information is reproduced is narrower than the reproduction range.
合成部300は、第1奥行き情報と、第2奥行き情報とを合成して第3奥行き情報を求める。なお、合成部300は、合成部103とは異なる方法で奥行きを合成する。詳細については後述する。
生成部400は、第3奥行き情報と、第1画像とに基づいて、視差画像を生成する。奥行きから視差画像を生成する手法は既存の如何なる手法であっても構わない。
The synthesizing unit 300 synthesizes the first depth information and the second depth information to obtain third depth information. Note that the synthesis unit 300 synthesizes the depth by a method different from that of the synthesis unit 103. Details will be described later.
The generation unit 400 generates a parallax image based on the third depth information and the first image. Any existing method may be used as the method for generating the parallax image from the depth.
図1(b)は、本実施形態の視差画像生成装置の変形例を示す図である。第2奥行き算出部200が、第2奥行き算出部201は、M(M≧2)個以上の推定部201(1)〜201(M)と、合成部203とを備える点が、図1(a)の例とは異なる。
推定部201(m)は、第1画像内の、対象とするオブジェクトを検出し、検出されたオブジェクト毎に検出されたオブジェクトの種類に応じた凹凸情報を推定する(1≦m≦M)。また、推定部201(1)〜201(M)は共通のオブジェクトをM種類の手法で検出し、検出されたオブジェクトの凹凸情報を同じ方法で推定するものであっても構わない。また、推定部201(1)〜201(M)は共通のオブジェクトを共通の手法で検出し、検出されたオブジェクトの凹凸情報をM種類の手法で推定するものであってもよい。
FIG. 1B is a diagram illustrating a modification of the parallax image generation device according to the present embodiment. The second depth calculation unit 200 is different from the second depth calculation unit 201 in that it includes M (M ≧ 2) or more estimation units 201 (1) to 201 (M) and a synthesis unit 203 (see FIG. 1). It is different from the example of a).
The estimation unit 201 (m) detects a target object in the first image, and estimates unevenness information according to the type of the detected object for each detected object (1 ≦ m ≦ M). Further, the estimation units 201 (1) to 201 (M) may detect a common object by M types of methods and estimate unevenness information of the detected object by the same method. In addition, the estimation units 201 (1) to 201 (M) may detect a common object by a common method and estimate unevenness information of the detected object by M types of methods.
合成部203は、推定部201(1)〜201(M)が推定した複数の凹凸情報を合成する。 The synthesizing unit 203 synthesizes the plurality of unevenness information estimated by the estimating units 201 (1) to 201 (M).
次に、本実施形態の視差画像生成装置の動作を説明するが、簡便のために図1(b)の例について述べる。
図2は、本実施形態の視差画像生成装置の動作を示す図である。以下の各ステップで生成する視差画像によって再現する3次元空間における奥行きの再現範囲を0≦z≦Zとする。ここでzは奥行き情報を表す。z=0が再現範囲内で最も手前側(奥行きが小さい)を表し、z=Zが再現範囲内で最も奥側(奥行きが大きい)を表す。
Next, the operation of the parallax image generation device according to the present embodiment will be described, but the example of FIG.
FIG. 2 is a diagram illustrating an operation of the parallax image generating device according to the present embodiment. A depth reproduction range in a three-dimensional space reproduced by a parallax image generated in each of the following steps is 0 ≦ z ≦ Z. Here, z represents depth information. z = 0 represents the foremost side (the depth is small) within the reproduction range, and z = Z represents the farthest side (the depth is large) within the reproduction range.
推定部101(1)〜101(N)は、それぞれに異なる方法で、推定部101(1)〜101(N)毎に3次元空間における再現範囲における第1画像内の奥行きの分布を示す分布情報を推定する(S21(1)〜(N))。なお、S21(n)では推定部101(n)が分布情報を推定する(1≦n≦N)。分布情報を推定する方法としては、あらかじめ定められた奥行きモデルを用意しておき、第1画像に応じてそれらを適宜用いる方法でもよい。 The estimation units 101 (1) to 101 (N) are distributions indicating the distribution of the depth in the first image in the reproduction range in the three-dimensional space for each of the estimation units 101 (1) to 101 (N) by different methods. Information is estimated (S21 (1) to (N)). In S21 (n), the estimation unit 101 (n) estimates distribution information (1 ≦ n ≦ N). As a method of estimating the distribution information, a method of preparing a predetermined depth model and appropriately using them according to the first image may be used.
図3(a)は、分布情報の奥行きモデルの例を示す図である。x軸、y軸は画像内の位置を示す。また、白でハッチングされた領域は奥行きが奥側であることを示し、黒に近づく程に奥行きが手前側となっていることを示す。また、第1画像と、第1画像とは異なる時間に表示すべき第2の画像との間の動きを検出し、検出された動きに基づいて分布情報を推定する方法でもよい。また、特定の画素値パターンに応じて分布情報を推定する方法でも良い。S21(n)における分布情報の推定手法は、第1画像の画面全体での奥行きの分布情報を推定することが出来るものであればいずれの方法でもよい。ここでn番目(1≦n≦N)のS21(n)によって推定された分布情報における、画素位置(x,y)での奥行きznを以下のように定義する。なお、0≦zn(x,y)≦Zである。
合成部103は、推定部101(1)〜101(N)が推定した複数の分布情報を合成して第1奥行き情報を求める(S22)。奥行き合成ステップでは、N個の奥行き情報を合成して、一つの第1奥行き情報を求める。コンピュータグラフィックスでは二つの奥行きを合成する場合には、カメラに近いものを選択して合成する。これは光線追跡の考え方に基づいたもので、目に入る光は最終的に遮蔽されなかったものである、という原理に基づいている。ここでも同様に手前側の奥行きを選択して合成する。奥行きの値が小さい程、手前側を表すため、次式のように最小値を選択することにより第1奥行き情報を求める。
zc(x,y)=min{z1(x,y),・・・,zN(x,y)}
ここでzc(x,y)は画素位置(x,y)における第1奥行き情報である。また、min{a,b,c…}、{a,b,c…}の中から最小値を選択する操作を意味する。また光線追跡的には好ましくはないが、N個の奥行き情報の平均によって、第1奥行き情報を求めても良い。
FIG. 3A is a diagram illustrating an example of a depth model of distribution information. The x axis and the y axis indicate positions in the image. Moreover, the area hatched in white indicates that the depth is on the far side, and that the depth is closer to the near side as it approaches black. Moreover, the method of detecting the motion between the 1st image and the 2nd image which should be displayed at the time different from a 1st image, and estimating distribution information based on the detected motion may be used. Also, a method of estimating distribution information according to a specific pixel value pattern may be used. The distribution information estimation method in S21 (n) may be any method as long as it can estimate the depth distribution information in the entire screen of the first image. Here, the depth zn at the pixel position (x, y) in the distribution information estimated by the nth (1 ≦ n ≦ N) S21 (n) is defined as follows. Note that 0 ≦ zn (x, y) ≦ Z.
The synthesizing unit 103 synthesizes a plurality of distribution information estimated by the estimating units 101 (1) to 101 (N) to obtain first depth information (S22). In the depth synthesis step, N pieces of depth information are synthesized to obtain one first depth information. In computer graphics, when combining two depths, the one close to the camera is selected and combined. This is based on the concept of ray tracing, and is based on the principle that the light entering the eye is not finally shielded. Here too, the depth on the near side is selected and synthesized in the same manner. The smaller the depth value, the closer to the front, the first depth information is obtained by selecting the minimum value as in the following equation.
zc (x, y) = min {z1 (x, y),..., zN (x, y)}
Here, zc (x, y) is the first depth information at the pixel position (x, y). Further, it means an operation of selecting a minimum value from min {a, b, c ...} and {a, b, c ...}. Although not preferable in terms of ray tracing, the first depth information may be obtained by averaging N pieces of depth information.
推定部201(1)〜(M)は、第1画像内の、対象とするオブジェクトを検出し、検出されたオブジェクト毎に検出されたオブジェクトの種類に応じた凹凸情報を推定する(S23(1)〜S23(M))。なお、S23(m)では推定部201(m)が凹凸情報を推定する(1≦m≦M)。推定部201は、第1画像内で検出対象のオブジェクトを検出する。検出されたオブジェクトの種類に応じてあらかじめ定めてあった相対的な凹凸モデルをオブジェクト領域内に割り当てることで第2奥行き情報を算出する。なお、本実施形態では第1画像中に存在する顔の位置と大きさを検出し、検出された位置にあらかじめ定めておいた相対的な奥行きモデルを割り当てる手法について例示する。こうすることによって、オブジェクトの領域に適切な凹凸を設定することができる。 The estimation units 201 (1) to (M) detect a target object in the first image, and estimate unevenness information according to the type of the detected object for each detected object (S23 (1) ) To S23 (M)). In S23 (m), the estimation unit 201 (m) estimates unevenness information (1 ≦ m ≦ M). The estimation unit 201 detects an object to be detected in the first image. The second depth information is calculated by assigning a relative unevenness model determined in advance according to the type of the detected object in the object region. In the present embodiment, a method of detecting the position and size of a face existing in the first image and assigning a predetermined relative depth model to the detected position will be exemplified. By doing so, it is possible to set appropriate unevenness in the object region.
図3(b)は、顔及び胴のモデルの例を示す図である。x軸、y軸は画像内の位置を示す。また、白でハッチングされた領域は奥行きが奥側であることを示し、黒に近づく程に奥行きが手前側となっていることを示す。また顔だけでなく、のオブジェクトを検出してそれらに応じた奥行きモデルを割り当ててもよい。なお、検出するオブジェクトは顔によらず、例えば人物、動物、車等であっても構わない。本実施形態では、顔以外に車を検出する例について述べる。 FIG. 3B is a diagram illustrating an example of a face and torso model. The x axis and the y axis indicate positions in the image. Moreover, the area hatched in white indicates that the depth is on the far side, and that the depth is closer to the near side as it approaches black. Further, not only the face but also objects may be detected and a depth model corresponding to them may be assigned. Note that the object to be detected may be, for example, a person, an animal, a car, etc., regardless of the face. In this embodiment, an example of detecting a vehicle other than a face will be described.
ここでS23(m)によって推定された画素位置(x,y)における凹凸情報を以下のように定義する。−Zr≦rm(x,y)≦Zrここでrm(x,y)=0が相対的な凹凸がない状態であり、−Zrがオブジェクト領域内で相対的に手前側に凸な状態、Zrが相対的に奥側に凹な状態とする。ここでZrは検出されたオブジェクトの大きさに基づいて決定することができる。例えば大きなオブジェクトほど相対的な奥行きも大きく見えるため、Zrを大きくし、小さなオブジェクトはZrを小さくするなどである。またオブジェクトの位置における第1奥行き情報に基づいてZrを決定しても良い。第1奥行き情報が手前を示している場合にはZrを大きくし、第1奥行き情報が奥のものはZrを小さくする。 Here, the unevenness information at the pixel position (x, y) estimated by S23 (m) is defined as follows. −Zr ≦ rm (x, y) ≦ Zr where rm (x, y) = 0 is a state in which there is no relative unevenness, and −Zr is a state in which the object region is relatively convex toward the near side, Zr Is relatively concave on the back side. Here, Zr can be determined based on the size of the detected object. For example, since the relative depth of a larger object looks larger, Zr is increased, and a smaller object is decreased. Alternatively, Zr may be determined based on the first depth information at the position of the object. When the first depth information indicates the near side, Zr is increased, and when the first depth information is the back, Zr is decreased.
合成部203は、推定部201(1)〜201(M)が推定した複数の凹凸情報を合成して第2奥行き情報を求める(S24)。コンピュータグラフィックスでは二つの奥行きを合成する場合には、カメラに近いものを選択して合成する。これは光線追跡の考え方に基づいたもので、目に入る光は最終的に遮蔽されなかったものである、という原理に基づいている。S24でも、S22と同様に手前側の奥行きを選択して合成する。奥行き情報は小さい値が手前側を表すため、以下のように最小値を選択することにより達成できる。rc(x,y)=min{r1(x,y),・・・,rM(x,y)}ここでrc(x,y)は画素位置(x,y)における第2奥行き情報である。また光線追跡的には正しくはないが、M個の凹凸情報の平均を用いても良い。 The synthesizing unit 203 synthesizes a plurality of unevenness information estimated by the estimating units 201 (1) to 201 (M) to obtain second depth information (S24). In computer graphics, when combining two depths, the one close to the camera is selected and combined. This is based on the concept of ray tracing, and is based on the principle that the light entering the eye is not finally shielded. Also in S24, the depth on the near side is selected and combined as in S22. The depth information can be achieved by selecting the minimum value as follows because a small value represents the near side. rc (x, y) = min {r1 (x, y),..., rM (x, y)} where rc (x, y) is the second depth information at the pixel position (x, y). . Although not correct in terms of ray tracing, an average of M unevenness information may be used.
また第1奥行き情報に基づいて凹凸情報の合成をしても良い。凹凸情報を与えているそれぞれのオブジェクトの重心位置における第1奥行き情報を重心奥行き情報とすると、オブジェクト間(例えば、人と車等)で重なり合いが発生している領域において、重心奥行き情報が最も手前になる凹凸情報を選択するようにしても良い。 Further, the unevenness information may be synthesized based on the first depth information. If the first depth information at the centroid position of each object giving unevenness information is the centroid depth information, the centroid depth information is the foremost in the region where the overlap occurs between the objects (for example, a person and a car). You may make it select the uneven | corrugated information which becomes.
合成部300は、第1奥行き情報と、第2奥行き情報とを合成して第3奥行き情報を求める(S24)。なお、合成部300は、合成部103及び合成部203とは異なる方法で奥行きを合成する。 The synthesizer 300 synthesizes the first depth information and the second depth information to obtain third depth information (S24). Note that the synthesis unit 300 synthesizes the depth by a method different from that of the synthesis unit 103 and the synthesis unit 203.
第1画像内の奥行きの絶対的な分布を示す第1奥行き情報に、オブジェクト領域内での相対的な凹凸を付加して奥行きを表現するために、第1奥行き情報と第2奥行き情報を加算することで第3奥行き情報を求める。
zf(x,y)=zc(x,y)+rc(x,y)
ここでzf(x,y)は画素位置(x,y)における第3奥行き情報である。また加算ではなく乗算でも構わない。zf(x,y)=zc(x,y)・rc(x,y)
第1奥行き情報と第2奥行き情報を合成したことにより再現したい3次元空間における奥行きの再現範囲0≦z≦Zを逸脱してしまうことがあり得る。そこで再現範囲内に収まるように第3奥行き情報を調節することが好ましい。
生成部400は、第3奥行き情報と、第1画像とに基づいて、視差画像を生成する(S25)。まずは第3奥行き情報から視差ベクトルを算出する。以下、視差画像の生成方法の一例について詳述する。
The first depth information and the second depth information are added to express the depth by adding relative unevenness in the object area to the first depth information indicating the absolute distribution of the depth in the first image. Thus, the third depth information is obtained.
zf (x, y) = zc (x, y) + rc (x, y)
Here, zf (x, y) is the third depth information at the pixel position (x, y). Further, multiplication may be used instead of addition. zf (x, y) = zc (x, y) · rc (x, y)
By combining the first depth information and the second depth information, the depth reproduction range 0 ≦ z ≦ Z in the three-dimensional space to be reproduced may be deviated. Therefore, it is preferable to adjust the third depth information so as to be within the reproduction range.
The generation unit 400 generates a parallax image based on the third depth information and the first image (S25). First, a disparity vector is calculated from the third depth information. Hereinafter, an example of a method for generating a parallax image will be described in detail.
図4は、奥行き情報から視差ベクトルを算出する方法を説明する図である。右目・左目・物体を結ぶ三角形と、画面上での右視差・左視差・物体、二つの三角形の相似性を利用して、視差ベクトルが算出できる。ここでzfは最終的な奥行き情報、d[cm]は視差ベクトルの大きさ、b[cm]は眼間距離、zs[cm]は画面までの距離、z0[cm]、実空間での奥行きの距離Lz[cm]を示す。 FIG. 4 is a diagram illustrating a method for calculating a disparity vector from depth information. A disparity vector can be calculated using the triangle connecting the right eye, the left eye, and the object, and the right disparity / left disparity / object on the screen and the similarity of the two triangles. Here, zf is the final depth information, d [cm] is the magnitude of the parallax vector, b [cm] is the interocular distance, zs [cm] is the distance to the screen, z0 [cm], and the depth in real space Distance Lz [cm].
画素サイズから実空間[cm]への変換を以下に従い行う。
dpixel=(画面解像度[pixel]/画面サイズ[cm])・d[cm]
奥行き情報zfは0〜Zの範囲であり(0〜1でも良い)、0が手前、Zが奥を表しているとする。しかしこの値は、仮想的なものであり実際の距離に換算する必要がある。実空間での距離Lzを用いて奥行き情報から実空間の距離へ変換する。奥行きから実空間へは、以下の変換式によって変換する。γ=Lz/zmax[cm]ここでzmax=Zである。すると画面から対象物までの距離z’は以下のようになる。z’=γzf−z0
三角形の相似性から以下の関係が成り立つ。
d:b=(z’):(zs+z’) ・・・式(1)
d(zs+z’)=bz’ ・・・式(2)
z={(b−d)z0+dzs}/{γ(b−d)} ・・・式(3)
Conversion from pixel size to real space [cm] is performed as follows.
dpixel = (screen resolution [pixel] / screen size [cm]) · d [cm]
The depth information zf is in the range of 0 to Z (may be 0 to 1), where 0 represents the near side and Z represents the back. However, this value is virtual and needs to be converted into an actual distance. The depth information is converted into the real space distance using the real space distance Lz. Conversion from depth to real space is performed using the following conversion formula. γ = Lz / zmax [cm] where zmax = Z. Then, the distance z ′ from the screen to the object is as follows. z ′ = γzf−z0
The following relationship holds from the similarity of triangles.
d: b = (z ′): (zs + z ′) Formula (1)
d (zs + z ′) = bz ′ (2)
z = {(b−d) z0 + dzs} / {γ (b−d)} (3)
上記奥行き変換モデルは視差ベクトルと反比例の関係にあるモデルだったが、例えば反比例の関係を部分的な比例関係で近似した関数のモデルでも良い。 The depth conversion model is an inversely proportional model to the disparity vector. However, for example, a model of a function that approximates an inversely proportional relationship by a partial proportional relationship may be used.
立体視のパラメータb,zs,z0,Lzは、提供したい立体視に基づいて任意に決定できる。例えば、実際の画面の位置に従ってzsを決定し、飛び出しを大きくしたい場合にはz0を大きくする。また奥行きの深さはLZによって決定できる。
立体視のパラメータが決まれば、式(1)〜(3)を変形した以下の奥行き視差ベクトル変換モデルに従って、奥行き情報から視差ベクトルを算出できる。dの単位は[cm]
d:b=(z’):(zs+z’)
d=b{z’/(zs+z’)}
Stereoscopic parameters b, zs, z0, and Lz can be arbitrarily determined based on the stereoscopic vision desired to be provided. For example, zs is determined according to the actual screen position, and z0 is increased when it is desired to increase the pop-out. The depth can be determined by LZ.
If the stereoscopic parameter is determined, the disparity vector can be calculated from the depth information according to the following depth disparity vector conversion model obtained by modifying Expressions (1) to (3). The unit of d is [cm]
d: b = (z ′): (zs + z ′)
d = b {z ′ / (zs + z ′)}
図5は、算出された視差ベクトルから、視差画像を生成する方法を説明する図である。第1画像は左目・右目の中間の視点から得られたものだとすると、左視差画像と右視差画像は視差ベクトルdに−1/2,1/2を乗じた視差ベクトルdL,dRから生成できる。
dL=(−1/2)d、 dR=(1/2)d
FIG. 5 is a diagram illustrating a method of generating a parallax image from the calculated parallax vector. If the first image is obtained from an intermediate viewpoint between the left eye and the right eye, the left parallax image and the right parallax image can be generated from parallax vectors dL and dR obtained by multiplying the parallax vector d by -1/2 and 1/2.
dL = (− 1/2) d, dR = (1/2) d
左視差画像は、第1画像の画素値It(x,y)をdLに従って移動させることにより生成できる。右視差画像は、第1画像の画素値It(x,y)をdRに従って移動させることにより生成できる。単純に移動しただけでは画素値が割り当てられていない領域(以下、穴と記載)が発生してしまう場合がある。そのため、穴には周辺の画素値を割り当てる等すればよい。ここでは2つ視差画像を生成する例について述べたが、多視差の場合も同様に処理すればよい。 The left parallax image can be generated by moving the pixel value It (x, y) of the first image according to dL. The right parallax image can be generated by moving the pixel value It (x, y) of the first image according to dR. A region that is not assigned a pixel value (hereinafter referred to as a hole) may occur by simply moving. Therefore, peripheral pixel values may be assigned to the holes. Although an example of generating two parallax images has been described here, the same processing may be performed for multi-parallax images.
次に、本実施形態の視差画像生成装置による、第3奥行き情報について詳細に説明する。
例えば、部屋の中に人が存在する画像が第1画像の場合を考える。その場合、例えば部屋の奥行きのモデルを当てはめる、動きベクトルを求める等して複数の分布情報を推定し、これらを合成し第1奥行き情報を取得する。また、第1画像内の人を検出して顔の凹凸情報(第2奥行き情報)を推定する。推定された第1奥行き情報と第2奥行き情報を合成する必要がある。しかし凹凸情報の再現範囲は、画面全体の奥行きの分布情報よりも大幅に狭い。従って、第1奥行き情報および第2奥行き情報を、第1奥行き情報及び/又は第2奥行き情報を求める際の合成方法と同様の手法で合成してしまうと、画面内の奥行き分布による立体感を保持しつつ、オブジェクトの凹凸を表現することができない。
Next, the third depth information by the parallax image generating device of the present embodiment will be described in detail.
For example, consider a case where an image in which a person is present in a room is the first image. In that case, for example, a plurality of distribution information is estimated by applying a model of the depth of the room, obtaining a motion vector, and the like, and these are combined to obtain the first depth information. Further, a person in the first image is detected to estimate facial unevenness information (second depth information). It is necessary to synthesize the estimated first depth information and second depth information. However, the reproduction range of the uneven information is significantly narrower than the depth distribution information of the entire screen. Therefore, if the first depth information and the second depth information are synthesized by a method similar to the synthesis method used when obtaining the first depth information and / or the second depth information, a stereoscopic effect due to the depth distribution in the screen is obtained. Unevenness of the object cannot be expressed while holding it.
以下の図6〜図8の横軸は、画素位置を示し、縦軸は、奥行き情報を示す
図6は、奥行き情報の例を示す図である。図6(a)に奥行き情報のテストパターンを示す。なお、図6では0が最も奥側、10が最も手前側を示している。上述した奥行き情報とは奥側と手前側の大小関係が逆転している。分布情報1、分布情報2は、それぞれ推定部101(n)が求めた分布情報の例を示す。凹凸情報1、凹凸情報2は、推定部201(m)が求めた凹凸情報の例を示す。
6 to 8 below, the horizontal axis indicates the pixel position, and the vertical axis indicates the depth information.
FIG. 6 is a diagram illustrating an example of depth information. FIG. 6A shows a test pattern for depth information. In FIG. 6, 0 indicates the farthest side, and 10 indicates the foremost side. The depth information described above reverses the magnitude relationship between the back side and the near side. Distribution information 1 and distribution information 2 show examples of distribution information obtained by the estimation unit 101 (n), respectively. The unevenness information 1 and the unevenness information 2 indicate examples of unevenness information obtained by the estimation unit 201 (m).
図6(b)は、図6(a)のテストパターンの分布情報1、分布情報2、凹凸情報1、凹凸情報2の平均を取ったものと、図6(a)のテストパターンのうち同位置で最大値を選択して合成したものを示す。平均を取った場合には分布情報が示す奥行きのダイナミックレンジが圧縮されてしまい、凹凸情報は全体に埋もれてしまっている。それに対して最大値を取った場合には、部屋全体の奥行きのダイナミックレンジは保持されるが、顔の奥行きは完全に埋もれてしまっている。これは、画面全体での絶対的な奥行きの分布情報と、オブジェクト内での相対的な奥行きの凹凸情報を一緒に合成したことが原因である。「絶対的」は、奥行き再現範囲0≦z≦Zに対して絶対的な奥行きを意味する。「相対的」は、画面内での局所的なオブジェクト領域内での相対的な奥行きを意味する。相対的な奥行き情報の再現範囲は絶対的な奥行き情報の再現範囲とは異なる。そのため絶対的な奥行き情報と相対的な奥行き情報を同じ手法で合成しようとすると、相互の持っている値の意味が異なるために合成が失敗してしまう。 FIG. 6B shows an average of the distribution information 1, distribution information 2, unevenness information 1, and unevenness information 2 of the test pattern of FIG. This shows the result of selecting the maximum value by position and compositing. When the average is taken, the dynamic range of the depth indicated by the distribution information is compressed, and the unevenness information is buried in the whole. On the other hand, when the maximum value is taken, the dynamic range of the depth of the entire room is maintained, but the depth of the face is completely buried. This is because the absolute depth distribution information in the entire screen and the uneven depth information in the object are combined together. “Absolute” means an absolute depth with respect to the depth reproduction range 0 ≦ z ≦ Z. “Relative” means a relative depth in a local object area on the screen. The reproduction range of relative depth information is different from the reproduction range of absolute depth information. Therefore, if the absolute depth information and the relative depth information are combined by the same method, the combination fails because the meanings of the mutual values are different.
図7(a)は、図6(a)に示す奥行き情報のテストパターンから、分布情報1及び分布情報2を合成した第1奥行き情報を示す図である。図7(b)は、凹凸情報1及び凹凸情報2から合成した第2奥行き情報の例を示す図である。合成方法は、第1奥行き情報および第2奥行き情報共に同位置で奥行きが最も手前側の奥行き情報を選択して合成したものを示す。 FIG. 7A is a diagram illustrating first depth information obtained by combining the distribution information 1 and the distribution information 2 from the depth information test pattern illustrated in FIG. FIG. 7B is a diagram illustrating an example of the second depth information synthesized from the unevenness information 1 and the unevenness information 2. The combining method indicates that the first depth information and the second depth information are combined by selecting depth information having the closest depth at the same position.
図8は、図7で示した第1奥行き情報および第2奥行き情報を合成した第3奥行き情報を示す。第3奥行き情報は、第1奥行き情報と第2奥行き情報とを加算して合成した。
第1奥行き情報および第2奥行き情報を求める際の合成方法と、第1奥行き情報と第2奥行き情報を合成する際の合成方法とで異なる方法を用いることで、複数の手法によって求められた画面内の奥行き分布による立体感を保持しつつ、オブジェクトの凹凸を表現する視差画像の生成をすることが出来る。
FIG. 8 shows third depth information obtained by combining the first depth information and the second depth information shown in FIG. The third depth information was synthesized by adding the first depth information and the second depth information.
Screens obtained by a plurality of methods by using different methods for the synthesis method for obtaining the first depth information and the second depth information and the synthesis method for synthesizing the first depth information and the second depth information. It is possible to generate a parallax image that expresses the unevenness of the object while maintaining the stereoscopic effect due to the depth distribution.
(第2の実施形態)
図9は、本実施形態の視差画像生成装置を示す図である。本実施形態の視差画像生成装置は、図1(b)の視差画像生成装置に対して、奥行き情報を調節する機能を備える点が異なる。
(Second Embodiment)
FIG. 9 is a diagram illustrating the parallax image generating device of the present embodiment. The parallax image generation device of this embodiment is different from the parallax image generation device of FIG. 1B in that it has a function of adjusting depth information.
調整部102(n)は、推定部101(n)が推定した分布情報を調節する。例えば、推定部101(1)では0≦z≦Zの範囲の分布情報を推定するが、推定部101(2)では100≦z≦Zの範囲の値を出力するといったように、出力される奥行き情報の範囲が異なる場合に、それらを調節して同じ範囲にする必要がある。そのため、調整部102(n)は、例えば奥行き情報の一点(以下、固定点と記載)を固定して(例えばZ)奥行き範囲の幅を広くしたり狭くしたり、といった調節をする。また、ある推定部101(n)信頼性が低い場合には、奥行き範囲を奥側に狭める調節を行い、信頼性の低い奥行き情報の影響を少なくすることもできる。 The adjustment unit 102 (n) adjusts the distribution information estimated by the estimation unit 101 (n). For example, the estimation unit 101 (1) estimates the distribution information in the range of 0 ≦ z ≦ Z, but the estimation unit 101 (2) outputs the value in the range of 100 ≦ z ≦ Z. If the depth information ranges are different, they need to be adjusted to the same range. Therefore, the adjustment unit 102 (n) adjusts, for example, by fixing one point of depth information (hereinafter referred to as a fixed point) (for example, Z) to widen or narrow the depth range. In addition, when the reliability of a certain estimation unit 101 (n) is low, it is possible to reduce the influence of depth information with low reliability by adjusting the depth range to the back side.
調整部202(m)は、推定部201(m)が推定した第2奥行き情報を調節する。調整の仕方は、調整部102(n)と同様の手法であって良い。奥行き情報調節ステップと同様に調節を行うことができる。なお、固定点を0にすることにより相対的な凹凸情報の特性を有効に活用することができる。 The adjustment unit 202 (m) adjusts the second depth information estimated by the estimation unit 201 (m). The method of adjustment may be the same method as that of the adjustment unit 102 (n). Adjustment can be performed in the same manner as the depth information adjustment step. In addition, the characteristic of relative uneven | corrugated information can be effectively utilized by making a fixed point into 0.
第1奥行き算出部100、推定部101(n)、調整部102(n)、調整部202(m)、第2奥行き算出部200、合成部300、生成部400 First depth calculation unit 100, estimation unit 101 (n), adjustment unit 102 (n), adjustment unit 202 (m), second depth calculation unit 200, synthesis unit 300, and generation unit 400
Claims (21)
前記第1画像内のオブジェクト毎の相対的な凹凸を示す第2奥行き情報を生成する第2奥行き算出部と、
前記第1奥行き情報と、前記第2奥行き情報とを前記第1合成部とは異なる方法で合成して第3奥行き情報を生成する第3合成部と、
を備えることを特徴とする画像処理装置。 Estimated by a first estimation unit that estimates distribution information according to a specific pixel value pattern, a second estimation unit that estimates distribution information based on the motion of the first image, and the first and second estimation units. A first depth calculating unit comprising: a first combining unit that combines the distribution information to generate first depth information;
A second depth calculation unit that generates second depth information indicating relative unevenness of each object in the first image;
A third combining unit that combines the first depth information and the second depth information by a method different from the first combining unit to generate third depth information;
An image processing apparatus comprising:
前記第1推定部により推定された分布情報を調整する第1調整部と、
前記第2推定部により推定された分布情報を調整する第2調整部と、を有することを特徴とする請求項1乃至9のいずれかに記載の画像処理装置。 The first depth calculator is
A first adjustment unit that adjusts the distribution information estimated by the first estimation unit;
The image processing apparatus according to claim 1, further comprising: a second adjustment unit that adjusts the distribution information estimated by the second estimation unit.
特定の画素値パターンに応じて分布情報を推定する第1推定部と、前記第1画像の動きに基づいて分布情報を推定する第2推定部と、前記第1および第2の推定部により推定された分布情報を合成して第1奥行き情報を生成する第1合成部と、を有する第1奥行き算出部と、
前記第1画像内のオブジェクト毎の相対的な凹凸を示す第2奥行き情報を生成する第2奥行き算出部と、
前記第1奥行き情報と、前記第2奥行き情報とを前記第1合成部とは異なる方法で合成して第3奥行き情報を生成する第3合成部と、
前記第3奥行き情報と、前記第1画像とに基づいて、前記視差画像を生成する生成部と、
前記生成された視差画像を表示する表示部と、を備えることを特徴とする画像表示装置。 An image display device that generates at least one parallax image having parallax with each other using a first image and displays the generated parallax image,
Estimated by a first estimation unit that estimates distribution information according to a specific pixel value pattern, a second estimation unit that estimates distribution information based on the motion of the first image, and the first and second estimation units A first synthesis unit that synthesizes the distributed information to generate first depth information;
A second depth calculation unit that generates second depth information indicating relative unevenness of each object in the first image;
A third combining unit that combines the first depth information and the second depth information by a method different from the first combining unit to generate third depth information;
A generating unit configured to generate the parallax image based on the third depth information and the first image;
An image display device comprising: a display unit that displays the generated parallax image.
前記第1推定部により推定された分布情報を調整する第1調整部と、
前記第2推定部により推定された分布情報を調整する第2調整部と、を有することを特徴とする請求項12乃至18のいずれかに記載の画像表示装置。 The first depth calculator is
A first adjustment unit that adjusts the distribution information estimated by the first estimation unit;
The image display device according to claim 12, further comprising: a second adjustment unit that adjusts the distribution information estimated by the second estimation unit.
第1画像の動きに基づいて分布情報を推定するステップと、
前記推定された分布情報を合成して第1奥行き情報を生成するステップと、
前記第1画像内のオブジェクト毎の相対的な凹凸を示す第2奥行き情報を生成するステップと、
前記第1奥行き情報と、前記第2奥行き情報とを前記第1合成部とは異なる方法で合成して第3奥行き情報を生成するステップと、を備えることを特徴とする画像処理方法。 Estimating distribution information according to a specific pixel value pattern;
Estimating distribution information based on movement of the first image;
Combining the estimated distribution information to generate first depth information;
Generating second depth information indicating relative irregularities for each object in the first image;
An image processing method comprising: combining the first depth information and the second depth information by a method different from the first combining unit to generate third depth information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011024192A JP5087684B2 (en) | 2011-02-07 | 2011-02-07 | Image processing apparatus, image processing method, and image display apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011024192A JP5087684B2 (en) | 2011-02-07 | 2011-02-07 | Image processing apparatus, image processing method, and image display apparatus |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010084326A Division JP5227993B2 (en) | 2010-03-31 | 2010-03-31 | Parallax image generation apparatus and method thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011216076A true JP2011216076A (en) | 2011-10-27 |
JP5087684B2 JP5087684B2 (en) | 2012-12-05 |
Family
ID=44945691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011024192A Expired - Fee Related JP5087684B2 (en) | 2011-02-07 | 2011-02-07 | Image processing apparatus, image processing method, and image display apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5087684B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013157671A (en) * | 2012-01-26 | 2013-08-15 | Sony Corp | Image processing device, image processing method, program, terminal device, and image processing system |
JP2014013988A (en) * | 2012-07-04 | 2014-01-23 | National Institute Of Information & Communication Technology | Resampling device and method for depth map, program and resampling system for depth map |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000261828A (en) * | 1999-03-04 | 2000-09-22 | Toshiba Corp | Stereoscopic video image generating method |
JP2001320731A (en) * | 1999-11-26 | 2001-11-16 | Sanyo Electric Co Ltd | Device for converting two-dimensional image into there dimensional image and its method |
JP2004102689A (en) * | 2002-09-10 | 2004-04-02 | Toppan Printing Co Ltd | Display control device |
JP2005151534A (en) * | 2003-09-24 | 2005-06-09 | Victor Co Of Japan Ltd | Pseudo three-dimensional image creation device and method, and pseudo three-dimensional image display system |
JP2006185033A (en) * | 2004-12-27 | 2006-07-13 | Victor Co Of Japan Ltd | Pseudo three-dimensional image generating device, pseudo three-dimensional image generating program, and pseudo three-dimensional image display system |
JP2007219765A (en) * | 2006-02-15 | 2007-08-30 | Toyota Motor Corp | Image processor, method therefor, and imaging processing program |
JP2007264722A (en) * | 2006-03-27 | 2007-10-11 | Victor Co Of Japan Ltd | Image processor |
JP2007299070A (en) * | 2006-04-27 | 2007-11-15 | Toshiba Corp | Face shape model generation apparatus and method |
WO2009008864A1 (en) * | 2007-07-12 | 2009-01-15 | Thomson Licensing | System and method for three-dimensional object reconstruction from two-dimensional images |
-
2011
- 2011-02-07 JP JP2011024192A patent/JP5087684B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000261828A (en) * | 1999-03-04 | 2000-09-22 | Toshiba Corp | Stereoscopic video image generating method |
JP2001320731A (en) * | 1999-11-26 | 2001-11-16 | Sanyo Electric Co Ltd | Device for converting two-dimensional image into there dimensional image and its method |
JP2004102689A (en) * | 2002-09-10 | 2004-04-02 | Toppan Printing Co Ltd | Display control device |
JP2005151534A (en) * | 2003-09-24 | 2005-06-09 | Victor Co Of Japan Ltd | Pseudo three-dimensional image creation device and method, and pseudo three-dimensional image display system |
JP2006185033A (en) * | 2004-12-27 | 2006-07-13 | Victor Co Of Japan Ltd | Pseudo three-dimensional image generating device, pseudo three-dimensional image generating program, and pseudo three-dimensional image display system |
JP2007219765A (en) * | 2006-02-15 | 2007-08-30 | Toyota Motor Corp | Image processor, method therefor, and imaging processing program |
JP2007264722A (en) * | 2006-03-27 | 2007-10-11 | Victor Co Of Japan Ltd | Image processor |
JP2007299070A (en) * | 2006-04-27 | 2007-11-15 | Toshiba Corp | Face shape model generation apparatus and method |
WO2009008864A1 (en) * | 2007-07-12 | 2009-01-15 | Thomson Licensing | System and method for three-dimensional object reconstruction from two-dimensional images |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013157671A (en) * | 2012-01-26 | 2013-08-15 | Sony Corp | Image processing device, image processing method, program, terminal device, and image processing system |
US9317957B2 (en) | 2012-01-26 | 2016-04-19 | Sony Corporation | Enhancement of stereoscopic effect of an image through use of modified depth information |
JP2014013988A (en) * | 2012-07-04 | 2014-01-23 | National Institute Of Information & Communication Technology | Resampling device and method for depth map, program and resampling system for depth map |
Also Published As
Publication number | Publication date |
---|---|
JP5087684B2 (en) | 2012-12-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5227993B2 (en) | Parallax image generation apparatus and method thereof | |
US11010958B2 (en) | Method and system for generating an image of a subject in a scene | |
US20180192033A1 (en) | Multi-view scene flow stitching | |
JP4828506B2 (en) | Virtual viewpoint image generation device, program, and recording medium | |
KR101334187B1 (en) | Apparatus and method for rendering | |
JP5402483B2 (en) | Pseudo stereoscopic image creation device and pseudo stereoscopic image display system | |
CN102395036A (en) | Apparatus and method for providing 3D augmented reality | |
JP2005235211A (en) | Image compositing method of intermediate point in time, and 3d-display device with the method applied | |
JP2013003848A (en) | Virtual object display device | |
WO2012157540A1 (en) | Image processing apparatus, image processing method, and program | |
KR20150121127A (en) | Binocular fixation imaging method and apparatus | |
JP2014203462A (en) | Apparatus and method for forming light field image | |
US8976171B2 (en) | Depth estimation data generating apparatus, depth estimation data generating method, and depth estimation data generating program, and pseudo three-dimensional image generating apparatus, pseudo three-dimensional image generating method, and pseudo three-dimensional image generating program | |
JP5087684B2 (en) | Image processing apparatus, image processing method, and image display apparatus | |
CN110969706B (en) | Augmented reality device, image processing method, system and storage medium thereof | |
JP5304758B2 (en) | Multi-viewpoint image creation apparatus, multi-viewpoint image creation method, and multi-viewpoint image display system | |
JP2013090129A (en) | Image processing apparatus, image processing method and program | |
JP5786807B2 (en) | Depth information generation device, depth information generation method, depth information generation program, pseudo stereoscopic image generation device | |
Song et al. | Real-time depth map generation using hybrid multi-view cameras | |
WO2014130039A1 (en) | Relaying 3d information by depth simulation using 2d pixel displacement | |
EP4030752A1 (en) | Image generation system and method | |
WO2023013130A1 (en) | Information processing device, information processing method, and recording medium | |
JP5627798B2 (en) | Image processing apparatus, image processing method, image processing program, image display apparatus, and image display method | |
JP6056459B2 (en) | Depth estimation data generation apparatus, pseudo stereoscopic image generation apparatus, depth estimation data generation method, and depth estimation data generation program | |
JP2014138306A (en) | Image generation method, image generation device, and image generation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120508 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120529 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120725 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120817 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120910 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150914 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |