JPH0630336A - Picture input device and picture synthesis method - Google Patents

Picture input device and picture synthesis method

Info

Publication number
JPH0630336A
JPH0630336A JP18085292A JP18085292A JPH0630336A JP H0630336 A JPH0630336 A JP H0630336A JP 18085292 A JP18085292 A JP 18085292A JP 18085292 A JP18085292 A JP 18085292A JP H0630336 A JPH0630336 A JP H0630336A
Authority
JP
Japan
Prior art keywords
image
pixel
data
distance
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP18085292A
Other languages
Japanese (ja)
Other versions
JP3193930B2 (en
Inventor
Kiyoshi Maenobu
潔 前信
Nobuhiko Wakayama
順彦 若山
Takahisa Horiuchi
香寿 堀内
Satoshi Nagamine
永峰  聡
Tadashi Kobayashi
忠司 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP18085292A priority Critical patent/JP3193930B2/en
Publication of JPH0630336A publication Critical patent/JPH0630336A/en
Application granted granted Critical
Publication of JP3193930B2 publication Critical patent/JP3193930B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To provide the picture synthesis method and the picture input device to obtain an input picture in which a problem of picture synthesis in a conventional method that one picture is always arranged before or after the other picture is solved and the pictures are synthesized while keeping the preceding and succeeding relation of objects in the pictures. CONSTITUTION:A picture processing section 104 extracts a picture element area corresponding to an object from a picture inputted from an image pickup section 102, a distance measurement section 106 measures a distance up to a point on the object, a distance calculation section 108 calculates the distance of a picture element in a picture element corresponding to the object from measured distance data through interpolation or extrapolation and adds the result to picture element data 103 as depth data 109 and the added data are outputted. Thus, the picture synthesis while comparing the depth with other depth data is implemented and the picture input for the purpose is attained.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は複数の画像を合成する方
法と、その入力画像を得るための画像入力装置に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for synthesizing a plurality of images and an image input device for obtaining the input images.

【0002】[0002]

【従来の技術】従来の画像合成方法の例として、放送な
どの分野で広く用いられているクロマキーと呼ばれる方
法について説明をする。クロマキーの原理については、
例えば、「放送技術双書 カラーテレビジョン」日本放
送協会編(1961年)pp.539〜540に詳しく
示されている。クロマキーは放送における特殊効果技術
の1つであり、基本的にはカメラなどの画像入力装置で
撮影した2つの画像の一方に、もう一方の画像をはめ込
んだ合成画像を作成するための手法である。
2. Description of the Related Art As an example of a conventional image synthesizing method, a method called chroma key which is widely used in the field of broadcasting will be described. For the principle of chroma key,
For example, "Broadcasting Technology Shusho Color Television" edited by Japan Broadcasting Corporation (1961) pp. 539-540. Chroma key is one of the special effect technologies in broadcasting, and is basically a method for creating a composite image in which one of two images taken by an image input device such as a camera is fitted with the other image. .

【0003】クロマキーの原理を用いた、従来の画像合
成方法の例を図6に示す。図6において、601と60
2は合成の対象となる2つの画像、603は画像合成装
置、604は合成された画像である。画像合成装置60
3は入力されてくる2つの画像601と602の信号の
うち、どちらか一方の画像の中の特定の色や信号レベル
をキーとし、キーを検出したときにその部分の信号をも
う一方の画像の信号で置き換え、合成画像を生成する。
FIG. 6 shows an example of a conventional image synthesizing method using the principle of chroma key. In FIG. 6, 601 and 60
Reference numeral 2 is two images to be combined, 603 is an image combining device, and 604 is a combined image. Image synthesizer 60
Reference numeral 3 designates a specific color or signal level in one of the two input images 601 and 602 as a key, and when a key is detected, the signal of that portion is used for the other image. To generate a composite image.

【0004】なお、コンピュータの表示画面上に外部か
ら取り込んだ画像を表示する場合も、このクロマキーの
原理が応用されている。即ち、コンピュータ側の画像デ
ータを格納するフレームバッファ上に、取り込んだ画像
を表示するための領域を指定し、その領域内を予めキー
となる色で塗りつぶしておくことにより、クロマキーと
同様にキーの部分のみを外部から取り込んだ画像に置き
換えて、合成画像を生成する。
Note that the principle of the chroma key is also applied when displaying an image captured from the outside on the display screen of a computer. That is, by specifying the area for displaying the captured image on the frame buffer that stores the image data on the computer side and filling the area in advance with the key color, the key A composite image is generated by replacing only the part with an image captured from the outside.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、従来の
画像合成方法では、合成の対象としている入力画像が奥
行きに関する情報をもっていないため、一方の画像をも
う一方の画像に対して、常に前に配置するか、常に後ろ
に配置するかの、いずれかに見えるような効果をもつよ
うな画像合成しかできなかった。例えば、図7(a)お
よび(b)に示す2つの画像を合成するとき、図7
(a)の手前の建物と後ろの建物の間を、図7(b)の
車が通過していくという図7(c)に示したような、2
つの画像中の物体が互いに入り組んで前後するような画
像を、それらの物体の前後関係を正しく保ちながら合成
することができず、不自然な画像しか得られなかった。
However, in the conventional image synthesizing method, since the input image to be synthesized does not have depth information, one image is always placed in front of the other image. I could only combine images that had the effect of appearing either, or always behind. For example, when synthesizing the two images shown in FIGS.
As shown in FIG. 7 (c), the car in FIG. 7 (b) passes between the front building and the back building in (a).
The images in which the objects in one image are intricately in front of and behind each other cannot be combined while maintaining the front-to-back relationship of those objects, and only an unnatural image is obtained.

【0006】本発明はかかる点に鑑み、入力した画像中
の個々の物体相互間の前後関係を保ちながら合成するよ
うな画像入力装置と画像合成方法を提供することを目的
とする。
In view of the above point, the present invention has an object to provide an image input device and an image synthesizing method for synthesizing while maintaining the front-to-back relationship between individual objects in an input image.

【0007】[0007]

【課題を解決するための手段】前記の課題を解決するた
めに本発明の画像入力装置は、画像を撮像し画像の画素
データを出力する撮像部と、前記撮像部が出力する画像
の画素データから1つまたは複数の被写体の画素領域を
抽出する画像処理部と、前記撮像部から、前記画像処理
部が抽出の対象とする1つまたは複数の被写体毎に指示
された被写体上の1つないし3つの点までの、前記撮像
部の光軸方向に沿った距離を各被写体毎に計測する距離
計測部と、計測された1つないし3つの点に対応する画
素までの距離を必要に応じて内挿または外挿して、各画
素の奥行きを算出し、算出された距離の値を前記画像処
理部が出力する個々の被写体の画素データに付与して出
力し、その他の領域の画素データに対しては予め定めら
れた一定値を奥行きデータとして付与して出力する距離
算出部とを具備する構成である。
In order to solve the above-mentioned problems, an image input apparatus of the present invention comprises an image pickup section for picking up an image and outputting pixel data of the image, and pixel data of the image outputted by the image pickup section. An image processing unit for extracting pixel regions of one or more subjects from the image capturing unit; and one or more on the subject designated by the image capturing unit for each one or more subjects to be extracted by the image processing unit. A distance measuring unit that measures the distance along the optical axis direction of the imaging unit up to three points, and the distances to the pixels corresponding to the measured one to three points as necessary. By interpolating or extrapolating, the depth of each pixel is calculated, and the calculated distance value is added to the pixel data of each subject output by the image processing unit and output, and with respect to the pixel data of other regions. The depth of a predetermined value It is configured to and a distance calculation unit which imparts to the output as data.

【0008】また本発明の画像合成方法は、本発明の画
像入力装置が出力する画像の画素データおよび奥行きデ
ータを少なくとも1つの入力とし、画素毎の画素データ
と奥行きデータをもつ1つまたは複数の画像を別の入力
とし、入力されたすべての画像の対応する画素位置の画
素毎に奥行きデータを比較して最も近い、即ち最も小さ
い奥行きデータをもつ画素を合成後の画像のその画素位
置の画素として出力するものである。
In the image synthesizing method of the present invention, the pixel data and the depth data of the image output by the image input device of the present invention are used as at least one input, and one or a plurality of pixel data and depth data for each pixel are provided. The image is taken as another input, and the depth data is compared for each pixel at the corresponding pixel positions of all the input images, and the pixel that is closest, that is, the pixel with the smallest depth data, is the pixel at that pixel position in the image after synthesis. Is output as.

【0009】[0009]

【作用】本発明は前記の構成により、撮像部が画像を撮
像して画像の画素データを出力し、前記の画像処理部が
前記撮像部が出力する画像の画素データから1つまたは
複数の被写体の画素領域を抽出し、前記距離計測部が、
前記撮像部から、前記画像処理部が抽出の対象とする1
つまたは複数の被写体毎に指示された被写体上の1つな
いし3つの点までの、前記撮像部の光軸方向に沿った距
離を各被写体毎に計測し、計測する点の数に応じて前記
の距離算出部が内挿または外挿によって距離を算出し
て、前記画像処理部が出力する個々の被写体の画素デー
タに奥行きデータを付与して出力することができる。
According to the present invention, according to the above configuration, the image pickup unit picks up an image and outputs pixel data of the image, and the image processing unit outputs one or more objects from the pixel data of the image output by the image pickup unit. Of the pixel area of the
Target of extraction from the image capturing unit by the image processing unit 1
The distance along the optical axis direction of the image pickup unit to one or three points on the subject designated for each one or a plurality of subjects is measured for each subject, and the distance is measured according to the number of points to be measured. The distance calculation unit can calculate the distance by interpolation or extrapolation, add depth data to the pixel data of each subject output by the image processing unit, and output the pixel data.

【0010】また、本発明の画像入力装置が出力する画
像の画素データおよび奥行きデータを少なくとも1つの
入力とし、画素毎の画素データと奥行きデータをもつ1
つまたは複数の画像を別の入力とし、入力されたすべて
の画像の対応する画素位置の画素毎に奥行きデータを比
較して最も近い、即ち最も小さい奥行きデータをもつ画
素を合成後の画像のその画素位置の画素として出力する
ことにより、複数の画像中の個々の物体相互の前後関係
を正しく保存した合成画像を生成することができる。
Further, the pixel data and the depth data of the image output by the image input apparatus of the present invention are used as at least one input, and the pixel data and the depth data for each pixel are stored in the image data.
One or more images are taken as another input, and the depth data is compared for each pixel at the corresponding pixel positions of all the input images, and the closest pixel, that is, the pixel having the smallest depth data is By outputting as the pixel at the pixel position, it is possible to generate a composite image in which the front-back relationships between the individual objects in the plurality of images are correctly preserved.

【0011】[0011]

【実施例】以下、本発明の実施例について図面を用いて
詳細に説明する。
Embodiments of the present invention will be described in detail below with reference to the drawings.

【0012】(実施例1)図1は本発明(請求項1〜
3)の画像入力装置の一実施例を示すブロック図であ
る。図1において、101は画像入力対象となる1つま
たは複数の被写体、102はカメラなどで構成された撮
像部、103は撮像部102で撮像された画像の画素デ
ータ、104は画素データ103から、指示された1つ
または複数の被写体101に相当する画素領域を抽出す
る画像処理部、105はどの画素がどの被写体101の
画素であるか、またはいずれの被写体101にも相当し
ない画素であるかを示す信号、106は抽出対象となる
1つまたは複数の被写体101毎にそれぞれの被写体1
01上の1つないし3つの点までの距離を測定する距離
計測部、107は距離計測部106で計測された距離デ
ータ、108は信号105に従って被写体毎に対応する
奥行きデータを算出し、画素データ103に対応付けて
出力する距離算出部、109は距離算出部108が出力
する奥行きデータである。
(Embodiment 1) FIG. 1 shows the present invention (claims 1 to 1).
It is a block diagram which shows one Example of the image input device of 3). In FIG. 1, 101 is one or more subjects to be image input targets, 102 is an image capturing unit configured by a camera, 103 is pixel data of an image captured by the image capturing unit 102, and 104 is pixel data 103. An image processing unit that extracts a pixel area corresponding to one or more instructed subjects 101, 105 determines which pixel is a pixel of which subject 101, or which pixel is not a subject. The signal 106 indicates a subject 1 for each one or a plurality of subjects 101 to be extracted.
01 is a distance measuring unit that measures the distance to one or three points, 107 is distance data measured by the distance measuring unit 106, 108 is depth data corresponding to each subject according to the signal 105, and pixel data is calculated. A distance calculation unit that is output in association with 103 and 109 is depth data that is output by the distance calculation unit 108.

【0013】図2および図3は、図1に示した本実施例
の画像入力装置の動作を説明するための図であり、図2
は画像入力時における本実施例の画像入力装置と被写体
の例を示す配置図、図3は図2に示した画像入力装置か
ら入力された画像である。なお、図2および図3は後記
の別の実施例の説明においても使用する。
2 and 3 are diagrams for explaining the operation of the image input apparatus of this embodiment shown in FIG.
3 is a layout drawing showing an example of an image input device of this embodiment and an object at the time of image input, and FIG. 3 is an image input from the image input device shown in FIG. 2 and 3 will also be used in the description of another embodiment described later.

【0014】図2において、201は撮像部102を構
成するカメラ、202は距離計測部106を構成する距
離計、203は抽出の対象となる被写体の例の1つであ
る直方体、204は抽出の対象となる別の被写体の例で
ある円柱、205、206、207は被写体203上の
ある3点、208、209、210は被写体204上の
ある3点を示している。なお、被写体の数はこの限りで
はない。
In FIG. 2, 201 is a camera that constitutes the image pickup unit 102, 202 is a rangefinder that constitutes the distance measurement unit 106, 203 is a rectangular parallelepiped which is one example of the subject to be extracted, and 204 is an extracted object. A cylinder, 205, 206, 207, which is an example of another subject as a target, shows three points on the subject 203, and 208, 209, 210 show three points on the subject 204. The number of subjects is not limited to this.

【0015】以下の説明のため、カメラ201の光軸方
向(即ち、レンズ面に垂直な方向)をZ軸、床面に垂直
な方向をY軸、床面に平行な方向をX軸とし、カメラ2
01が原点となるような左手座標系を想定する。
For the following description, the optical axis direction of the camera 201 (that is, the direction perpendicular to the lens surface) is the Z axis, the direction perpendicular to the floor surface is the Y axis, and the direction parallel to the floor surface is the X axis. Camera 2
Assume a left-handed coordinate system whose origin is 01.

【0016】図3において、斜線部301は被写体20
3に相当する画素領域を、横線部302は被写体204
に相当する画素領域を、303は点205に対応する画
素を、304は点206に対応する画素を、305は点
207に対応する画素を、306は点208に対応する
画素を、307は点209に対応する画素を、308は
点210に対応する画素を、309は斜線部301と横
線部302のいずれにも含まれない画素領域を示す。
In FIG. 3, the shaded area 301 is the subject 20.
The horizontal line portion 302 represents the pixel area corresponding to 3
A pixel region corresponding to the pixel region 303, a pixel region corresponding to the point 205, a pixel region 304 corresponding to the point 206, a pixel region 305 corresponding to the point 207, a pixel region 306 corresponding to the point 208, and a pixel region 307. 209 indicates a pixel corresponding to 209, 308 indicates a pixel corresponding to the point 210, and 309 indicates a pixel region which is not included in either the shaded area 301 or the horizontal area 302.

【0017】画像処理部104は図3に示された画像か
ら、各種の特徴量(例えば、色、形状、テクスチャな
ど)を抽出し、被写体203および204のもつ特性と
照合することにより各々の被写体203と204に対応
する画素領域301と302を抽出し、各画素毎にいず
れの被写体203または204に対応する画素である
か、またはいずれの被写体203と204にも対応しな
い画素309であるかを識別する信号105を生成し、
距離算出部108に送る。
The image processing unit 104 extracts various characteristic amounts (for example, color, shape, texture, etc.) from the image shown in FIG. 3 and compares them with the characteristics of the objects 203 and 204 to obtain each object. Pixel regions 301 and 302 corresponding to 203 and 204 are extracted, and for each pixel, it is determined which pixel 203 corresponds to which subject 203 or 204, or which pixel 309 does not correspond to any subject 203 or 204. Generate an identifying signal 105,
It is sent to the distance calculation unit 108.

【0018】以下の画像入力装置の各々において異なる
3モードの動作について説明する。まず、第1のモード
の画像入力装置においては、距離計測部106は距離計
202を用いて被写体203上の1点(ここでは点20
5を例にとる。)および被写体204上の1点(ここで
は点208を例にとる。)までのZ軸に沿った距離を計
測する。距離計202の測距法としては超音波やレーザ
光の反射パルスの応答時間や位相差などを用いる方法が
利用できる。距離算出部108は、距離計測部106か
ら入力された距離データ107と画像処理部104から
入力された賀祖識別信号105に従って、点205まで
の距離を画素領域301に含まれるすべての画素の奥行
きデータ109として、点208までの距離を画素領域
302に含まれるすべての画素の奥行きデータ109と
して出力するとともに、いずれの画素領域301および
302にも含まれない領域の画素309については予め
定められた一定の値(通常は無限遠を示す最大の値)を
奥行きデータ109として出力する。
The operation of three different modes in each of the following image input devices will be described. First, in the image input device in the first mode, the distance measuring unit 106 uses the distance meter 202 to set one point (here, the point 20 on the subject 203).
Take 5 as an example. ) And one point on the subject 204 (here, the point 208 is taken as an example), the distance along the Z-axis is measured. As a distance measuring method of the distance meter 202, a method using response time or phase difference of reflected pulse of ultrasonic wave or laser light can be used. The distance calculation unit 108 determines the distance to the point 205 according to the distance data 107 input from the distance measurement unit 106 and the color identification signal 105 input from the image processing unit 104, and the depths of all pixels included in the pixel region 301. As the data 109, the distance to the point 208 is output as the depth data 109 of all the pixels included in the pixel area 302, and the pixels 309 of the areas not included in any of the pixel areas 301 and 302 are determined in advance. A constant value (usually the maximum value indicating infinity) is output as the depth data 109.

【0019】次に、第2のモードの画像入力装置におい
ては、距離計測部106は距離計202を用いて被写体
203上の2点(ここでは点205と点206を例にと
る。)および被写体204上の2点(ここでは点208
と点209を例にとる。)までのZ軸に沿った距離を計
測する。距離算出部108は、距離計測部106から入
力された距離データ107に従って、各々の被写体20
3と204毎に以下に示す内挿/外挿演算によって距離
を算出する。算出方法は各被写体203と204につい
て共通であるため被写体203についてのみ説明する。
Next, in the image input device in the second mode, the distance measuring unit 106 uses the rangefinder 202 to detect two points on the object 203 (here, the points 205 and 206 are taken as an example) and the object. 2 points on 204 (here, point 208)
Take point 209 as an example. ) Is measured along the Z-axis. The distance calculation unit 108 follows each of the subjects 20 according to the distance data 107 input from the distance measurement unit 106.
The distance is calculated by the following interpolation / extrapolation calculation for each of 3 and 204. Since the calculation method is common to the subjects 203 and 204, only the subject 203 will be described.

【0020】まず、被写体203が床面(X−Z平面)
に垂直な平面であると仮定すると、この平面の方程式は
AX+BZ+C=0で与えられる。点205に対応する
画素303の画像中での画素位置から得られる座標(X
1,Y1)と距離計測部106で計測された点205ま
での距離(Z1)と、点206に対応する画素304の
画像中での画素位置から得られる座標(X2,Y2)と
距離計測部106で計測された点206までの距離(Z
2)から、2点(X1,Y1,Z1)と(X2,Y2,
Z2)がこの平面上の点であるとして、平面の方程式の
係数A,B,Cを求める。
First, the subject 203 is the floor surface (XZ plane).
Assuming a plane perpendicular to, the equation for this plane is given by AX + BZ + C = 0. Coordinates (X) obtained from the pixel position in the image of the pixel 303 corresponding to the point 205
1, Y1) and the distance to the point 205 (Z1) measured by the distance measuring unit 106, the coordinates (X2, Y2) obtained from the pixel position in the image of the pixel 304 corresponding to the point 206, and the distance measuring unit. The distance to the point 206 measured at 106 (Z
From 2), two points (X1, Y1, Z1) and (X2, Y2,
Assuming that Z2) is a point on this plane, the coefficients A, B, C of the equation of the plane are obtained.

【0021】この2点のX座標とZ座標がともに等しく
ない限りは、係数A,B,Cは一意に決定される。また
両者のX座標とZ座標がともに等しい場合には係数A,
B,Cは一意には決まらないが、その場合にはこの平面
がZ軸に対しても垂直であるという仮定を更に加えるこ
とにより、平面の方程式をZ=Z1=Z2とする。座標
算出部108は、画素領域301に含まれる画素につい
ては、以上のようにして決定された平面の方程式に、そ
の画素の画素位置(X,Y)を代入して得られるZ座標
の値を、その画素に対する奥行きデータ109として出
力する。
Unless the X and Z coordinates of these two points are equal, the coefficients A, B and C are uniquely determined. If both X and Z coordinates are the same, coefficient A,
B and C are not uniquely determined, but in that case, the equation of the plane is Z = Z1 = Z2 by further adding the assumption that this plane is also perpendicular to the Z axis. For a pixel included in the pixel area 301, the coordinate calculation unit 108 obtains a Z coordinate value obtained by substituting the pixel position (X, Y) of the pixel into the equation of the plane determined as described above. , And output as depth data 109 for that pixel.

【0022】また、被写体204に対応する画素領域3
02に含まれる画素については、点208に対応する画
素306の画像中での画素位置から得られる座標(X
4,Y4)と距離計測部106で計測された点208ま
での距離(Z4)と、点209に対応する画素307の
画像中での画素位置から得られる座標(X5,Y5)と
距離計測部106で計測された点209までの距離(Z
5)から、被写体203の場合と同様にして決定された
平面の方程式に、その画素の画素位置(X,Y)を代入
して得られるZ座標の値を、その画素に対する奥行きデ
ータ109として出力する。
Further, the pixel area 3 corresponding to the subject 204
For the pixel included in 02, the coordinates (X
4, Y4) and the distance (Z4) to the point 208 measured by the distance measuring unit 106, the coordinates (X5, Y5) obtained from the pixel position in the image of the pixel 307 corresponding to the point 209, and the distance measuring unit. The distance to the point 209 measured at 106 (Z
From 5), the value of the Z coordinate obtained by substituting the pixel position (X, Y) of the pixel into the equation of the plane determined similarly to the case of the subject 203 is output as the depth data 109 for that pixel. To do.

【0023】また、いずれの画素領域301および30
2にも含まれない領域の画素309については予め定め
られた一定の値(通常は無限遠を示す最大の値)を奥行
きデータ109として出力する。
Any of the pixel regions 301 and 30
For the pixels 309 in the area not included in 2, the predetermined constant value (usually the maximum value indicating infinity) is output as the depth data 109.

【0024】また、第3のモードの画像入力装置におい
ては、距離計測部106は距離計202を用いて被写体
203上の3点205、206および207、および被
写体204上の3点208、209および210までの
Z軸に沿った距離を計測する。距離算出部108は、距
離計測部106から入力された距離データ107に従っ
て、各々の被写体203と204毎に以下に示す内挿/
外挿演算によって距離を算出する。算出方法は各被写体
203と204について共通であるため被写体203に
ついてのみ説明する。
In addition, in the image input device in the third mode, the distance measuring unit 106 uses the rangefinder 202 to detect three points 205, 206 and 207 on the subject 203 and three points 208, 209 on the subject 204. Measure the distance to the 210 along the Z-axis. The distance calculation unit 108 performs the following interpolation / interpolation for each of the subjects 203 and 204 according to the distance data 107 input from the distance measurement unit 106.
The distance is calculated by extrapolation. Since the calculation method is common to the subjects 203 and 204, only the subject 203 will be described.

【0025】まず、被写体203が平面であると仮定す
ると、この平面の方程式はAX+BZ+CZ+D=0で
与えられる。点205に対応する画素303の画像中で
の画素位置から得られる座標(X1,Y1)と距離計測
部106で計測された点205までの距離(Z1)と、
点206に対応する画素304の画像中での画素位置か
ら得られる座標(X2,Y2)と距離計測部106で計
測された点206までの距離(Z2)と、点207に対
応する画素305の画像中での画素位置から得られる座
標(X3,Y3)と距離計測部106で計測された点2
07までの距離(Z3)から、3点(X1,Y1,Z
1)、(X2,Y2,Z2)および(X3,Y3,Z
3)がこの平面上の点であるとして、平面の方程式の係
数A,B,C,Dを求める。この3点が同一直線上にな
い限りは、係数A,B,C,Dは一意に決定される。
First, assuming that the object 203 is a plane, the equation of this plane is given by AX + BZ + CZ + D = 0. Coordinates (X1, Y1) obtained from the pixel position in the image of the pixel 303 corresponding to the point 205 and the distance (Z1) to the point 205 measured by the distance measuring unit 106,
The coordinates (X2, Y2) obtained from the pixel position in the image of the pixel 304 corresponding to the point 206, the distance to the point 206 (Z2) measured by the distance measuring unit 106, and the pixel 305 corresponding to the point 207. The coordinates (X3, Y3) obtained from the pixel position in the image and the point 2 measured by the distance measuring unit 106.
From the distance (Z3) to 07, three points (X1, Y1, Z
1), (X2, Y2, Z2) and (X3, Y3, Z
Assuming that 3) is a point on this plane, the coefficients A, B, C, D of the equation of the plane are obtained. Unless these three points are on the same straight line, the coefficients A, B, C and D are uniquely determined.

【0026】またこの3点が同一直線上にある場合には
係数A,B,C,Dは一意には決まらないが、その場合
にはこの平面がX−Z平面に対しても垂直であるという
仮定を更に加えることにより、平面の方程式を決定す
る。更にこの仮定を加えても平面の方程式が決定できな
い場合、即ちこの3点がX−Z平面に垂直な同一直線上
にある場合には、この平面がZ軸に対しても垂直である
という仮定を更に加えることにより、平面の方程式をZ
=Z1=Z2=Z3とする。座標算出部108は、画素
領域301に含まれる画素については、以上のようにし
て決定された平面の方程式に、その画素の画素位置
(X,Y)を代入して得られるZ座標の値を、その画素
に対する奥行きデータ109として出力する。
When these three points are on the same straight line, the coefficients A, B, C and D are not uniquely determined, but in this case, this plane is also perpendicular to the XZ plane. The equation of the plane is determined by further adding the assumption. Furthermore, if the equation of the plane cannot be determined even if this assumption is added, that is, if these three points are on the same straight line perpendicular to the XZ plane, then it is assumed that this plane is also perpendicular to the Z axis. By further adding
= Z1 = Z2 = Z3. For a pixel included in the pixel area 301, the coordinate calculation unit 108 obtains a Z coordinate value obtained by substituting the pixel position (X, Y) of the pixel into the equation of the plane determined as described above. , And output as depth data 109 for that pixel.

【0027】また、被写体204に対応する画素領域3
02に含まれる画素については、点208に対応する画
素306の画像中での画素位置から得られる座標(X
4,Y4)と距離計測部106で計測された点208ま
での距離(Z4)と、点209に対応する画素307の
画像中での画素位置から得られる座標(X5,Y5)と
距離計測部106で計測された点209までの距離(Z
5)と、点210に対応する画素308の画像中での画
素位置から得られる座標(X6,Y6)と距離計測部1
06で計測された点210までの距離(Z6)から、被
写体203の場合と同様にして決定された平面の方程式
に、その画素の画素位置(X,Y)を代入して得られる
Z座標の値を、その画素に対する奥行きデータ109と
して出力する。
Further, the pixel area 3 corresponding to the subject 204
For the pixel included in 02, the coordinates (X
4, Y4) and the distance (Z4) to the point 208 measured by the distance measuring unit 106, the coordinates (X5, Y5) obtained from the pixel position in the image of the pixel 307 corresponding to the point 209, and the distance measuring unit. The distance to the point 209 measured at 106 (Z
5), the coordinates (X6, Y6) obtained from the pixel position in the image of the pixel 308 corresponding to the point 210, and the distance measuring unit 1
From the distance (Z6) to the point 210 measured at 06, the pixel position (X, Y) of the pixel is substituted into the equation of the plane determined in the same manner as in the case of the subject 203, and the Z coordinate is obtained. The value is output as the depth data 109 for that pixel.

【0028】また、いずれの画素領域301および30
2にも含まれない領域の画素309については予め定め
られた一定の値(通常は無限遠を示す最大の値)を奥行
きデータ109として出力する。
Any of the pixel regions 301 and 30
For the pixels 309 in the area not included in 2, the predetermined constant value (usually the maximum value indicating infinity) is output as the depth data 109.

【0029】(実施例2)図4は本発明(請求項4)の
画像入力装置の実施例2を示すブロック図である。図4
において、401は画像入力対象となる1つまたは複数
の被写体、402はカメラなどで構成された撮像部、4
03は撮像部402で撮像された画像の画素データ、4
04は画素データ403から、指示された1つまたは複
数の被写体401に相当する画素領域を抽出する画像処
理部、405はどの画素がどの被写体401の画素であ
るか、またはいずれの被写体401にも相当しない画素
であるかを示す信号、406は抽出対象となる1つまた
は複数の被写体401毎にそれぞれの被写体401上の
1つないし3つの点までの距離を測定する距離計測部、
407は距離計測部406で計測された距離データ、4
08は信号405に従って被写体毎に対応する奥行きデ
ータを算出し、画素データ403に対応付けて出力する
距離算出部、409は距離算出部408が出力する奥行
きデータである。
(Embodiment 2) FIG. 4 is a block diagram showing Embodiment 2 of the image input apparatus of the present invention (claim 4). Figure 4
In the figure, 401 is one or a plurality of subjects to be image input targets, 402 is an imaging unit including a camera, 4
03 denotes pixel data of an image captured by the image capturing unit 402, 4
Reference numeral 04 denotes an image processing unit that extracts a pixel area corresponding to the instructed one or more subjects 401 from the pixel data 403, and 405 indicates which pixel is the pixel of which subject 401, or for any subject 401. A signal indicating whether the pixel is not a corresponding pixel, 406 is a distance measuring unit that measures the distance to one or three points on each subject 401 for each one or more subjects 401 to be extracted,
407 is distance data measured by the distance measuring unit 406, 4
Reference numeral 08 denotes a distance calculation unit that calculates depth data corresponding to each subject according to the signal 405 and outputs the depth data in association with the pixel data 403. Reference numeral 409 denotes depth data output by the distance calculation unit 408.

【0030】図4において、距離計測部406を除く各
構成要素の機能は、前記実施例1の図1における同名の
構成要素に同じである。距離計測部406は撮像部40
2によって入力された画像の画素データを入力として距
離を計算によって求める。
In FIG. 4, the function of each component except the distance measuring unit 406 is the same as that of the component of the same name in FIG. 1 of the first embodiment. The distance measuring unit 406 is the image capturing unit 40.
The distance is calculated by using the pixel data of the image input in 2 as input.

【0031】(実施例3)図5は本発明(請求項5〜
7)の画像合成方法を用いた画像合成システムの一実施
例を示すブロック図である。図5において、501から
503は2つ以上の任意個数(Nとする。)の画像入力
装置、504から506は前記各画像入力装置501か
ら503によって入力された画像の画素毎の奥行きデー
タ、507は奥行き比較手段、508は奥行き比較手段
507によって最も近いと判定された画素がいずれの画
像入力装置から得られた画像の画素であるかを識別する
信号、509は奥行き比較手段507によって最も近
い、即ち最も小さい奥行きデータをもつと判定された画
素の奥行きデータ、510から512は画像入力装置5
01から503によって入力された画素データ、513
は識別信号508に従って、対応する画像の画素を選択
する画素選択手段、514は画素選択手段513によっ
て選択され、出力された合成後の画像の画素データであ
る。
(Embodiment 3) FIG. 5 shows the present invention (claims 5 to 5).
It is a block diagram which shows one Example of the image synthesizing system using the image synthesizing method of 7). In FIG. 5, reference numerals 501 to 503 denote an arbitrary number (N) of two or more image input devices, 504 to 506 depth data for each pixel of the image input by the image input devices 501 to 503, and 507. Is a depth comparison means, 508 is a signal for identifying which image input device the pixel determined to be the closest by the depth comparison means 507 is a pixel of the image, 509 is the closest by the depth comparison means 507, That is, the depth data 510 to 512 of the pixels determined to have the smallest depth data are the image input device 5.
Pixel data input by 01 to 503, 513
Is pixel data of the combined image which is selected and output by the pixel selection unit 513 for selecting the pixel of the corresponding image according to the identification signal 508.

【0032】本実施例の第1の画像合成方法において
は、N個の画像入力装置501から503のうち少なく
とも1つが実施例1または2の画像入力装置で構成され
る。
In the first image synthesizing method of this embodiment, at least one of the N image input devices 501 to 503 is constituted by the image input device of the first or second embodiment.

【0033】また、第2の画像合成方法においては、N
個の画像入力装置501から503のうち少なくとも1
つが実施例1または2の画像入力装置で構成され、それ
以外の画像入力装置501から503のうちの少なくと
も1つが数値データをもとにして計算によって生成され
た画素データおよび奥行きデータを出力する画像入力装
置で構成される。
In the second image synthesizing method, N
At least one of the image input devices 501 to 503
An image which is configured by the image input device of the first or second embodiment, and at least one of the other image input devices 501 to 503 outputs pixel data and depth data generated by calculation based on numerical data. It consists of an input device.

【0034】[0034]

【発明の効果】以上述べてきたように、本発明によれば
カメラなどから入力した画像に対して画素毎の奥行きデ
ータを付加することができ、他の画像入力装置から入力
した奥行きデータをもつ画像や、3次元コンピュータグ
ラフィックスによって生成された奥行きデータをもつ画
像を、それぞれの画像中に含まれる被写体相互の位置関
係を保存しながら合成できるため、映画やテレビなどの
映像制作における映像表現力の自由度が増し、またコン
ピュータグラフィックス画像の応用の拡大が期待でき
る。
As described above, according to the present invention, it is possible to add depth data for each pixel to an image input from a camera or the like, and to have depth data input from another image input device. Images and images with depth data generated by 3D computer graphics can be combined while preserving the positional relationship between the subjects included in each image, so the visual expression power in video production such as movies and television It is expected that the degree of freedom will be increased and the application of computer graphics images will be expanded.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例1の画像入力装置の構成を示す
ブロック図
FIG. 1 is a block diagram showing a configuration of an image input device according to a first embodiment of the present invention.

【図2】本発明の実施例1の画像入力装置の説明図FIG. 2 is an explanatory diagram of the image input device according to the first embodiment of the present invention.

【図3】本発明の実施例1の画像入力装置の別の説明図FIG. 3 is another explanatory diagram of the image input device according to the first embodiment of the present invention.

【図4】本発明の実施例2の画像入力装置の構成を示す
ブロック図
FIG. 4 is a block diagram showing a configuration of an image input device according to a second embodiment of the present invention.

【図5】本発明の実施例3の画像合成システムの構成を
示すブロック図
FIG. 5 is a block diagram showing the configuration of an image composition system according to a third embodiment of the present invention.

【図6】従来の画像合成装置の構成を示すブロック図FIG. 6 is a block diagram showing a configuration of a conventional image synthesizing device.

【図7】(a)は従来の画像合成装置の手前の建物と後
ろの建物の画像を示す図 (b)は車の画像を示す図 (c)は2つの画像中の物体が互いに入り組んで前後す
るような画像を示す図
FIG. 7 (a) shows an image of a building in front of and a building at the back of a conventional image synthesizing device (b) shows an image of a car (c) shows objects in two images intertwined with each other Figure showing an image that goes back and forth

【符号の説明】[Explanation of symbols]

101 被写体 102 撮像部 103 画素データ 104 画像処理部 105 画素識別信号 106 距離計測部 107 距離データ 108 距離算出部 109 奥行きデータ 201 カメラ 202 距離計 203、204 被写体 205〜210 被写体上の点 301、302 被写体に対応する画素領域 303〜308 被写体の点に対応する画素 309 被写体に対応しない画素領域 401 被写体 402 撮像部 403 画素データ 404 画像処理部 405 画素識別信号 406 距離計測部 407 距離データ 408 距離算出部 409 奥行きデータ 501〜503 画像入力装置 504〜506 奥行きデータ 507 奥行き比較手段 508 画素選択信号 509 奥行きデータ 510〜512 画素データ 513 画素選択手段 514 画素データ 101 Subject 102 Imaging Unit 103 Pixel Data 104 Image Processing Unit 105 Pixel Identification Signal 106 Distance Measuring Unit 107 Distance Data 108 Distance Calculation Unit 109 Depth Data 201 Camera 202 Distance Meter 203, 204 Subject 205 to 210 Point on Subject 301, 302 Subject Pixel regions corresponding to the pixels 303 to 308 pixels corresponding to the points of the subject 309 pixel regions not corresponding to the subject 401 subject 402 image capturing unit 403 pixel data 404 image processing unit 405 pixel identification signal 406 distance measuring unit 407 distance data 408 distance calculating unit 409 Depth data 501-503 Image input device 504-506 Depth data 507 Depth comparison means 508 Pixel selection signal 509 Depth data 510-512 Pixel data 513 Pixel selection means 514 Pixel data

───────────────────────────────────────────────────── フロントページの続き (72)発明者 永峰 聡 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 (72)発明者 小林 忠司 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Satoshi Nagamine Satoshi Nagamine 1006 Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd.

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】画像を撮像し画像の画素データを出力する
撮像部と、前記撮像部が出力する画像の画素データから
1つまたは複数の被写体の画素領域を抽出する画像処理
部と、前記撮像部から、前記画像処理部が抽出の対象と
する1つまたは複数の被写体毎に指示された被写体上の
1つの点までの、前記撮像部の光軸方向に沿った距離を
各被写体毎に計測する距離計測部と、前記距離計測部が
計測した値を前記画像処理部が出力する個々の被写体の
画素データすべてに共通な奥行きデータとして付与して
出力し、その他の領域の画素データに対しては予め定め
られた一定値を奥行きデータとして付与して出力する距
離算出部とを具備することを特徴とする画像入力装置。
1. An image pickup section for picking up an image and outputting pixel data of the image, an image processing section for extracting a pixel region of one or more subjects from the pixel data of the image output by the image pickup section, and the image pickup The distance along the optical axis direction of the image pickup unit from the image pickup unit to one point on the subject designated for each one or more subjects to be extracted by the image processing unit, for each subject. The distance measurement unit that performs the measurement, and the value measured by the distance measurement unit is given as the depth data common to all pixel data of individual subjects output by the image processing unit and output, and with respect to the pixel data of other regions. An image input device, comprising: a distance calculator that outputs a predetermined constant value as depth data.
【請求項2】画像を撮像し画像の画素データを出力する
撮像部と、前記撮像部が出力する画像の画素データから
1つまたは複数の被写体の画素領域を抽出する画像処理
部と、前記撮像部から、前記画像処理部が抽出の対象と
する1つまたは複数の被写体毎に指示された被写体上の
2つの点までの、前記撮像部の光軸方向に沿った距離を
各被写体毎に計測する距離計測部と、前記画像処理部が
抽出の対象とする個々の被写体を床面に対して垂直な平
面と仮定し、計測された2つの点に対応する画素までの
距離を内挿または外挿して、その平面上の各画素の奥行
きを算出し、算出された距離の値を前記画像処理部が出
力する個々の被写体の画素データに付与して出力し、そ
の他の領域の画素データに対しては予め定められた一定
値を奥行きデータとして付与して出力する距離算出部と
を具備することを特徴とする画像入力装置。
2. An image pickup section for picking up an image and outputting pixel data of the image, an image processing section for extracting a pixel area of one or more objects from the pixel data of the image output by the image pickup section, and the image pickup The distance along the optical axis direction of the image pickup unit from the image pickup unit to two points on the subject specified by the image processing unit for one or more subjects to be extracted for each subject. The distance measuring unit and each subject to be extracted by the image processing unit are assumed to be planes perpendicular to the floor surface, and the distances to the pixels corresponding to the two measured points are interpolated or extrapolated. The depth of each pixel on the plane is calculated, and the value of the calculated distance is added to the pixel data of each subject output by the image processing unit and output, with respect to the pixel data of other regions. Is the depth data An image input apparatus characterized by comprising a distance calculation unit to output the grant to.
【請求項3】画像を撮像し画像の画素データを出力する
撮像部と、前記撮像部が出力する画像の画素データから
1つまたは複数の被写体の画素領域を抽出する画像処理
部と、前記撮像部から、前記画像処理部が抽出の対象と
する1つまたは複数の被写体毎に指示された被写体上の
3つの点までの、前記撮像部の光軸方向に沿った距離を
各被写体毎に計測する距離計測部と、前記画像処理部が
抽出の対象とする個々の被写体を平面と仮定し、計測さ
れた3つの点に対応する画素までの距離を内挿または外
挿して、その平面上の各画素の奥行きを算出し、算出さ
れた距離の値を前記画像処理部が出力する個々の被写体
の画素データに付与して出力し、その他の領域の画素デ
ータに対しては予め定められた一定値を奥行きデータと
して付与して出力する距離算出部とを具備することを特
徴とする画像入力装置。
3. An image pickup section for picking up an image and outputting pixel data of the image, an image processing section for extracting a pixel area of one or more objects from the pixel data of the image output by the image pickup section, and the image pickup The distance along the optical axis direction of the image pickup unit from each unit to three points on the subject designated for each one or more subjects to be extracted by the image processing unit, for each subject. Assuming that the distance measuring unit and each subject to be extracted by the image processing unit are planes, the distances to the pixels corresponding to the three measured points are interpolated or extrapolated, and The depth of each pixel is calculated, the calculated distance value is added to the pixel data of each subject output by the image processing unit, and the pixel data is output. Value is output as depth data An image input apparatus characterized by comprising a that the distance calculator.
【請求項4】距離計測部が、撮像部が出力する画像の画
素データを用いて距離を計算によって求めることを特徴
とする請求項1、2または3のいずれかに記載の画像入
力装置。
4. The image input device according to claim 1, wherein the distance measuring unit calculates the distance by using pixel data of an image output by the image pickup unit.
【請求項5】請求項1、2、3または4のいずれかに記
載の画像入力装置が出力する画像の画素データおよび奥
行きデータを少なくとも1つの入力とし、画素毎の画素
データと奥行きデータをもつ1つまたは複数の画像を別
の入力とし、入力されたすべての画像の対応する画素位
置の画素毎に奥行きデータを比較して最も前記の撮像部
に近い、即ち最も小さい奥行きデータをもつ画素を合成
後の画像のその画素位置の画素として出力することを特
徴とする画像合成方法。
5. Pixel data and depth data of an image output by the image input device according to claim 1, are provided as at least one input, and have pixel data and depth data for each pixel. One or more images are taken as another input, and the depth data is compared for each pixel at the corresponding pixel positions of all the input images, and the pixel closest to the image pickup unit, that is, the pixel having the smallest depth data is selected. An image synthesizing method characterized by outputting as a pixel at that pixel position of a synthesized image.
【請求項6】別の入力画像のうち少なくとも1つが数値
データをもとにして計算によって生成された画素データ
および奥行きデータから成ることを特徴とする請求項5
記載の画像合成方法。
6. The at least one of the other input images comprises pixel data and depth data generated by calculation based on numerical data.
The described image composition method.
JP18085292A 1992-07-08 1992-07-08 Image input synthesis device Expired - Fee Related JP3193930B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18085292A JP3193930B2 (en) 1992-07-08 1992-07-08 Image input synthesis device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18085292A JP3193930B2 (en) 1992-07-08 1992-07-08 Image input synthesis device

Publications (2)

Publication Number Publication Date
JPH0630336A true JPH0630336A (en) 1994-02-04
JP3193930B2 JP3193930B2 (en) 2001-07-30

Family

ID=16090492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18085292A Expired - Fee Related JP3193930B2 (en) 1992-07-08 1992-07-08 Image input synthesis device

Country Status (1)

Country Link
JP (1) JP3193930B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0818858A (en) * 1994-07-01 1996-01-19 Matsushita Electric Ind Co Ltd Image composite device
WO2006001506A1 (en) * 2004-06-25 2006-01-05 Ssd Company Limited Image mixing apparatus and pixel mixer
US7212687B2 (en) 2002-03-29 2007-05-01 Canon Kabushiki Kaisha Method and apparatus for processing information
JP2010224607A (en) * 2009-03-19 2010-10-07 Casio Computer Co Ltd Image composition device and program
US8022967B2 (en) 2004-06-03 2011-09-20 Canon Kabushiki Kaisha Image processing method and image processing apparatus

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101658576B1 (en) * 2010-01-15 2016-09-22 삼성전자주식회사 Apparatus and method for measuring distance using image data

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0818858A (en) * 1994-07-01 1996-01-19 Matsushita Electric Ind Co Ltd Image composite device
US7212687B2 (en) 2002-03-29 2007-05-01 Canon Kabushiki Kaisha Method and apparatus for processing information
US8022967B2 (en) 2004-06-03 2011-09-20 Canon Kabushiki Kaisha Image processing method and image processing apparatus
WO2006001506A1 (en) * 2004-06-25 2006-01-05 Ssd Company Limited Image mixing apparatus and pixel mixer
JP2008503795A (en) * 2004-06-25 2008-02-07 新世代株式会社 Image composition device and pixel mixer
JP2010224607A (en) * 2009-03-19 2010-10-07 Casio Computer Co Ltd Image composition device and program

Also Published As

Publication number Publication date
JP3193930B2 (en) 2001-07-30

Similar Documents

Publication Publication Date Title
EP0758515B1 (en) Improved chromakeying system
US6081273A (en) Method and system for building three-dimensional object models
JP3054681B2 (en) Image processing method
US20070252833A1 (en) Information processing method and information processing apparatus
JP2010128799A (en) Composite media synthesizing apparatus, composite media display system, composite media synthesizing method, and composite media synthesizing program
JPH05303629A (en) Method for synthesizing shape
US6549659B1 (en) Method and apparatus for determining the location of a reflective object within a video field
KR100335617B1 (en) Method for synthesizing three-dimensional image
JP4108171B2 (en) Image synthesizer
JPH0630336A (en) Picture input device and picture synthesis method
JPH09245195A (en) Image processing method and its device
JP4236705B2 (en) Method and device for generating a display frame from a sequence of original frames by synthesizing one or more intermediate frames based only on the immediately preceding original frame
WO2023112971A1 (en) Three-dimensional model generation device, three-dimensional model generation method, and three-dimensional model generation program
JPH08201941A (en) Three-dimensional image formation
JP2005141655A (en) Three-dimensional modeling apparatus and three-dimensional modeling method
JP3957343B2 (en) Apparatus and method for converting 2D video to 3D video
JP3577202B2 (en) Video production equipment
JP2000092516A (en) Device and method for converting two-dimensional video image to three-dimensional video image
Skulimowski et al. Refinement of depth from stereo camera ego-motion parameters
JPH10255071A (en) Image processing system
JP3331752B2 (en) Image synthesis device
JPH04329484A (en) Image synthesizer
JPH04372079A (en) Picture display device
JP3135162B2 (en) Distance measuring device
JPH11259682A (en) Processor and method for image processing, and providing medium

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090525

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100525

Year of fee payment: 9

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110525

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110525

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120525

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees