JP3530652B2 - Image composition method and image composition device - Google Patents

Image composition method and image composition device

Info

Publication number
JP3530652B2
JP3530652B2 JP27072795A JP27072795A JP3530652B2 JP 3530652 B2 JP3530652 B2 JP 3530652B2 JP 27072795 A JP27072795 A JP 27072795A JP 27072795 A JP27072795 A JP 27072795A JP 3530652 B2 JP3530652 B2 JP 3530652B2
Authority
JP
Japan
Prior art keywords
image
images
gradation
overlapping
synthesizing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP27072795A
Other languages
Japanese (ja)
Other versions
JPH0993430A (en
Inventor
光太郎 矢野
達嗣 片山
英夫 滝口
健司 羽鳥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP27072795A priority Critical patent/JP3530652B2/en
Publication of JPH0993430A publication Critical patent/JPH0993430A/en
Application granted granted Critical
Publication of JP3530652B2 publication Critical patent/JP3530652B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、画像合成方法及び
画像合成装置に関し、特に画像の一部が重複する複数の
画像を重ねて、画角の広いパノラマ画像を合成する画像
合成方法及び画像合成装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image synthesizing method and an image synthesizing apparatus, and more particularly, to an image synthesizing method and an image synthesizing method for synthesizing a plurality of images in which a part of the images overlap to synthesize a panoramic image with a wide angle of view. It relates to the device.

【0002】[0002]

【従来の技術】従来、上記のような画像合成方法及び画
像合成装置においては、画像の重複する領域内で同一な
点が一致するようにアフィン変換等の幾何変換を施して
2つの画像を平面上でつなぎ合わせるものが知られてい
る。
2. Description of the Related Art Conventionally, in the image synthesizing method and the image synthesizing apparatus as described above, two images are planarized by performing geometric transformation such as affine transformation so that the same points are coincident in the overlapping areas of the images. The ones that are spliced together are known.

【0003】これは、例えば、図23に示すような被写
体を電子スチルカメラ等でそれぞれフレームf1、f2
の枠内で図24、図25のように撮像した2つの入力画
像を、該画像の重複する領域内でアフィン変換等の幾何
変換を施して図26に示すような合成画像を作成すると
いうものである。
This is, for example, for a subject as shown in FIG.
The two input images captured as shown in FIGS. 24 and 25 in the frame of No. 2 are subjected to geometric transformation such as affine transformation in the overlapping area of the images to create a composite image as shown in FIG. Is.

【0004】尚、この場合、フレームf1の被写体は全
体が暗いので撮像時の露光量は暗い所が明るくなるよう
補正されて、図24のような画像が撮像される。また、
フレームf2の被写体は全体が明るいので撮像時の露光
量は明るい所が暗くなるよう補正されて、図25のよう
な画像が撮像される。
In this case, since the subject of the frame f1 is entirely dark, the exposure amount at the time of image pickup is corrected so that the dark place becomes bright, and an image as shown in FIG. 24 is picked up. Also,
Since the entire subject of the frame f2 is bright, the exposure amount at the time of imaging is corrected so that the bright part becomes dark, and an image as shown in FIG. 25 is captured.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、上記従
来例においては、以下のような問題点があった。
However, the above-mentioned conventional example has the following problems.

【0006】各画像の撮像条件は被写体等の要因で異な
るので、合成に係る画像が精度良くつながった場合で
も、合成画像上では継ぎ目が生じてしまう。
Since the image pickup conditions of each image differ depending on factors such as the subject, even when the images related to the combination are accurately connected, a seam is generated on the combined image.

【0007】これは、特に露光条件が異なった場合に顕
著であり、例えば前述の入力画像が精度良くつながった
場合でも同一被写体での入力画像の明るさの違いによ
り、図26に示したような合成画像になり、合成画像上
では継ぎ目が目立ってしまう。
This is particularly noticeable when the exposure conditions are different. For example, even when the above-mentioned input images are connected with high precision, due to the difference in the brightness of the input images for the same subject, as shown in FIG. It becomes a composite image, and seams are conspicuous on the composite image.

【0008】さらに、像面照度比の特性が光軸付近と周
辺で著しく差のある撮像光学系で撮像した複数の画像を
合成する場合においても画像状態の違いにより、継ぎ目
が生じてしまう。
Further, even when a plurality of images picked up by the image pickup optical system in which the characteristic of the image plane illuminance ratio is significantly different in the vicinity of the optical axis and in the periphery thereof, a seam occurs due to the difference in image state.

【0009】そこで、本発明はこのような問題を解決す
るためになされたものであり、撮像条件の違い等による
異なる画像状態を有した複数の画像を良好に合成するこ
とが可能な画像合成方法及び画像合成装置を提供するこ
とを目的とする。
Therefore, the present invention has been made in order to solve such a problem, and an image synthesizing method capable of satisfactorily synthesizing a plurality of images having different image states due to differences in image pickup conditions and the like. Another object of the present invention is to provide an image synthesizing device.

【0010】[0010]

【課題を解決するための手段】上記課題を解決するため
に本発明は以下の手段を有する。
In order to solve the above-mentioned problems, the present invention has the following means.

【0011】請求項1記載の画像合成装置は、互いに重
複した画像領域を有する複数の画像を合成し、画角の広
い一つの合成画像を作成する画像合成手段を備える画像
合成装置において、前記画像合成手段は、前記複数の画
像の重複した画像領域内で、各画像の中心点からの距離
が等しい点の画像状態に応じて前記複数の画像を補正し
た後に画像合成を行うことを特徴とする。
[0011] The image synthesizing apparatus according to claim 1, wherein, in the image synthesis apparatus comprising an image synthesizing means for synthesizing a plurality of images, creating a broad single composite image angle having image areas overlapping each other, the image The synthesizing means determines the distance from the center point of each image in the overlapping image area of the plurality of images.
The image composition is performed after the plurality of images are corrected in accordance with the image states of points having the same.

【0012】[0012]

【0013】請求項記載の画像合成装置は、請求項
記載の画像合成装置において、前記画像状態として前記
複数の画像の階調を検出する検出手段と、この検出結果
に基づき重複した画像領域の階調が等しくなるよう前記
複数の画像を補正する補正手段とを有したことを特徴と
する。請求項3記載の画像合成装置は、請求項2記載の
画像合成装置において、前記補正手段は、前記階調が補
正された画像をダイナミックレンジが増加した分だけも
との階調に正規化することを特徴とする。
According to a second aspect of the present invention, there is provided the image synthesizing apparatus according to the first aspect.
In the image synthesizing apparatus described above, a detection unit that detects gradations of the plurality of images as the image state, and a correction unit that corrects the plurality of images based on the detection result so that gradations of overlapping image regions become equal to each other. And having. The image synthesizing apparatus according to claim 3 is the image synthesizing apparatus according to claim 2.
In the image synthesizing apparatus, the correction means corrects the gradation.
The corrected image is only the increased dynamic range
It is characterized by normalizing to the gradation of and.

【0014】請求項4記載の画像合成方法は、互いに重
複した画像領域を有する複数の画像を合成し、画角の広
い一つの合成画像を作成する画像合成方法において、前
記画像合成は、前記複数の画像の重複した画像領域内
で、各画像の中心点からの距離が等しい点の画像状態に
応じて前記複数の画像を補正した後に行うことを特徴と
する。
An image synthesizing method according to a fourth aspect is an image synthesizing method for synthesizing a plurality of images having mutually overlapping image regions to create one synthesized image having a wide angle of view, wherein the image synthesizing is performed by the plurality of image synthesizing methods. Within the overlapping image area of the image
Then, it is performed after the plurality of images are corrected according to the image states of the points having the same distance from the center point of each image .

【0015】[0015]

【0016】請求項記載の画像合成方法は、請求項
記載の画像合成方法において、前記画像状態として前記
重複した画像領域内の階調を検出し、この検出結果に基
づき重複した画像領域の階調が等しくなるよう前記複数
の画像を補正することを特徴とする。請求項6記載の画
像合成方法は、請求項5記載の画像合成方法において、
前記階調が補正された画像をダイナミックレンジが増加
した分だけもとの階調に正規化することを特徴とする。
The image synthesizing method according to claim 5 is the method according to claim 4.
In the image synthesizing method described above, the gradations in the overlapping image areas are detected as the image states, and the plurality of images are corrected based on the detection result so that the gradations of the overlapping image areas become equal to each other. And The image according to claim 6.
The image synthesizing method is the image synthesizing method according to claim 5,
Increase the dynamic range of the gradation-corrected image
The feature is that the gradation is normalized to the original gradation.

【0017】[0017]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

【0018】(第1の実施の形態)まず、本発明による
第1の実施の形態を説明する。
(First Embodiment) First, a first embodiment of the present invention will be described.

【0019】図1は、本発明の画像合成装置の実施の一
形態を示す構成ブロック図である。
FIG. 1 is a block diagram showing the configuration of an embodiment of the image synthesizing apparatus of the present invention.

【0020】本装置は、電子スチルカメラ、ビデオカメ
ラ等で撮像された入力画像a及びbを合成し、合成画像
cとして例えばCRTやプリンタ等に出力するものであ
り、不図示の制御部を有し、さらにこの制御部により各
々制御される、対応点抽出部20、パラメータ推定部4
0、階調補正係数決定部30、階調変換部31、32及
び画像変換合成部50を具備して構成されているもので
ある。
The present apparatus synthesizes input images a and b picked up by an electronic still camera, a video camera or the like, and outputs them as a synthesized image c to, for example, a CRT or a printer, and has a control unit (not shown). In addition, the corresponding point extraction unit 20 and the parameter estimation unit 4 are controlled by the control unit.
0, the gradation correction coefficient determination unit 30, the gradation conversion units 31 and 32, and the image conversion synthesis unit 50.

【0021】ここで、入力画像a及びbは、図2に示す
ような被写体を電子スチルカメラ、ビデオカメラ等でそ
れぞれフレームfa、fbの枠内で画像の一部が重複し
て撮像されることにより重複した画像領域(以下「重複
部」ともいう。)を有したものであり、さらに本実施の
形態においては図3、図4に示したように撮像時の露光
条件の異なる画像となっている。尚、以下の実施の形態
中においては入力画像a及びbの画像データがそれぞれ
N階調の濃淡画像データである場合について説明する。
Here, in the input images a and b, a subject as shown in FIG. 2 is captured by an electronic still camera, a video camera or the like in a part of the frames fa and fb, respectively, with some of the images overlapping. Has an overlapping image area (hereinafter also referred to as “overlapping part”), and in the present embodiment, as shown in FIGS. 3 and 4, the images have different exposure conditions at the time of imaging. There is. In the following embodiments, the case where the image data of the input images a and b is grayscale image data of N gradations will be described.

【0022】対応点抽出部20は、入力画像a及びb間
の画像中の重複する対応点を抽出するとともに、この対
応点抽出に対する信頼性の判定を行うものであり、対応
点の入力画像a及びb中の座標を内部のメモリーに格納
するようになっている。また、対応点を抽出する際に、
あらかじめ重複部が分からないので入力画像a中におい
て、所定の領域をテンプレート切り出し領域として設定
するようになっている。
The corresponding point extraction unit 20 extracts overlapping corresponding points in the images between the input images a and b and determines the reliability of the extraction of the corresponding points. The coordinates in and b are stored in the internal memory. Also, when extracting the corresponding points,
Since the overlapping portion is not known in advance, a predetermined area in the input image a is set as the template cutout area.

【0023】また、対応点抽出部20は、このテンプレ
ート切り出し領域を、入力画像a及びbが左、右の順に
並べられるものである場合には、入力画像aの水平方向
の右端から3割、垂直方向の1割から9割を入力画像a
におけるテンプレート切り出し領域(図5の領域T)と
し、図6の斜線で示すようにブロック単位で画像サイズ
の1割程度の大きさの小領域Taをテンプレートとして
切り出すようになっている。尚、この時、例えば入力画
像a及びbが上、下の順に並べられるものである場合に
は、入力画像aの水平方向の下端から3割、水平方向の
1割から9割を入力画像aにおけるテンプレート切り出
し領域とするようになっている。
When the input images a and b are arranged in the order of left and right, the corresponding point extracting unit 20 divides the template cutout area from the right end in the horizontal direction of the input image a by 30%. Input image a from 10% to 90% in the vertical direction
The template cutout area (area T in FIG. 5) is cut out as a template, and a small area Ta having a size of about 10% of the image size in block units is cut out as a template. At this time, for example, when the input images a and b are arranged in the order of top and bottom, 30% from the lower end in the horizontal direction of the input image a and 10% to 90% in the horizontal direction are input images a. The template cut-out area in is.

【0024】さらに、対応点抽出部20は、入力画像b
中において、あらかじめ重複部が分からないので、前記
切り出したテンプレートに対応する点を探索する所定の
領域を探索領域として設定するようになっている。
Further, the corresponding point extraction unit 20 determines that the input image b
Since the overlapping portion is not known in advance, a predetermined area in which to search for a point corresponding to the cut template is set as a search area.

【0025】この探索領域は、例えば図7で示した領域
Sのように設定されるものであり、本実施の形態におい
ては入力画像bの水平方向の左端からテンプレートの入
力画像a中の位置から5割左の位置まで、垂直方向はテ
ンプレートの入力画像a中の位置から±1割の位置まで
の領域に設定されるようになっており、この領域設定は
入力画像a及びbの重複部が水平方向で5割以下で、垂
直方向では±1割以上はずれないという条件に基づいて
いるものである。尚、入力画像a及びbの想定される重
複条件が異なる場合は、この対応点抽出の探索領域の設
定を変えれば良い。
This search area is set, for example, like the area S shown in FIG. 7, and in the present embodiment, from the left end of the input image b in the horizontal direction from the position in the input image a of the template. Up to 50% to the left, the vertical direction is set to an area from the position in the input image a of the template to a position of ± 10%. In this area setting, the overlapping portion of the input images a and b is set. It is based on the condition that it is 50% or less in the horizontal direction and ± 10% or more in the vertical direction. When the assumed overlapping conditions of the input images a and b are different, the setting of the search area for extracting the corresponding points may be changed.

【0026】パラメータ推定部40は、対応点ベクトル
から画像変換を行うパラメータを推定するものであり、
対応点抽出部20にて抽出された対応点位置から、座標
変換のパラメータを推定するようになっている。
The parameter estimating section 40 estimates a parameter for image conversion from the corresponding point vector,
From the corresponding point position extracted by the corresponding point extracting unit 20, the parameter of coordinate conversion is estimated.

【0027】また、パラメータ推定部40は、この座標
変換をアフィン変換により行うようになっており、入力
画像aに対して入力画像bがθ回転、(dx,dy)平
行移動、m倍の拡大変換した関係にあるとすると、入力
画像a中の点(xa,ya)は以下の式の入力画像b
中の点(xb,yb)に対応するようになっている。
Further, the parameter estimating section 40 is adapted to perform this coordinate transformation by affine transformation, and the input image b is rotated by θ with respect to the input image a, (dx, dy) is translated, and is enlarged m times. Assuming that there is a converted relationship, the point (xa, ya) in the input image a is the input image b of the following formula.
It corresponds to the middle point (xb, yb).

【0028】 xb=(cosθ・xa+sinθ・ya−dx)×m =A・xa+B・ya+C、 yb=(−sinθ・xa+cosθ・ya−dy)×m =−B・xa+A・ya+D ……式 但し、 A=m・cosθ、B=sinθ、c=−m・dx、D
=−m・dy である。
Xb = (cos θ · xa + sin θ · ya-dx) × m = A · xa + B · ya + C, yb = (− sin θ · xa + cos θ · ya-dy) × m = −B · xa + A · ya + D .. = M · cos θ, B = sin θ, c = −m · dx, D
= -M · dy.

【0029】パラメータ推定部40は、この時のパラメ
ータA、B、C、Dを最小自乗法により推定するように
なっている。但し、パラメータを求めるには対応点の座
標が最低2対必要であり、求まった対応点が1対の場合
には1/2画像に対して求まった対応点ベクトルの平均
値を平行移動パラメータとするようになっており、すな
わち、対応点ベクトルの平均値を(ax,ay)とする
とき、式のようにパラメータを設定し、出力するもの
である。
The parameter estimating section 40 is adapted to estimate the parameters A, B, C, D at this time by the method of least squares. However, at least two pairs of corresponding point coordinates are required to obtain the parameters, and when the obtained corresponding points are one pair, the average value of the corresponding point vectors obtained for the 1/2 image is set as the translation parameter. That is, when the average value of the corresponding point vectors is (ax, ay), the parameters are set and output as in the equation.

【0030】 A=1、B=0、C=−ax、D=−ay ……式 尚、パラメータ推定部40は、対応点が1対も求まらな
かった場合は以後の処理を行わないで、例えばCRTに
メッセージを出力し、処理を終了するようになってお
り、推定されたパラメータは重複部を予測する際に用い
られるようになっている。
A = 1, B = 0, C = −ax, D = −ay Formula ... Note that the parameter estimation unit 40 does not perform the subsequent process if no corresponding pair is found. Then, for example, a message is output to the CRT and the process is terminated, and the estimated parameter is used when predicting the overlapping portion.

【0031】画像変換合成部50は、重複部の中心が継
ぎ目になるように合成処理を行うようになっており、階
調変換部31及び32によって明るさを補正された入力
画像a及びbを変換パラメータで変換し、合成画像cの
画像領域を設定した後、一つの画像に合成するものであ
る。
The image conversion / synthesis unit 50 is configured to perform a synthesis process so that the center of the overlapping portion becomes a seam, and the input images a and b whose brightness is corrected by the gradation conversion units 31 and 32 are processed. The image is converted by the conversion parameter, the image area of the combined image c is set, and then combined into one image.

【0032】また、画像変換合成部50は、この画像領
域の設定を入力画像aの座標系を基準に行い、図8の破
線で示した領域のように設定するようになっている。す
なわち、左端は入力画像aの左端座標とし、右端は入力
画像bの右上端、右下端の画素を入力画像aの座標に変
換して求めた座標のうち大きい方の座標値とするように
なっている。
The image conversion / synthesis unit 50 sets the image area with reference to the coordinate system of the input image a, and sets the area as shown by the broken line in FIG. That is, the left end is the left end coordinate of the input image a, and the right end is the larger coordinate value of the coordinates obtained by converting the pixels at the upper right end and the lower right end of the input image b into the coordinates of the input image a. ing.

【0033】さらに、画像変換合成部50は、入力画像
bの座標から入力画像aの座標への変換を前記式のア
フィン変換の逆変換を用いて行うようになっている。す
なわち、逆変換のパラメータをA′、B′、C′、D′
とすると以下に示す式の変換を行うものである。
Further, the image conversion / synthesis unit 50 is adapted to convert the coordinates of the input image b into the coordinates of the input image a by using the inverse transform of the affine transformation of the above equation. That is, the parameters of the inverse transformation are A ′, B ′, C ′, D ′.
Then, the following equations are converted.

【0034】 xa=A′・xb+B′・yb+C′、 ya=−B′・xb+A′・yb+D′ ……式 但し、 A′=A/(A2 +B2 )、 B′=−B/(A2 +B2 )、 C′=(−AC+BD)/(A2 +B2 )、 D′=(−BC+AD)/(A2 +B2 ) である。[0034]     xa = A ′ · xb + B ′ · yb + C ′,     ya = -B '* xb + A' * yb + D '                                                               ……formula However, A '= A / (A2 + B2), B '=-B / (A2 + B2), C '= (-AC + BD) / (A2 + B2), D '= (-BC + AD) / (A2 + B2) Is.

【0035】尚、合成画像cの上端は入力画像aの上端
座標値及び入力画像bの右上端、左上端の画素を入力画
像aの座標に変換して求めた座標のうち小さい方の座標
値、下端は入力画像aの下端座標値及び入力画像b右下
端、左下端の画素を入力画像aの座標に変換して求めた
座標のうち大きい方の座標値とするようになっている。
The upper end of the composite image c has the upper end coordinate value of the input image a and the smaller one of the coordinates obtained by converting the pixels at the upper right end and the upper left end of the input image b into the coordinates of the input image a. , The lower end is the coordinate value of the lower end of the input image a and the larger one of the coordinates obtained by converting the pixels at the lower right end and the lower left end of the input image b into the coordinates of the input image a.

【0036】ここで、上記のようにして画像変換合成部
50により求められた入力画像a及びbの合成画像cの
画像は、図9のようになる。尚、図9において斜線で示
した部分は入力画像a及びbどちらからも画素の割当て
がなされない領域でダミー画素(たとえば、白画素等)
が入るようになっている。
Here, the image of the composite image c of the input images a and b obtained by the image conversion / synthesis unit 50 as described above is as shown in FIG. It should be noted that the hatched portion in FIG. 9 is a region in which pixels are not assigned from either of the input images a and b, and dummy pixels (for example, white pixels).
Is supposed to enter.

【0037】階調変換部31及び32は、重複した画像
領域内の画像状態に応じて入力画像a及びbの画像を補
正するものであり、後述する検出手段としての階調補正
係数決定部30の検出結果に基づき重複した画像領域の
階調が等しくなるよう前記複数の画像を補正する補正手
段としての機能を有し、本実施の形態においてはそれぞ
れ入力画像a及びbに対して階調変換を行い、2つの画
像の重複する画像領域での明るさを等しくするよう補正
するものである。
The gradation converting units 31 and 32 are for correcting the images of the input images a and b according to the image states in the overlapping image areas, and the gradation correction coefficient determining unit 30 as a detecting means described later. It has a function as a correction unit that corrects the plurality of images so that the gradations of the overlapping image areas become equal based on the detection result of 1. In this embodiment, gradation conversion is performed on the input images a and b, respectively. Is performed to correct the brightness in the overlapping image areas of the two images to be equal.

【0038】尚、階調変換部31及び32は、重複部内
にあると判定された画素値の階調平均値をPa、Pbと
すると、次の式に基づいて画素値pa′、pb′を求め
補正を行うようになっている。
When the gradation average values of the pixel values determined to be in the overlapping part are Pa and Pb, the gradation conversion units 31 and 32 calculate the pixel values pa 'and pb' based on the following equations. It is designed to perform the required correction.

【0039】 pa′=pa×N/(N+Pa−Pb)、 pb′=(pb+Pa−Pb)×N/(N+Pa−Pb) ……式 但し、pa、pbはそれぞれ入力画像a及びbの画素
値、Nは階調数。
Pa ′ = pa × N / (N + Pa−Pb), pb ′ = (pb + Pa−Pb) × N / (N + Pa−Pb) ... where p a and p b are pixel values of the input images a and b, respectively. , N is the number of gradations.

【0040】尚、ここで、重複部での被写体は一致して
いるので入力画像a及びbが同じ露光条件で撮像されて
いればPaとPbは等しくなるはずであるが、図3、図
4で示したように撮像された場合には、横軸に被写体の
明るさ、縦軸に撮像時の画像データの階調をとると入力
画像a及びbの撮像時の特性は図10に示すようになっ
ている(但し、図10において、入力画像aに対する特
性は10aに、入力画像bに対する特性は10bで表さ
れている)。
It should be noted that, since the subjects in the overlapped portions are the same, Pa and Pb should be equal if the input images a and b are imaged under the same exposure condition, but FIGS. If the brightness of the subject is plotted on the horizontal axis and the gradation of the image data at the time of image pickup is taken on the vertical axis, the characteristics of the input images a and b at the time of image pickup are as shown in FIG. (However, in FIG. 10, the characteristic for the input image a is represented by 10a, and the characteristic for the input image b is represented by 10b).

【0041】そこで、本実施の形態では階調変換部31
及び32により、この特性を図11のように近似して考
え、それぞれの入力画像間の重複部での被写体の階調が
等しくなるように階調補正を式に従い行うようになっ
ている(但し、図11において、入力画像aに対する特
性は11aに、入力画像bに対する特性は11bで表さ
れている)。すなわち、入力画像bの階調を図11の矢
印の分だけ上げ、また、画素値のダイナミックレンジが
矢印の分だけ増えるので、もとの階調に正規化するよう
になっている。
Therefore, in the present embodiment, the gradation conversion unit 31
And 32, this characteristic is approximated as shown in FIG. 11, and the gradation correction is performed according to the equation so that the gradations of the subject in the overlapping portions between the respective input images become equal (however, 11, the characteristic for the input image a is represented by 11a, and the characteristic for the input image b is represented by 11b). That is, since the gradation of the input image b is increased by the amount of the arrow in FIG. 11 and the dynamic range of pixel values is increased by the amount of the arrow, the original gradation is normalized.

【0042】階調補正係数決定部30は、各入力画像で
の座標値が重複部にあるかどうかをパラメータ推定部4
0の出力パラメータを用いて判定するものである。すな
わち、入力画像aの各座標値を式に従い、アフィン変
換を行い、入力画像bの座標値に変換し、この座標値が
入力画像bの領域内かどうかを判定するようになってい
る。
The tone correction coefficient determination unit 30 determines whether the coordinate values in each input image are in the overlapping portion or not by the parameter estimation unit 4.
This is determined using an output parameter of 0. That is, each coordinate value of the input image a is affine-transformed according to an equation to be converted into the coordinate value of the input image b, and it is determined whether or not the coordinate value is within the area of the input image b.

【0043】また、階調補正係数決定部30は、入力画
像a及びbの階調を検出する検出手段としての機能を有
し、重複部内にあると判定された画素値を入力画像a及
びbについてそれぞれ加算し、重複部の全画素について
処理が終わった後、それぞれの画素値の階調平均値P
a、Pbをそれぞれ計算するものであるが、像面照度比
の特性が光軸付近と周辺で著しく差のある画像の場合に
は、重複部の全領域内で平均値を計算しないで、図12
の領域Vに示した重複部の中心付近で平均値を計算する
ようになっているものである。
Further, the gradation correction coefficient determining unit 30 has a function as a detecting means for detecting the gradations of the input images a and b, and the pixel values determined to be in the overlapping part are input image a and b. For each pixel, and after the processing is completed for all the pixels in the overlapping part, the gradation average value P of the respective pixel values is added.
a and Pb are calculated respectively. However, in the case of an image in which the characteristics of the image plane illuminance ratio are significantly different in the vicinity of the optical axis and in the periphery, the average value is not calculated in the entire area of the overlapping portion. 12
The average value is calculated in the vicinity of the center of the overlapping portion shown in the area V.

【0044】さらに、階調補正係数決定部30は、入力
画像a及びbの重複する部分の画像データから、階調変
換部31及び32において階調補正を行う際の補正係数
を決定するものである。但しこの補正係数は、前記式
における係数(Pa−Pb)及びN/(N+Pa−P
b)で表されるものである。
Further, the gradation correction coefficient determination unit 30 determines the correction coefficient for performing the gradation correction in the gradation conversion units 31 and 32 from the image data of the overlapping portions of the input images a and b. is there. However, this correction coefficient is the coefficient (Pa-Pb) and N / (N + Pa-P) in the above equation.
It is represented by b).

【0045】尚、本実施の形態では前述のように画像変
換合成部50により、重複部の中心が継ぎ目になるよう
に合成処理を行うようになっているが、このことは撮像
光学系の光軸付近と周辺での像面照度比が一般のレンズ
では図13のように、光軸から像点までの距離に依存
し、重複部の中心である継ぎ目付近では同一被写体に対
して像面照度比が等しくなる点からも都合が良い。
In the present embodiment, as described above, the image conversion / synthesis unit 50 performs the synthesis process so that the center of the overlapping portion becomes a seam. In a general lens, the image plane illuminance ratio near and around the axis depends on the distance from the optical axis to the image point as shown in FIG. 13, and the image plane illuminance for the same subject near the seam, which is the center of the overlapping portion. It is also convenient in that the ratio becomes equal.

【0046】すなわち、図14において点Qではそれぞ
れ入力画像a及びbの中心O、O′からの距離をhQ、
hQ′とするとhQ<hQ′なので、被写体の明るさは
一致しないが、重複部の中心付近にある点Rではそれぞ
れ入力画像a及びbの中心O、O′からの距離をhR、
hR′とするとhR=hR′なので、被写体の明るさは
一致する。
That is, in FIG. 14, at the point Q, the distances from the centers O and O'of the input images a and b are hQ and
If hQ ′, hQ <hQ ′, so that the brightness of the subject does not match, but at the point R near the center of the overlapping portion, the distances from the centers O and O ′ of the input images a and b are hR,
If hR ′, then hR = hR ′, so that the brightness of the subject matches.

【0047】従って、図13に示すように像面照度比の
特性が光軸付近と周辺で著しく差のある例えば広角レン
ズのような撮像光学系で撮像した入力画像を合成処理す
る際には、重複部の全領域内でそれぞれの入力画像の平
均値を算出して階調補正を行うよりも、重複部の中心付
近での被写体の明るさが一致した部分での平均値を算出
して階調補正を行う方が精度よく補正が行え、露光条件
により生じる継ぎ目が目立たなくなるのである。
Therefore, as shown in FIG. 13, when synthesizing an input image picked up by an image pickup optical system such as a wide-angle lens in which the characteristic of the image plane illuminance ratio is significantly different between the vicinity of the optical axis and the periphery, Rather than calculating the average value of each input image in the entire overlapping area and performing gradation correction, calculate the average value in the area where the brightness of the subject matches near the center of the overlapping area The tonality correction can be performed more accurately and the seam caused by the exposure condition becomes less noticeable.

【0048】次に、入力画像a及びbから合成画像cを
生成するときの本発明の第1の実施の形態の画像合成装
置の動作を説明する。
Next, the operation of the image synthesizing apparatus according to the first embodiment of the present invention when the synthetic image c is generated from the input images a and b will be described.

【0049】まず、対応点抽出部20で対応点抽出を行
う際の動作について説明する。
First, the operation when the corresponding point extraction unit 20 extracts the corresponding points will be described.

【0050】図15は、対応点抽出部20の処理アルゴ
リズムを示すフローチャートである。
FIG. 15 is a flow chart showing the processing algorithm of the corresponding point extraction unit 20.

【0051】同図において、まず、対応点抽出部20
は、入力画像aからテンプレート切り出し領域の設定を
行う(ステップS21)。
In the figure, first, the corresponding point extraction unit 20
Sets the template cutout area from the input image a (step S21).

【0052】そして、切り出した全テンプレートについ
て以下のステップステップS22〜ステップS24によ
る処理を行う。
Then, the processes in the following steps S22 to S24 are performed on all the cut out templates.

【0053】まず、切り出したテンプレートに対応する
点を探索する探索領域を入力画像bから設定する(ステ
ップS22)。この時、あらかじめ重複領域が分からな
いので所定の領域を探索領域とし、例えば図7に示す斜
線で示した領域Sを探索領域とする。
First, a search area for searching for a point corresponding to the cut template is set from the input image b (step S22). At this time, since the overlapping area is not known in advance, a predetermined area is set as the search area, and, for example, the hatched area S shown in FIG. 7 is set as the search area.

【0054】次に、この探索領域内でテンプレートを平
行にずらしていき、入力画像aとbの差分が計算され
る。そして、差の絶対値の総和が最小となる位置を対応
点位置とする(ステップS23)。
Next, the template is shifted in parallel within this search area, and the difference between the input images a and b is calculated. Then, the position where the sum of the absolute values of the differences is the minimum is set as the corresponding point position (step S23).

【0055】そして、ステップS23の結果に対する信
頼性の判定を行う(ステップS24)。
Then, the reliability of the result of step S23 is determined (step S24).

【0056】この信頼性の判定は、最小値となった差の
絶対値の総和及び2番目に小さい差の絶対値の総和を用
いて行なわれる。本実施の形態の場合は差の絶対値の総
和の最小値が第1の所定の閾値以下、差の絶対値の総和
の2番目に小さい値と最小値の差が第2の所定の閾値以
上あった時に対応点に信頼性があると判断し、対応点の
入力画像a及びb中の座標を対応点抽出部20内のメモ
リーに格納しておく。
This reliability determination is performed using the sum of absolute values of the differences that have become the minimum value and the sum of absolute values of the second smallest differences. In the case of the present embodiment, the minimum sum of absolute differences is less than or equal to a first predetermined threshold, and the difference between the second smallest sum of absolute differences and the minimum is greater than or equal to a second predetermined threshold. If so, the corresponding point is determined to be reliable, and the coordinates of the corresponding point in the input images a and b are stored in the memory in the corresponding point extracting unit 20.

【0057】尚、ここで上記では、差の絶対値の総和が
最小となる位置を対応点位置としたが、例えば相関演算
を行って、相関値が最大となる位置を対応点位置として
もよい。
In the above description, the position where the sum of the absolute values of the differences is the minimum is the corresponding point position. However, for example, correlation calculation may be performed and the position where the correlation value is the maximum may be the corresponding point position. .

【0058】また、入力画像a及びbの対応点を画像デ
ータから上記処理により抽出したが、例えば、2つの画
像をディスプレイ上に表示し、画像中の同一な点をカー
ソル等で指定して抽出してもよい。
Although the corresponding points of the input images a and b were extracted from the image data by the above processing, for example, two images are displayed on the display and the same points in the images are designated by a cursor or the like and extracted. You may.

【0059】次に、階調補正係数決定部30及び階調変
換部31及び32における動作を説明する。
Next, the operation of the gradation correction coefficient determining section 30 and the gradation converting sections 31 and 32 will be described.

【0060】図16は、階調補正係数決定部30及び階
調変換部31及び32の処理アルゴリズムを示すフロー
チャートである。
FIG. 16 is a flow chart showing the processing algorithm of the gradation correction coefficient determination unit 30 and the gradation conversion units 31 and 32.

【0061】同図において、まず、階調補正係数決定部
30は、各入力画像での座標値が重複部にあるかどうか
をパラメータ推定部40の出力パラメータを用いて判定
する(ステップS1)。すなわち、入力画像aの各座標
値を式に従い、アフィン変換を行い、入力画像bの座
標値に変換し、この座標値が入力画像bの領域内かどう
かを判定する。
In the figure, first, the gradation correction coefficient determination unit 30 determines whether or not the coordinate values in each input image are in the overlapping portion by using the output parameter of the parameter estimation unit 40 (step S1). That is, each coordinate value of the input image a is affine-transformed according to an equation to be converted into the coordinate value of the input image b, and it is determined whether or not the coordinate value is within the area of the input image b.

【0062】次に、重複部内にあると判定された画素値
を入力画像a及びbについてそれぞれ加算し、重複部の
全画素について処理が終わった後、それぞれの画素値の
階調平均値Pa、Pbをそれぞれ計算する(ステップS
2)。
Next, the pixel values determined to be in the overlapping portion are added to the input images a and b, respectively, and after the processing is completed for all the pixels in the overlapping portion, the gradation average value Pa of the respective pixel values, Calculate Pb respectively (step S
2).

【0063】そして、階調補正係数決定部30が、さら
に前述の式における係数(Pa−Pb)及びN/(N
+Pa−Pb)を計算すると(ステップS3)、階調変
換部31及び32は、各入力画像について全画面で式
に基づいて階調補正の処理を行う(ステップS4)。
Then, the gradation correction coefficient determination unit 30 further uses the coefficients (Pa-Pb) and N / (N) in the above equation.
When + Pa−Pb) is calculated (step S3), the gradation conversion units 31 and 32 perform gradation correction processing for each input image on the entire screen based on the formula (step S4).

【0064】尚、上記実施の形態中では階調補正にそれ
ぞれ入力画像a及びbの重複部の画素値の平均値を用い
たが、例えば重複部の画素値の中央値を用いてもほぼ同
等の効果が得られる。
In the above embodiment, the average value of the pixel values of the overlapping portions of the input images a and b is used for the gradation correction, but it is almost the same even if the median value of the pixel values of the overlapping portion is used. The effect of is obtained.

【0065】また、画素平均を行う重複部画素の判定を
パラメータ推定部40の出力パラメータを用いて行って
いるが、対応点抽出部20の出力である対応点座標から
直接判定してもよい。この時、対応点抽出が行えた対応
点の各画素値を別々に加算して、それぞれの平均値を求
めればよい。
Further, although the determination of the overlapped portion pixel for which the pixel averaging is performed is performed using the output parameter of the parameter estimation unit 40, the determination may be made directly from the corresponding point coordinates output from the corresponding point extraction unit 20. At this time, the pixel values of the corresponding points from which the corresponding points have been extracted may be added separately to obtain the respective average values.

【0066】最後に、画像変換合成部50による合成画
像cの生成に係る動作について説明する。
Finally, the operation relating to the generation of the composite image c by the image conversion / composition unit 50 will be described.

【0067】図17は、画像変換合成部50の処理アル
ゴリズムを示すフローチャートである。
FIG. 17 is a flowchart showing the processing algorithm of the image conversion / synthesis unit 50.

【0068】同図において、まず、画像変換合成部50
は、合成画像cの画像領域を設定する(ステップS5
1)。
In the same figure, first, the image conversion / synthesis unit 50.
Sets the image area of the composite image c (step S5).
1).

【0069】次に、継ぎ目の位置を重複部の中心となる
よう図8の破線Lで示したように設定する(ステップS
52)。すなわち、入力画像aの右端座標値と、入力画
像bの左上端、左下端の画素を入力画像aの座標に変換
して求めた座標のうち小さい方の座標値との平均値を継
ぎ目の位置とする。
Next, the position of the joint is set as shown by the broken line L in FIG. 8 so as to be the center of the overlapping portion (step S).
52). That is, the average value of the right edge coordinate value of the input image a and the smaller coordinate value of the coordinates obtained by converting the pixels at the upper left corner and the lower left edge of the input image b into the coordinates of the input image a is the position of the seam. And

【0070】そして、ステップS51で設定した合成画
像cの領域に対してそれぞれ画素値を求める(ステップ
S53)。
Then, the pixel value is obtained for each area of the composite image c set at step S51 (step S53).

【0071】まず、入力画像aの領域内であるものに対
しては入力画像aの画素値をそのまま書き込む(ステッ
プS54)。
First, the pixel values of the input image a are written as they are in the area of the input image a (step S54).

【0072】そして、座標値を入力画像bの座標値に変
換してその位置の入力画像bの画素値をそのまま書き込
む(ステップS55)。この時、すでに入力画像aの画
素値が書き込まれていた場合は、継ぎ目の位置より右に
あるものについてのみ書き込むようにする。
Then, the coordinate value is converted into the coordinate value of the input image b, and the pixel value of the input image b at that position is written as it is (step S55). At this time, if the pixel values of the input image a have already been written, only those on the right of the position of the seam are written.

【0073】このようにして求めた合成画像cの画像は
図9のようになる。図9で斜線で示した部分は入力画像
a及びbどちらからも画素の割当てがなされない領域で
ダミー画素(たとえば、白画素等)が入る。
The image of the composite image c thus obtained is as shown in FIG. The hatched portion in FIG. 9 is a region in which pixels are not assigned from either the input images a or b, and dummy pixels (for example, white pixels) enter.

【0074】尚、上記において、撮像光学系の像面照度
比があらかじめ分っている場合は本発明の画像合成処理
を行う前処理としてそれぞれの入力画像の像面照度比が
全画像領域で1になるように補正を行ってもよいことは
言うまでもない。
In the above, when the image plane illuminance ratio of the image pickup optical system is known in advance, the image plane illuminance ratio of each input image is 1 in the entire image area as a pre-process for performing the image combining process of the present invention. It goes without saying that the correction may be performed so that

【0075】また、以上において、本実施の形態の画像
変換合成部50では、合成時の画像は入力画像a及びb
のどちらかを割り当てるようにしたが、重複部内で入力
画像a及びbの平均値を割り当ててもよい。また、重複
部内で入力画像a及びbの画素値に水平方向に可変に重
みを付けて、平均値を割り当ててもよい。
Further, in the above, in the image conversion / synthesis unit 50 of the present embodiment, the images at the time of synthesis are the input images a and b.
However, the average value of the input images a and b may be allocated in the overlapping portion. Also, the pixel values of the input images a and b may be weighted in the horizontal direction in a variable manner in the overlapping portion, and the average value may be assigned.

【0076】以上説明したように、本実施の形態によれ
ば、入力画像の重複部の同一被写体が撮像されている領
域で階調補正を行うので、入力画像の露光条件が異なっ
た場合でも、継ぎ目が目立たないよう画像を合成するこ
とができる。
As described above, according to the present embodiment, the gradation correction is performed in the area where the same subject is imaged in the overlapping portion of the input images, so that even if the exposure conditions of the input images are different, Images can be combined so that the seams are inconspicuous.

【0077】そして、画像重複部の中心付近の画像デー
タを用いて補正を行っているので、像面照度比の特性が
光軸付近と周辺で著しく差のある撮像光学系で撮像した
場合にも継ぎ目が目立たないよう画像を合成することが
できる。
Since the correction is performed using the image data in the vicinity of the center of the image overlapping portion, even when an image is picked up by an image pickup optical system in which the characteristic of the image plane illuminance ratio is significantly different between the vicinity of the optical axis and the periphery. Images can be combined so that the seams are inconspicuous.

【0078】(第2の実施の形態)次に、本発明の第2
の実施の形態について説明する。
(Second Embodiment) Next, the second embodiment of the present invention will be described.
The embodiment will be described.

【0079】本発明の第2の実施の形態の画像合成装置
の構成は、図1に示した第1の実施の形態の構成とほぼ
同様のであり、階調補正の方法のみ異なるので、以下、
第1の実施の形態と異なる階調補正の方法について説明
する。
The configuration of the image synthesizing apparatus according to the second embodiment of the present invention is almost the same as the configuration of the first embodiment shown in FIG. 1 and only the gradation correction method is different.
A gradation correction method different from that of the first embodiment will be described.

【0080】前記第1の実施の形態では、階調変換部3
1及び32において、階調補正を重複部内にあると判定
された画素値の階調平均値をPa、Pbを用いた式に
基づいて行ったが、第2の実施の形態では、入力画像a
及びbそれぞれについて画素値の比較的明るいものと、
暗いものの階調平均値をPa1、Pb1、Pa2及びP
b2として、次の式に基づいて画素値pa′、pb′
を求め階調補正を行うようになっている。
In the first embodiment, the gradation conversion section 3
In 1 and 32, the gradation correction is performed based on the gradation average value of the pixel values determined to be within the overlapping portion based on the expression using Pa and Pb. However, in the second embodiment, the input image a
And b having relatively bright pixel values,
The gradation average value of dark ones is Pa1, Pb1, Pa2 and P
As b2, pixel values pa ', pb' are calculated based on the following equations.
Is calculated and gradation correction is performed.

【0081】 pa′=pa×K2、 pb′=(K1×pb+K0)+K2 ……式 但し、 K1=(Pa2−Pa1)/(Pb2−Pb1)、 K0=(Pa1×Pb2−Pa2×Pb1/(Pb2−
Pb1)、 K2=N/(K1×(N−Pb1)+Pa1) である。
Pa ′ = pa × K2, pb ′ = (K1 × pb + K0) + K2 ... where K1 = (Pa2-Pa1) / (Pb2-Pb1), K0 = (Pa1 × Pb2-Pa2 × Pb1 / ( Pb2-
Pb1) and K2 = N / (K1 * (N-Pb1) + Pa1).

【0082】以下、この式の導出についての説明をす
る。
The derivation of this equation will be described below.

【0083】まず、画像合成に係る重複部での被写体は
一致しているので入力画像a及びbが同じ露光条件で撮
像されていれば階調平均値Pa1とPb1、Pa2とP
b2は等しくなるはずである。しかし、第1の実施の形
態と同様に、図3、図4で説明したように撮像された場
合には、横軸に被写体の明るさ、縦軸に撮像時の画像デ
ータの階調をとると入力画像a及びbの撮像時の特性は
図10に示すようになっている。
First, since the subjects in the overlapping portion related to the image combination are the same, if the input images a and b are imaged under the same exposure condition, the gradation average values Pa1 and Pb1, Pa2 and P2 are obtained.
b2 should be equal. However, as in the first embodiment, when the image is captured as described with reference to FIGS. 3 and 4, the horizontal axis indicates the brightness of the subject and the vertical axis indicates the gradation of the image data at the time of image capturing. The characteristics when the input images a and b are captured are as shown in FIG.

【0084】本実施の形態では、図10に示されるよう
な撮像時の被写体の明るさと画像データの階調の特性を
図18のように近似して考え、それぞれの入力画像間の
重複部での被写体の階調が等しくなるように階調補正を
行う(但し、図18において、入力画像aに対する特性
は18aに、入力画像bに対する特性は18bで表され
ている)。すなわち、2つの階調平均値に相当する被写
体が明るさを図18のL1、L2としたとき、入力画像
bの階調をそれぞれ図18の矢印D1、D2の分だけ上
げる。そして、入力画像bの階調は以下の式のように
補正される。
In the present embodiment, the characteristics of the brightness of the subject and the gradation of the image data at the time of image pickup as shown in FIG. 10 are approximated as shown in FIG. 18, and the overlapping portion between the respective input images is considered. The gradation correction is performed so that the gradations of the subject are the same (however, in FIG. 18, the characteristic for the input image a is represented by 18a and the characteristic for the input image b is represented by 18b). That is, when the brightness of the subject corresponding to the two gradation average values is L1 and L2 in FIG. 18, the gradation of the input image b is increased by the amounts of arrows D1 and D2 in FIG. 18, respectively. Then, the gradation of the input image b is corrected by the following equation.

【0085】 pb′=K1×pb+K0 ……式 但し、 K1=(Pa2−Pa1)/(Pb2−Pb1)、 K0=(Pa1×Pb2−Pa2×Pb1/(Pb2−
Pb1) である。
Pb ′ = K1 × pb + K0 Equation where K1 = (Pa2-Pa1) / (Pb2-Pb1), K0 = (Pa1 × Pb2-Pa2 × Pb1 / (Pb2-
Pb1).

【0086】さらに、この式において画素値のダイナ
ミックレンジが増えた分だけもとの階調に正規化する
と、前記式が導出される。
Further, when the dynamic range of the pixel value in this expression is increased to the original gradation, the above expression is derived.

【0087】尚、階調補正係数決定部30は、第1の実
施の形態と同様に、前記入力画像a及びbの重複部の画
像データから、階調変換部31及び32において階調補
正を行う際の補正係数を決定するものである。
The gradation correction coefficient determining unit 30 performs gradation correction in the gradation converting units 31 and 32 from the image data of the overlapping portion of the input images a and b, as in the first embodiment. The correction coefficient for the execution is determined.

【0088】但し、ここで第2の実施の形態での補正係
数は、前記式における係数K0、K1及びK2で表さ
れるものである。
However, the correction coefficient in the second embodiment is represented by the coefficients K0, K1 and K2 in the above equation.

【0089】次に、本発明の第2の実施の形態に係る動
作を階調補正係数決定部30及び階調変換部31及び3
2における動作を中心に説明する。
Next, the operation according to the second embodiment of the present invention will be described with reference to the gradation correction coefficient determination unit 30 and the gradation conversion units 31 and 3.
The operation in 2 will be mainly described.

【0090】図19は、階調補正係数決定部30及び階
調変換部31及び32の処理アルゴリズムを示すフロー
チャートである。
FIG. 19 is a flow chart showing the processing algorithm of the gradation correction coefficient determination unit 30 and the gradation conversion units 31 and 32.

【0091】同図において、まず、階調補正係数決定部
30は、各入力画像での座標値が重複部にあるかどうか
をパラメータ推定部40の出力パラメータを用いて判定
する(ステップS11)。すなわち、入力画像aの各座
標値を式に従い、アフィン変換を行い、入力画像bの
座標値に変換し、この座標値が入力画像bの領域内かど
うかを判定する。
In the figure, first, the gradation correction coefficient determination unit 30 determines whether or not the coordinate value in each input image is in the overlapping portion by using the output parameter of the parameter estimation unit 40 (step S11). That is, each coordinate value of the input image a is affine-transformed according to an equation to be converted into the coordinate value of the input image b, and it is determined whether or not the coordinate value is within the area of the input image b.

【0092】次に、重複部内にあると判定された画素値
を入力画像a及びbについてそれぞれ加算するが、本実
施の形態では画素値の比較的明るいものと、暗いものの
階調平均値Pa1、Pb1、Pa2及びPb2を入力画
像a及びbそれぞれについて計算する(ステップS1
2)。
Next, the pixel values determined to be within the overlapping portion are added to the input images a and b, respectively. In the present embodiment, the gradation average values Pa1 of relatively bright and dark pixel values, Pb1, Pa2, and Pb2 are calculated for each of the input images a and b (step S1
2).

【0093】この時、入力画像aの画素値が所定の閾値
より大きい画素値とそれに対応する入力画像bの画素値
をそれぞれ加算し、同様に所定の閾値より小さい画素値
とそれに対応する入力画像bの画素値をそれぞれ加算す
る。そして重複部の全画素について処理が終わった後、
それぞれの画素値の2つの明るさに対応する階調平均値
Pa1、Pb1、Pa2、Pb2をそれぞれ計算する。
At this time, the pixel value of the input image a having a pixel value larger than a predetermined threshold value and the pixel value of the corresponding input image b are added respectively, and similarly, the pixel value smaller than the predetermined threshold value and the corresponding input image The pixel values of b are added together. And after the processing is completed for all the pixels in the overlapping part,
The gradation average values Pa1, Pb1, Pa2, Pb2 corresponding to the two brightnesses of the respective pixel values are calculated.

【0094】そして、階調補正係数決定部30で、係数
K0、K1、K2をあらかじめ計算し(ステップS1
3)、階調変換部31及び32により各入力画像につい
て全画面で式に基づいて階調補正の処理を行う(ステ
ップS14)。
Then, the gradation correction coefficient determination unit 30 calculates the coefficients K0, K1 and K2 in advance (step S1).
3), the gradation conversion units 31 and 32 perform gradation correction processing for each input image on the entire screen based on the formula (step S14).

【0095】(第3の実施の形態)次に、本発明の第3
の実施の形態について説明する。
(Third Embodiment) Next, the third embodiment of the present invention will be described.
The embodiment will be described.

【0096】本発明の第3の実施の形態の画像合成装置
の構成を図20に示す。本実施の形態の構成は、図1に
示した第1の実施の形態の構成とほぼ同様であるが、本
実施の形態では階調補正係数決定部30で階調補正係数
を求める際に対応点抽出部20の出力である対応点座標
をそのまま用いるようになっている。
FIG. 20 shows the configuration of the image composition apparatus according to the third embodiment of the present invention. The configuration of the present embodiment is almost the same as the configuration of the first embodiment shown in FIG. 1, but in the present embodiment, it corresponds to the case where the gradation correction coefficient determination unit 30 obtains the gradation correction coefficient. The corresponding point coordinates output from the point extraction unit 20 are used as they are.

【0097】以下、本発明の第1の実施の形態とは階調
補正の方法のみ異なるので、この階調補正の方法につい
てのみ説明する。
Since only the gradation correction method is different from that of the first embodiment of the present invention, only the gradation correction method will be described below.

【0098】本実施の形態では、前記第2の実施の形態
と同様に図10に示した入力画像a及びbの撮像時の特
性を図18のように近似して考え、それぞれの入力画像
間の重複での被写体の階調が等しくなるように階調補正
を行う。従って、式、式と同様に以下の式に示す
方法で画素値pa′、pb′を求め階調補正を行う。
In the present embodiment, similar to the second embodiment, the characteristics of the input images a and b shown in FIG. 10 at the time of image pickup are approximated as shown in FIG. The gradation correction is performed so that the gradations of the subject are the same in the overlapping. Therefore, similarly to the equations, the pixel values pa ′ and pb ′ are obtained by the method shown in the following equations, and gradation correction is performed.

【0099】 pa′=pa×K2′、 pb′=(K1′×pb+K0′)×K2′ ……式 但し、 K2′=N/(K1′×(N−Pb′)+Pa′) である。[0099]   pa ′ = pa × K2 ′,   pb ′ = (K1 ′ × pb + K0 ′) × K2 ′                                                               ……formula However, K2 '= N / (K1'x (N-Pb') + Pa ') Is.

【0100】しかし、本実施の形態においては、階調補
正係数決定部30で対応点抽出部20の出力である対応
点座標をそのまま用いて式の係数K0′、K1′、K
2′を求めるようになっている。
However, in the present embodiment, the gradation correction coefficient determination unit 30 uses the corresponding point coordinates output from the corresponding point extraction unit 20 as they are, and the coefficients K0 ', K1', K of the equation.
2'is required.

【0101】以下、その方法について説明する。まず、
式の式に対応する以下の式の係数K0′、K1′
を求める。
The method will be described below. First,
Coefficients K0 'and K1' in the following equations corresponding to the equations
Ask for.

【0102】 pb′=K1′×pb+K0′ ……式 ここで、入力画像a及びbの対応する点では同じ露光条
件で撮像した場合は階調が等しいので、対応点抽出部2
0の出力である対応点座標の画素値の内、入力画像bの
画素値を式の右辺のpbに代入して計算した画素値と
入力画像aの画素値との差の自乗の絶対値が最小となる
よう抽出された全ての対応点の画素値から、係数K
0′、K1′を求める。
Pb ′ = K1 ′ × pb + K0 ′ Equation (3) Here, the corresponding points of the input images a and b have the same gradation when imaged under the same exposure condition, and therefore the corresponding point extraction unit 2
The absolute value of the square of the difference between the pixel value calculated by substituting the pixel value of the input image b into pb on the right side of the equation among the pixel values of the corresponding point coordinates that are 0 output is the pixel value of the input image a. From the pixel values of all the corresponding points extracted to be the minimum, the coefficient K
0'and K1 'are obtained.

【0103】そして、同時に抽出された全ての対応点の
画素値の平均値をPa′、Pb′として求めておく。
Then, the average values of the pixel values of all the corresponding points extracted at the same time are obtained as Pa 'and Pb'.

【0104】以上の処理を階調補正係数決定部30で行
い、階調変換部31及び32では式に従いそれぞれの
入力画像の階調補正を行うようになっている。
The gradation correction coefficient determination unit 30 performs the above processing, and the gradation conversion units 31 and 32 correct the gradation of each input image according to the formula.

【0105】(第4の実施の形態)次に、本発明の第4
の実施の形態について説明する。
(Fourth Embodiment) Next, the fourth embodiment of the present invention will be described.
The embodiment will be described.

【0106】本発明の第4の実施の形態の画像合成装置
の構成は図1に示した本発明の第1の実施の形態の構成
と同様のものであり、階調補正の方法のみ異なるので、
この階調補正の方法について説明する。
The configuration of the image synthesizing apparatus according to the fourth embodiment of the present invention is the same as that of the first embodiment of the present invention shown in FIG. 1, and only the gradation correction method is different. ,
The gradation correction method will be described.

【0107】本実施の形態では、入力画像a及びbの取
りうる階調はN階調であるが、画像全領域での画像デー
タの最小、最大値がそれぞれNamin、Namax、
Nbmin、Nbmaxである場合を対象とした階調補
正の方法を説明する。
In this embodiment, the gradations that the input images a and b can take are N gradations, but the minimum and maximum values of the image data in the entire image area are Namin, Namax, and
A gradation correction method for Nbmin and Nbmax will be described.

【0108】すなわち、図10に示した入力画像a及び
bの撮像時の特性が図21であった場合を考え、さらに
この特性を図22のように近似し、それぞれの入力画像
間の重複部での被写体の階調が等しくなるように階調補
正を行う(但し、図21及び図22において、入力画像
aに対する特性は21a、22aに、入力画像bに対す
る特性は21b、22bで表されている)。
That is, let us consider a case where the characteristics of the input images a and b shown in FIG. 10 at the time of imaging are as shown in FIG. 21, and further approximate this characteristic as shown in FIG. The gradation correction is performed so that the gradations of the subject are the same (however, in FIGS. 21 and 22, the characteristics for the input image a are represented by 21a and 22a, and the characteristics for the input image b are represented by 21b and 22b. Exist).

【0109】この時の階調補正係数決定部30及び階調
変換部31及び32の処理アルゴリズムは図16に示し
たものと同様であるが、ステップS1の処理を行う前に
まず、入力画像a及びbの画像全領域についての最小、
最大値を求めておく。そして、図16に示した本発明の
第1の実施の形態と同様の処理を行う。但し、画素値の
実質のダイナミックレンズをN階調まで引き伸ばすた
め、正規化に画像データの最小、最大値Namin、N
amax、Nbmin、Nbmaxを用いる。すなわ
ち、以下の式により、画素値pa′、pb′を求め階
調補正を行う。
The processing algorithm of the gradation correction coefficient determining unit 30 and the gradation converting units 31 and 32 at this time is the same as that shown in FIG. 16, but before the processing of step S1 is performed, first, the input image a And the minimum for the entire image area of b,
Find the maximum value. Then, the same processing as that of the first embodiment of the present invention shown in FIG. 16 is performed. However, since the actual dynamic lens of the pixel value is expanded to N gradations, the minimum and maximum values Namin, N of the image data are normalized.
amax, Nbmin, and Nbmax are used. That is, the pixel values pa 'and pb' are obtained by the following equation and gradation correction is performed.

【0110】 pa′=(pa−Nmin)×N/(Nmax−Nmin+1)、 pb′=(pb+Pa−Pb−Nmin)×N/(Nmax−Nmin+1) ……式 但し、 Nmin=MIN(Namin、Nbmin+Pa−P
b) Nmax=MAX(Namax、Nbmax+Pa−P
b) であり、MIN()は最小値、MAX()は最大値を表
す。
Pa ′ = (pa−Nmin) × N / (Nmax−Nmin + 1), pb ′ = (pb + Pa−Pb−Nmin) × N / (Nmax−Nmin + 1), where Nmin = MIN (Namin, Nbmin + Pa) -P
b) Nmax = MAX (Namax, Nbmax + Pa-P
b), where MIN () represents the minimum value and MAX () represents the maximum value.

【0111】以上説明したように、本実施の形態によれ
ば、入力画像a及びbの画像データのダイナミックレン
ジが画像データとして取りうる階調より少ない場合で
も、入力画像a及びbの重複部での階調平均値と入力画
像a及びbの画像全領域での画像データの最小、最大値
を用いて、階調補正を行い、合成するので継ぎ目が目立
たない、しかもコントラストの高い合成画像が得られ
る。
As described above, according to the present embodiment, even when the dynamic range of the image data of the input images a and b is smaller than the gradation that can be taken as the image data, the overlapping portion of the input images a and b does not occur. The gradation average is used and the minimum and maximum values of the image data in the entire image area of the input images a and b are used to perform gradation correction and combine, so that a joint image with no noticeable seam and high contrast is obtained. To be

【0112】尚、本発明は上記実施の形態に限定され
ず、種々の変形実施が可能である。
The present invention is not limited to the above embodiment, and various modifications can be made.

【0113】例えば、以上の各実施の形態中での説明に
おいては濃淡画像を対象に説明したが、カラー画像でも
適用できることは言うまでもない。その際、入力画像a
及びbの撮像時にそれぞれホワイトバランスが自動的に
行われた場合には、前記従来技術の問題点に説明した露
光条件の不一致と同様なことがカラーバランスにおいて
も生じるが、例えば、カラーのRGB成分のそれぞれに
ついて画像の重複部内の画像データまたは対応点の抽出
された画素の画像データから濃淡画像の場合と同様にし
て、画像データの補正を行えばよい。
For example, in the description of each of the above embodiments, a grayscale image was described as an object, but it goes without saying that a color image can also be applied. At that time, the input image a
When the white balance is automatically performed at the time of capturing the images b and b, the same phenomenon as the mismatch of the exposure conditions described in the problems of the related art occurs in the color balance. For each of the above, the image data may be corrected from the image data in the overlapping portion of the images or the image data of the pixels from which the corresponding points are extracted in the same manner as in the case of the grayscale image.

【0114】[0114]

【発明の効果】以上詳述した本発明によれば、上述した
構成にしたことにより、以下の効果を奏する。
According to the present invention, which has been described in detail above, the following effects can be obtained by the above-mentioned configuration.

【0115】請求項1記載の発明によれば、画像合成
を、複数の画像の重複した画像領域内で、各画像の中心
点からの距離が等しい点の画像状態に応じて画像を補正
した後に行うので、撮像条件の違い等による異なる画像
状態を有した複数の画像を合成する際に、継ぎ目が目立
たないよう良好に画像合成が可能な画像合成装置を提供
することができる。また、例えば像面照度比の特性が光
軸付近と周辺で著しく差のある撮像光学系で撮像した複
数の画像を合成する場合においても、継ぎ目が目立たな
いように良好に画像合成を行うことが可能な画像合成装
置を提供することができる。
According to the first aspect of the present invention, the image synthesis is performed in the center of each image within the overlapping image area of a plurality of images.
Since it is performed after correcting the image according to the image condition of the points with the same distance from the point , when combining a plurality of images having different image conditions due to the difference in the imaging conditions etc. An image synthesizing device capable of synthesizing can be provided. Also, for example, the characteristic of the image plane illuminance ratio is
There is a significant difference between the vicinity of the axis and the periphery,
Even when synthesizing several images, the seams are not conspicuous.
Image synthesizing device capable of performing good image synthesizing
Can be provided.

【0116】[0116]

【0117】請求項記載の発明によれば、画像状態と
して複数の画像の階調を検出し、この検出結果に基づき
重複した画像領域の階調が等しくなるよう前記複数の画
像を補正するので、例えば、露光条件が異なる条件で撮
像された画像の場合でも、継ぎ目が目立たないよう画像
合成を行うことが可能な画像合成装置を提供することが
できる。請求項3記載の発明によれば、補正手段は、階
調が補正された画像をダイナミックレンジが増加した分
だけもとの階調に正規化するので、画像の補正を精度良
く行うことができ、異なる露光条件により生じる複数の
画像の継ぎ目を目立たなくすることが可能な画像合成装
置を提供することができる。
According to the second aspect of the present invention, the gradations of a plurality of images are detected as the image state, and the plurality of images are corrected so that the gradations of the overlapping image areas are equal based on the detection result. For example, it is possible to provide an image synthesizing device capable of performing image synthesizing so that seams are not conspicuous even in the case of images captured under different exposure conditions. According to the invention of claim 3, the correction means is a floor.
The tonal-corrected image is
However, since it is normalized to the original gradation, the image correction is accurate.
Can be performed with multiple exposures caused by different exposure conditions.
Image composition device that can make image seams inconspicuous
Can be provided.

【0118】請求項4記載の発明によれば、画像合成
を、複数の画像の重複した画像領域内で、各画像の中心
点からの距離が等しい点の画像状態に応じて画像を補正
した後に行うので、撮像条件の違い等により異なる画像
状態を有した複数の画像を合成する際にも継ぎ目が目立
たないよう良好に合成が可能な画像合成方法を提供する
ことができる。また、例えば像面照度比の特性が光軸付
近と周辺で著しく差のある撮像光学系で撮像した複数の
画像を合成する場合においても、継ぎ目が目立たないよ
うに良好に画像合成を行うことが可能な画像合成方法を
提供することができる。
According to the fourth aspect of the present invention, the image synthesis is performed by using the center of each image within the overlapping image area of a plurality of images.
Since it is performed after correcting the image according to the image state of the points with the same distance from the point , it is possible to combine well so that the seams are not conspicuous even when combining multiple images with different image states due to different imaging conditions etc. It is possible to provide an image synthesizing method capable of Also, for example, the characteristic of the image plane illuminance ratio is with the optical axis
Multiple images taken with the imaging optics that have a marked difference between near and surrounding
Even when combining images, the seams are not noticeable
Image synthesizing method that enables good image synthesizing
Can be provided.

【0119】[0119]

【0120】請求項記載の発明によれば、画像状態と
して複数の画像の階調を検出し、この検出結果に基づき
重複した画像領域の階調が等しくなるよう前記複数の画
像を補正するので、例えば、露光条件が異なる条件で撮
像された画像の場合でも、継ぎ目が目立たないよう画像
合成を行うことが可能な画像合成方法を提供することが
できる。請求項6記載の発明によれば、補正は、階調が
補正された画像をダイナミックレンジが増加した分だけ
もとの階調に正規化するので、画像の補正を精度良く行
うことができ、異なる露光条件により生じる複数の画像
の継ぎ目を目立たなくすることが可能な画像合成方法を
提供することができる。
According to the fifth aspect of the present invention, the gradations of a plurality of images are detected as the image state, and the plurality of images are corrected so that the gradations of the overlapping image areas become equal based on the detection result. For example, it is possible to provide an image synthesizing method capable of performing image synthesizing so that seams are not conspicuous even in the case of images captured under different exposure conditions. According to the invention described in claim 6, the gradation is corrected.
The corrected image is increased by the dynamic range
Since it is normalized to the original gradation, the image can be corrected accurately.
Multiple images resulting from different exposure conditions
Image composition method that can make the seams of
Can be provided.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施の形態の構成を示すブロッ
ク図である。
FIG. 1 is a block diagram showing a configuration of a first exemplary embodiment of the present invention.

【図2】合成する画像の撮像状況を示す図である。FIG. 2 is a diagram showing an imaging situation of images to be combined.

【図3】入力画像の一例を示す図である。FIG. 3 is a diagram showing an example of an input image.

【図4】入力画像の一例を示す図である。FIG. 4 is a diagram showing an example of an input image.

【図5】対応点抽出の際のテンプレートの切り出し方法
を示す図である。
FIG. 5 is a diagram showing a method of cutting out a template when extracting corresponding points.

【図6】対応点抽出の際のテンプレートを示す図であ
る。
FIG. 6 is a diagram showing a template for extracting corresponding points.

【図7】本発明の対応点抽出での探索領域の設定方法を
示す図である。
FIG. 7 is a diagram showing a method of setting a search area in extraction of corresponding points according to the present invention.

【図8】本発明の合成画像の領域を説明する図である。FIG. 8 is a diagram illustrating a region of a composite image of the present invention.

【図9】本発明の合成画像の一例を示す図である。FIG. 9 is a diagram showing an example of a composite image of the present invention.

【図10】撮像時の被写体の明るさと画像データの階調
の特性を示す図である。
FIG. 10 is a diagram showing the characteristics of the brightness of the subject and the gradation of the image data during imaging.

【図11】第1の実施の形態の階調補正の方式を説明す
る図である。
FIG. 11 is a diagram illustrating a gradation correction method according to the first embodiment.

【図12】重複部の中心付近で階調平均を求める場合の
説明図である。
FIG. 12 is an explanatory diagram of a case where a gradation average is obtained in the vicinity of the center of an overlapping portion.

【図13】撮像光学系の像面照度比の特性を示す図であ
る。
FIG. 13 is a diagram showing characteristics of an image plane illuminance ratio of an imaging optical system.

【図14】入力画像の像面照度比の特性による明るさの
違いを説明する図である。
FIG. 14 is a diagram illustrating a difference in brightness depending on a characteristic of an image plane illuminance ratio of an input image.

【図15】対応点抽出部の処理アルゴリズムを示すフロ
ーチャートである。
FIG. 15 is a flowchart showing a processing algorithm of a corresponding point extraction unit.

【図16】階調補正の処理アルゴリズムを示すフローチ
ャートである。
FIG. 16 is a flowchart showing a processing algorithm for gradation correction.

【図17】画像変換合成部の処理アルゴリズムを示すフ
ローチャートである。
FIG. 17 is a flowchart showing a processing algorithm of an image conversion / synthesis unit.

【図18】第2の実施の形態の階調補正の方式を説明す
る図である。
FIG. 18 is a diagram illustrating a method of gradation correction according to the second embodiment.

【図19】第2の実施の形態の階調補正の処理アルゴリ
ズムを示すフローチャートである。
FIG. 19 is a flowchart showing a gradation correction processing algorithm according to the second embodiment.

【図20】第3の実施の形態の画像合成装置の構成を示
すブロック図である。
FIG. 20 is a block diagram showing a configuration of an image composition device according to a third embodiment.

【図21】少ない階調で撮像した場合の撮像時の被写体
の明るさと画像データの階調の特性を示す図である。
FIG. 21 is a diagram showing the characteristics of the brightness of a subject and the gradation of image data when an image is captured with a small number of gradations.

【図22】第4の実施の形態の階調補正の方式を説明す
る図である。
FIG. 22 is a diagram illustrating a method of gradation correction according to the fourth embodiment.

【図23】従来の合成する画像の撮像状況を示す図であ
る。
[Fig. 23] Fig. 23 is a diagram illustrating a conventional imaging situation of images to be combined.

【図24】従来の入力画像の一例を示す図である。FIG. 24 is a diagram showing an example of a conventional input image.

【図25】従来の入力画像の一例を示す図である。FIG. 25 is a diagram showing an example of a conventional input image.

【図26】従来の合成画像の一例を示す図である。FIG. 26 is a diagram showing an example of a conventional composite image.

【符号の説明】[Explanation of symbols]

20 対応点抽出部 30 階調補正係数決定部 31、32 階調変換部 40 パラメータ推定部 50 画像変換合成部 20 Corresponding point extractor 30 gradation correction coefficient determination unit 31, 32 gradation converter 40 Parameter estimation unit 50 Image conversion and synthesis section

───────────────────────────────────────────────────── フロントページの続き (72)発明者 羽鳥 健司 東京都大田区下丸子3丁目30番2号 キ ヤノン株式会社内 (56)参考文献 特開 平7−85246(JP,A) 特開 平3−182976(JP,A) 特開 平5−342344(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 1/40 G06T 3/00 ─────────────────────────────────────────────────── ─── Continuation of front page (72) Kenji Hatori Kenji Hatori 3-30-2 Shimomaruko, Ota-ku, Tokyo Canon Inc. (56) Reference JP-A-7-85246 (JP, A) JP-A-3 -182976 (JP, A) JP 5-342344 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) H04N 1/40 G06T 3/00

Claims (6)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 互いに重複した画像領域を有する複数の
画像を合成し、画角の広い一つの合成画像を作成する
像合成手段を備える画像合成装置において、 前記画像合成手段は、前記複数の画像の重複した画像領
域内で、各画像の中心点からの距離が等しい点の画像状
態に応じて前記複数の画像を補正した後に画像合成を
うことを特徴とする画像合成装置。
1. An image in which a plurality of images having mutually overlapping image areas are combined to create one combined image with a wide angle of view.
In an image synthesizing device including image synthesizing means , the image synthesizing means , in the overlapping image regions of the plurality of images, forms the plurality of images in accordance with image states of points having an equal distance from the center point of each image. An image synthesizing device characterized by performing image synthesizing after correction.
【請求項2】 前記画像状態として前記複数の画像の階
調を検出する検出手段と、この検出結果に基づき重複し
た画像領域の階調が等しくなるよう前記複数の画像を補
正する補正手段とを有したことを特徴とする請求項
載の画像合成装置。
2. A detection means for detecting gradations of the plurality of images as the image state, and a correction means for correcting the plurality of images based on the detection result so that the gradations of the overlapping image areas become equal to each other. The image synthesizing apparatus according to claim 1, further comprising:
【請求項3】 前記補正手段は、前記階調が補正された3. The gradation is corrected by the correction means.
画像をダイナミックレンジが増加した分だけもとの階調The original gradation of the image as much as the dynamic range is increased
に正規化することを特徴とする請求項2記載の画像合成The image synthesis according to claim 2, wherein the image synthesis is performed as follows.
装置。apparatus.
【請求項4】 互いに重複した画像領域を有する複数の
画像を合成し、画角の広い一つの合成画像を作成する画
像合成方法において、 前記画像合成は、前記複数の画像の重複した画像領域内
で、各画像の中心点からの距離が等しい点の画像状態に
応じて前記複数の画像を補正した後に行うことを特徴と
する画像合成方法。
4. An image synthesizing method for synthesizing a plurality of images having mutually overlapping image regions to create a single synthesized image having a wide angle of view, wherein the image synthesizing is performed within an overlapping image region of the plurality of images.
Then, the image synthesizing method is performed after correcting the plurality of images according to the image states of the points having the same distance from the center point of each image .
【請求項5】 前記画像状態として前記重複した画像領
域内の階調を検出し、この検出結果に基づき重複した画
像領域の階調が等しくなるよう前記複数の画像を補正す
ることを特徴とする請求項記載の画像合成方法。
5. The gradation of the overlapping image areas is detected as the image state, and the plurality of images are corrected based on the detection result so that the gradations of the overlapping image areas become equal to each other. The image synthesizing method according to claim 4 .
【請求項6】 前記補正は、前記階調が補正された画像6. The correction is an image in which the gradation is corrected.
をダイナミックレンジが増加した分だけもとの階調に正To the original gradation as much as the dynamic range increases.
規化することを特徴とする請求項5記載の画像合成方The image synthesizing method according to claim 5, wherein the image is normalized.
法。Law.
JP27072795A 1995-09-26 1995-09-26 Image composition method and image composition device Expired - Fee Related JP3530652B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27072795A JP3530652B2 (en) 1995-09-26 1995-09-26 Image composition method and image composition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27072795A JP3530652B2 (en) 1995-09-26 1995-09-26 Image composition method and image composition device

Publications (2)

Publication Number Publication Date
JPH0993430A JPH0993430A (en) 1997-04-04
JP3530652B2 true JP3530652B2 (en) 2004-05-24

Family

ID=17490122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27072795A Expired - Fee Related JP3530652B2 (en) 1995-09-26 1995-09-26 Image composition method and image composition device

Country Status (1)

Country Link
JP (1) JP3530652B2 (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4006056B2 (en) * 1997-05-19 2007-11-14 キヤノン株式会社 Image composition apparatus, image composition method, and storage medium
JPH11205648A (en) 1998-01-09 1999-07-30 Olympus Optical Co Ltd Image synthesizing device
US6867879B1 (en) * 1998-02-16 2005-03-15 Canon Kabushiki Kaisha Printer, control method of printer, and storage medium for storing control program of printer
JP3382557B2 (en) * 1999-04-09 2003-03-04 キヤノン株式会社 Image designation method, image designation device, printing system, printing method and device
JP2001309204A (en) * 2000-04-20 2001-11-02 Synthesis Corp Image processing method
JP4048907B2 (en) 2002-10-15 2008-02-20 セイコーエプソン株式会社 Panorama composition of multiple image data
WO2004057531A1 (en) * 2002-12-20 2004-07-08 Jicoux Datasystems, Inc. Image synthesizer and program
WO2006011255A1 (en) * 2004-07-28 2006-02-02 Matsushita Electric Industrial Co., Ltd. Panoramic image synthesizing method, object detecting method, panoramic image synthesizing device, imaging device, object detecting device, and panoramic image synthesizing program
US7375745B2 (en) 2004-09-03 2008-05-20 Seiko Epson Corporation Method for digital image stitching and apparatus for performing the same
JP4632907B2 (en) * 2005-09-07 2011-02-16 アルパイン株式会社 Composite image generation apparatus and composite image generation method
JP4802769B2 (en) * 2006-03-07 2011-10-26 アイシン・エィ・ダブリュ株式会社 Parking support method and parking support device
JPWO2008102898A1 (en) * 2007-02-19 2010-05-27 国立大学法人東京工業大学 Image quality improvement processing apparatus, image quality improvement processing method, and image quality improvement processing program
JP4355744B2 (en) * 2007-12-17 2009-11-04 シャープ株式会社 Image processing device
JP5570315B2 (en) * 2010-06-17 2014-08-13 三菱電機株式会社 Image processing method of image reading apparatus and image reading apparatus
JP6344064B2 (en) 2014-05-30 2018-06-20 ブラザー工業株式会社 Image processing apparatus and computer program
JP6372397B2 (en) * 2015-03-05 2018-08-15 ブラザー工業株式会社 Image processing apparatus and computer program
WO2017214291A1 (en) * 2016-06-07 2017-12-14 Visbit Inc. Virtual reality 360-degree video camera system for live streaming
JP6331178B1 (en) 2017-05-12 2018-05-30 パナソニックIpマネジメント株式会社 Image processing apparatus and image processing method
JP2020160773A (en) * 2019-03-26 2020-10-01 キヤノン株式会社 Image processing device, imaging device, image processing method, and program

Also Published As

Publication number Publication date
JPH0993430A (en) 1997-04-04

Similar Documents

Publication Publication Date Title
JP3530652B2 (en) Image composition method and image composition device
JPH1091765A (en) Device for synthesizing picture and method therefor
US7406213B2 (en) Image processing apparatus and method, and computer program
US8525904B2 (en) Image processing device, image processing method, and capturing device
JP5413002B2 (en) Imaging apparatus and method, and program
JP4244063B2 (en) Image processing apparatus, image processing method, and program
US8363130B2 (en) Image processing device, image processing method, and capturing device
US9865041B2 (en) Image processing apparatus, imaging apparatus, image processing method, and computer-processable non-transitory storage medium
US20180061029A1 (en) Image processing apparatus, imaging apparatus, image processing method, and storage medium storing image processing program of image processing apparatus
JP2010147985A (en) Image processing apparatus and method, and program
WO2020218024A1 (en) Panoramic video image synthesis device, panoramic video image synthesis method, and panoramic video image synthesis program
JPH09321972A (en) Image synthesis device and method
US8731327B2 (en) Image processing system and image processing method
JP6825617B2 (en) Image processing equipment, imaging equipment, and image processing methods, and programs
JP2015201731A (en) Image processing system and method, image processing program, and imaging apparatus
JP2008141323A (en) Image processor for correcting color of image, and image processing program
JP2002232904A (en) Signal processor, its signal processing method, its operation processing program and storage medium for storing the program
US8035698B2 (en) Joint automatic demosaicking and white balancing
JP5733588B2 (en) Image processing apparatus and method, and program
JP2003158751A (en) Stereo camera adjusting device
JPH1117984A (en) Image processor
JPH064660A (en) Image synthesizer
JPH11285019A (en) Image processing unit and medium wherein image processing program is stored
JP3914810B2 (en) Imaging apparatus, imaging method, and program thereof
JP5205230B2 (en) Image processing device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040301

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080305

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090305

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100305

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100305

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110305

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120305

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130305

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140305

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees