JP2008003683A - Image generation device and its method and recording medium - Google Patents
Image generation device and its method and recording medium Download PDFInfo
- Publication number
- JP2008003683A JP2008003683A JP2006170012A JP2006170012A JP2008003683A JP 2008003683 A JP2008003683 A JP 2008003683A JP 2006170012 A JP2006170012 A JP 2006170012A JP 2006170012 A JP2006170012 A JP 2006170012A JP 2008003683 A JP2008003683 A JP 2008003683A
- Authority
- JP
- Japan
- Prior art keywords
- image
- region
- pixel
- pixels
- common imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 32
- 238000003384 imaging method Methods 0.000 claims abstract description 48
- 238000000605 extraction Methods 0.000 claims abstract description 24
- 238000003702 image correction Methods 0.000 claims abstract description 12
- 230000002194 synthesizing effect Effects 0.000 claims abstract 5
- 238000012937 correction Methods 0.000 claims description 30
- 238000012545 processing Methods 0.000 claims description 16
- 239000000203 mixture Substances 0.000 claims description 9
- 230000015572 biosynthetic process Effects 0.000 claims description 8
- 238000003786 synthesis reaction Methods 0.000 claims description 8
- 239000000284 extract Substances 0.000 claims description 4
- 239000004065 semiconductor Substances 0.000 claims 2
- 230000009466 transformation Effects 0.000 abstract description 13
- 230000002093 peripheral effect Effects 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 10
- 230000008569 process Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000004075 alteration Effects 0.000 description 5
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 238000000844 transformation Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000001902 propagating effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 238000010187 selection method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
Abstract
Description
本発明は、複数枚の画像から1枚の画像を生成する技術に関するものである。 The present invention relates to a technique for generating one image from a plurality of images.
従来、複数枚の画像を接合してパノラマ画像を生成するには、収差補正と回転補正を施し、画像を補正して生成するものがあった(特許文献1参照)。図22は、特許文献1に記載された従来技術のブロック図である。
Conventionally, in order to generate a panoramic image by joining a plurality of images, there has been a method in which aberration correction and rotation correction are performed and the image is corrected (see Patent Document 1). FIG. 22 is a block diagram of the prior art described in
まず、画像間で共通の被写体部分に対応する点(以下、対応点と記述する)を対応点検出手段2203で検出する。対応点の検出には、次に、その対応点を基に歪曲収差焦点距離推定手段2204で、焦点距離値、歪曲収差値の推定、回転補正制御手段2206で回転補正角を推定する。最後に、これらの値を用いて、まず、歪曲収差補正手段2205で画像の歪曲収差を補正し、続いて、回転補正手段2207で回転補正を行う。
上述した従来の構成では、対応点の抽出を正確に行なわないと補正の精度が低下する。ここで、通常、対応点の抽出はマッチング処理によって行なわれる。しかし、光源の影響等により複数の画像間で同じ位置にある画素であっても輝度値や色に違いが生じるため、画素単位で対応点の抽出を正確に行なうことは容易ではない。 In the conventional configuration described above, the accuracy of correction decreases unless the corresponding points are accurately extracted. Here, the extraction of corresponding points is usually performed by matching processing. However, even if the pixels are at the same position among a plurality of images due to the influence of the light source or the like, the brightness value and the color are different, so that it is not easy to accurately extract the corresponding points in units of pixels.
また、領域毎に生じた非線形の歪みを、完全に補正することは困難であるため、合成時に画像が完全には繋がらない。 In addition, since it is difficult to completely correct the non-linear distortion generated in each region, the images are not completely connected at the time of synthesis.
そこで本発明は、アフィン変換や透視変換の幾何学変換を用いずにマッチングだけの容易な処理で画像間の差異を推定し、この差異によって求められた歪み関数により精度よく補正を行い、パノラマ画像を生成する画像処理装置の提供を目的とする。 Therefore, the present invention estimates the difference between images by an easy process of matching only without using affine transformation or geometric transformation of perspective transformation, and corrects the panoramic image accurately by using the distortion function obtained by this difference. An object of the present invention is to provide an image processing apparatus that generates the image.
第1の発明による画像生成装置は、第1の画像において、第2の画像との共通撮像領域とその周辺M画素(但し、0≦M)を含む領域から、画素を2つ以上抽出する画素抽出部と、前記第2の画像において、前記第1の画像との共通撮像領域とその周辺N画素(但し、0≦N)を含む領域から、前記抽出画素に基づき予め定義される領域と所定の条件を満たす領域を構成する画素を2つ以上選択する画素選択部と、前記選択した画素を基に前記第1の画像と前記第2の画像の少なくとも一方を補正する画像補正部と、前記第1の画像と前記第2の画像の少なくとも一方が補正された画像とを合成する画像合成部とを有し、画像の生成を行う。 The image generating apparatus according to the first aspect of the present invention is a pixel that extracts two or more pixels from a region including a common imaging region with the second image and its surrounding M pixels (where 0 ≦ M) in the first image. In the second image and the extraction unit, a region defined in advance based on the extraction pixel and a predetermined region are selected from a region including a common imaging region with the first image and its surrounding N pixels (where 0 ≦ N). A pixel selection unit that selects two or more pixels constituting a region that satisfies the condition, an image correction unit that corrects at least one of the first image and the second image based on the selected pixel, An image synthesis unit that synthesizes the first image and an image in which at least one of the second images is corrected, and generates an image.
第2の発明によれば、所定の条件は、抽出画素に基づき予め定義される領域における画素値の差異を最小にすることとである。 According to the second invention, the predetermined condition is to minimize a difference in pixel values in a region defined in advance based on the extracted pixels.
第3の発明によれば、抽出画素に基づき予め定義される領域における差異は、画像の輝度情報、色情報、幾何情報の少なくとも一つを基に算出する。 According to the third aspect, the difference in the region defined in advance based on the extracted pixel is calculated based on at least one of the luminance information, color information, and geometric information of the image.
第4の発明によれば、領域は、直線、曲線、平面の少なくとも一つである。 According to the fourth invention, the region is at least one of a straight line, a curve, and a plane.
第5の発明によれば、画素選択部は、画素抽出部により抽出された画素との対応関係を表す歪み関数を算出する。 According to the fifth aspect, the pixel selection unit calculates a distortion function that represents a correspondence relationship with the pixel extracted by the pixel extraction unit.
第6の発明によれば、補正とは、選択された2つ以上の点のうち少なくとも1つの点を共通撮像領域外の対応点の新たな点の座標を算出するために用い、前記選択された2つ以上の点と前記新たな点とを用いて共通撮像領域外の画像データを補正することである。 According to the sixth invention, the correction is performed by using at least one of the selected two or more points to calculate the coordinates of a new point of the corresponding point outside the common imaging region. In addition, the image data outside the common imaging region is corrected using two or more points and the new point.
第7の発明によれば、画像補正部は、第1の画像と第2の画像との共通撮像領域以外の領域において、歪み関数に重み付けをして画素の補正を行う。 According to the seventh aspect, the image correction unit performs pixel correction by weighting the distortion function in a region other than the common imaging region of the first image and the second image.
第8の発明によれば、画像合成部は、第1の画像と第2の画像との共通撮像領域の少なくとも一方をクリッピング処理して合成する。 According to the eighth aspect of the invention, the image composition unit performs a clipping process to compose at least one of the common imaging regions of the first image and the second image.
第9の発明によれば、画像合成部は、第1の画像と第2の画像との共通撮像領域の少なくとも一方を透過処理して合成する。 According to the ninth aspect, the image composition unit synthesizes at least one of the common imaging region of the first image and the second image by transmission processing.
更に、第10の発明によれば、画像のマッチング処理により、第1の画像と第2の画像との共通撮像領域を抽出する共通領域抽出部を備えることもできる。 Furthermore, according to the tenth aspect, it is possible to provide a common area extraction unit that extracts a common imaging area of the first image and the second image by image matching processing.
本発明によれば、アフィン変換や透視変換の幾何学変換を用いずにマッチングだけの容易な処理で精度よく補正を行い、パノラマ画像を生成することができる。 According to the present invention, it is possible to generate a panoramic image by performing correction with high accuracy by an easy process of only matching without using affine transformation or geometric transformation of perspective transformation.
また、さらに、所定の領域において局所的なマッチング処理を行い、その結果を基に画像に補正処理を施す。この局所的なマッチング処理により、レンズの非線形歪みを含め、様々な幾何学変換にも対応が可能となる。 Further, local matching processing is performed in a predetermined region, and correction processing is performed on the image based on the result. By this local matching processing, it is possible to cope with various geometric transformations including nonlinear distortion of the lens.
以下本発明の実施の形態について、図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.
(実施の形態)
図1は、本発明の実施の形態における画像生成装置のブロック図である。
(Embodiment)
FIG. 1 is a block diagram of an image generation apparatus according to an embodiment of the present invention.
図1において、画像生成装置は、画素抽出部101と画素選択部102と画像補正部103と画像合成部104とを有する。
In FIG. 1, the image generation apparatus includes a
図3は、本発明の実施の形態1に係る、画像生成装置のフローチャートである。
FIG. 3 is a flowchart of the image generation apparatus according to
まず、第1の画像と第2の画像を入力し、画素抽出部101は、第1の画像において、図4に示す第2の画像との共通撮像領域と、その周辺M画素(但し、M≧0)を含むあらかじめ定義される領域から、第1の画像の画素を2つ以上抽出する(ステップ301)。
First, the first image and the second image are input, and the
次に、画素選択部102は、第2の画像において、第1の画像との共通撮像領域(図4中ハッチングされた部分)とその周辺N画素(但し、N≧0)を含む領域から、前記抽出した画素に基づき予め定義される領域と所定の条件を満たす領域を構成する第2の画像の画素を2つ以上選択する(ステップ302)。所定の条件については後述する。
Next, the
そして、画像補正部103は、第1の画像と第2の画像の少なくとも一方を補正する(ステップ303)。補正は、後述する前記選択した画素から求められる歪み関数を基に行う。
Then, the
最後に、画像合成部104は、少なくとも一方が補正された第1の画像と第2の画像とを合成する(ステップ304)。
Finally, the
以下、各ステップの詳細を説明する。 Details of each step will be described below.
ここでは、周辺画素数を0(M=N=0)とし、図4のハッチング部分である共通の撮像領域のみを予め定義される領域として注目して合成する例を示す。 Here, an example is shown in which the number of peripheral pixels is 0 (M = N = 0), and only the common imaging area that is the hatched portion in FIG. 4 is focused and synthesized as a predefined area.
まず、ステップ301では、第1の画像から画素P1(x1,y1)、P2(x2,y2)を抽出する(図5)。図5においてハッチングがされた領域は、第1の画像における共通撮像領域である。図5に示すように、P1とP2は水平方向に長さを有する線分を形成するように抽出される(y1=y2)。 First, in step 301, pixels P 1 (x 1 , y 1 ) and P 2 (x 2 , y 2 ) are extracted from the first image (FIG. 5). The hatched area in FIG. 5 is a common imaging area in the first image. As shown in FIG. 5, P1 and P2 are extracted so as to form a line segment having a length in the horizontal direction (y1 = y2).
そして、ステップ302では、前述した所定の条件、即ち、画素P1(x1,y1)、P2(x2,y2)を結んだ線分の輝度値とのノルムが最小となる線分を構成する画素Q1(u1,v1)、Q2(u2,v2)を第2の画像から選択する(図6)。 In step 302, the predetermined condition described above, that is, a line that minimizes the norm with the luminance value of the line segment connecting the pixels P 1 (x 1 , y 1 ) and P 2 (x 2 , y 2 ). Pixels Q 1 (u 1 , v 1 ) and Q 2 (u 2 , v 2 ) constituting the minute are selected from the second image (FIG. 6).
ノルム算出の際には、まず、線分P1P2、線分Q1Q2をn等分し、新たな点P’n(xn,yn)、Q’n(un,vn)をそれぞれ求める(図7)。そして、(数1)により算出する。尚、f(ξ)はξでの輝度値を表す。 In calculating the norm, first, the line segment P 1 P 2 and the line segment Q 1 Q 2 are equally divided into n, and new points P ′ n (x n , y n ), Q ′ n (u n , v n ) is obtained (FIG. 7). And it calculates by (Formula 1). Note that f (ξ) represents a luminance value at ξ.
但し、xn,yn,un,vnが実数を取ることに注意する。従って、画素が存在しない場合(xn,yn,un,vnが整数でない場合)、ニアレストネイバー法(Nearest Neighbor Method)、バイリニア法(Bi−Linear Method)、バイキュービック法(Bi−Cubic Method)など従来のサンプリング手法を用いて補間を行う必要がある。一例として、バイリニア法による補間方法を以下に示す。まず、座標Aの4近傍A1〜A4と各座標の輝度値f(A1)〜f(A4)求める(図8)。そして、(数2)により座標Aの輝度値f(A)を求める。 However, x n, y n, u n, v n to note that take the real number. Thus, (if x n, y n, u n , v n is not an integer) when the pixel is not present, the nearest neighbor method (Nearest Neighbor Method), bi-linear method (Bi-Linear Method), bicubic method (Bi- It is necessary to perform interpolation using a conventional sampling method such as Cubic Method). As an example, a bilinear interpolation method is shown below. First, four neighborhoods A 1 to A 4 of the coordinate A and luminance values f (A 1 ) to f (A 4 ) of the respective coordinates are obtained (FIG. 8). Then, the luminance value f (A) of the coordinate A is obtained from (Equation 2).
上記処理を繰り返し、共通撮像領域内での歪み関数(線分P1P2と線分Q1Q2の対応関係)を求める。一例としては、図9に示すように、1ライン単位に線分P1 (k)P2 (k)を選択し(各ラインでy1=y2)、それに対応する線分Q1 (k)Q2 (k)の組を選択すればよい。但し、線分Q1 (k)Q2 (k)の選択にあたって、線分Q1 (k−1)Q2 (k−1)の結果も考慮に、全体最適となるようにする。即ち、ノルムの計算には(数3)を用いる。 The above process is repeated to obtain a distortion function (correspondence between line segment P 1 P 2 and line segment Q 1 Q 2 ) in the common imaging region. As an example, as shown in FIG. 9, a line segment P 1 (k) P 2 (k) is selected in units of one line ( y 1 = y 2 for each line), and the corresponding line segment Q 1 (k ) Q 2 (k) may be selected. However, when the selection of the line segment Q 1 (k) Q 2 ( k), in consideration of the result of the line segment Q 1 (k-1) Q 2 (k-1), so that the overall optimum. That is, (Formula 3) is used for calculating the norm.
次に、ステップ303では、前記歪み関数を基に画像の補正を行う。ここでは、第2の画像のみ補正する方法を示す。 Next, in step 303, the image is corrected based on the distortion function. Here, a method of correcting only the second image is shown.
(共通撮像領域の補正)
まず、第2の画像における共通撮像領域の画素データを線分Q1Q2の画素データで置き換えることで補正する(図10)。
(Correction of common imaging area)
First, correction is performed by replacing the pixel data of the common imaging region in the second image with the pixel data of the line segment Q 1 Q 2 (FIG. 10).
この処理により、第1の画像と第2の画像の共通撮像領域が、略等しい状態となる。 By this process, the common imaging area of the first image and the second image becomes substantially equal.
(共通撮像領域以外の領域の補正)
次に、第2の画像における共通撮像領域以外の領域を補正する。補正は、前記歪み関数に重み付けをして周辺画素に伝播させることで行なう。ここでは、線形の重み付けを行う方法を示す。
(Correction of areas other than the common imaging area)
Next, an area other than the common imaging area in the second image is corrected. The correction is performed by weighting the distortion function and propagating it to surrounding pixels. Here, a method of performing linear weighting is shown.
共通撮像領域の右端点をT1(k1,l1)、歪みの伝播を実施する範囲(画素数)をβ、T1(k1,l1)とTβ(kβ,lβ)との垂直方向の差をαとする(図11)。線形の重みを付ける場合、y=lβ上の画素の輝度値を直線T1Tβ上の輝度値で置き換えることで実現できる。ここでは、T’n(kn,lβ)の輝度値をTn(kn,lβ)の輝度値で置き換える手順を説明する。 The right end point of the common imaging area is T 1 (k 1 , l 1 ), the distortion propagation range (number of pixels) is β, T 1 (k 1 , l 1 ) and T β (k β , l β ) The difference in the vertical direction with respect to is α (FIG. 11). If be weighted linear, it can be realized by replacing the luminance value of the pixels on y = l beta in luminance value on the straight line T 1 T beta. Here, a procedure for replacing the luminance value of T ′ n (k n , l β ) with the luminance value of T n (k n , l β ) will be described.
まず、(数4)により線分T1Tβを求める。 First, the line segment T 1 T β is obtained by (Equation 4).
そして、(数5)によりlnを求める。 Then, a l n by equation (5).
但し、lnは実数であることに注意する。従って、画素が存在しない場合(lnが整数でない場合)、前述のニアレストネイバー法、バイリニア法、バイキュービック法などのサンプリング手法を用いて補間を行う必要がある。このようにして求めたTnの輝度値をT’nの輝度値と置き換える。これを、y=lβ(k1≦x≦kβ)上の輝度値に適用することで、線形の重み付けをした歪みの伝播が完了する。 Note that l n is a real number. Thus, (if l n is not an integer) when the pixel is not present, the nearest neighbor method described above, bilinear, it is necessary to perform interpolation using the sampling method such as bi-cubic method. The luminance value of T n thus obtained is replaced with the luminance value of T ′ n . By applying this to the luminance value on y = l β (k 1 ≦ x ≦ k β ), linear weighted distortion propagation is completed.
最後に、画像の合成を行う(図12)。 Finally, image synthesis is performed (FIG. 12).
まず、第2の画像の共通撮像領域を削除する。そして、第1の画像と第2の画像を接合する。 First, the common imaging area of the second image is deleted. Then, the first image and the second image are joined.
このように本発明によれば、アフィン変換や透視変換の幾何学変換を用いずにマッチングだけの容易な処理で精度よく補正を行い、パノラマ画像を生成することができる。 As described above, according to the present invention, it is possible to generate a panoramic image by performing correction with high accuracy by an easy process of matching only without using affine transformation or geometric transformation such as perspective transformation.
また、所定の領域において局所的なマッチング処理を行い、その結果を基に画像に補正処理を施す。この局所的なマッチング処理により、レンズの非線形歪みを含め、様々な幾何学変換にも対応が可能となる。 Further, local matching processing is performed in a predetermined region, and correction processing is performed on the image based on the result. By this local matching processing, it is possible to cope with various geometric transformations including nonlinear distortion of the lens.
また、部分的な補正であるため、連続して撮像された1〜N枚の画像データを接合して360°パノラマ画像を生成する際にも、最初の画像(角度0°の画像)と最後の画像(角度360°の画像)の合成もスムースに行うことができる。 Further, since the correction is partial, when a 360 ° panoramic image is generated by joining 1 to N pieces of image data continuously captured, the first image (image having an angle of 0 °) and the last image are also generated. These images (images having an angle of 360 °) can also be smoothly synthesized.
尚、本実施の形態において、予め指定された範囲として、M=N=0(即ち、共通撮像領域)としたが、これに限ったものではない。例えば、図13の様に共通撮像領域を超えた範囲を指定された範囲として、画素を選択することも可能である。但し、ノルムを算出する際、画素が存在しない領域Rについては計算を行なわないことに注意する。 In the present embodiment, M = N = 0 (that is, the common imaging region) is set as the range designated in advance, but the range is not limited to this. For example, as shown in FIG. 13, it is possible to select a pixel with a range exceeding the common imaging area as a designated range. However, when calculating the norm, it should be noted that the calculation is not performed for the region R where no pixel exists.
また、本実施の形態において、輝度信号に基づいてノルムの計算を行ったが、これに限ったものではない。色情報に基づいて計算を行っても良い。例えば、R信号、G信号、B信号、色差信号を用いることができる。また、幾何情報を用いても良い。例えば、近傍数画素からエッジの方向を判定し(図14)、この方向が維持されるように線分Q1 (k)Q2 (k)の組を選択することができる。 In the present embodiment, the norm is calculated based on the luminance signal, but the present invention is not limited to this. You may calculate based on color information. For example, an R signal, a G signal, a B signal, and a color difference signal can be used. Further, geometric information may be used. For example, it is possible to determine the direction of the edge from several neighboring pixels (FIG. 14) and select a set of line segments Q 1 (k) Q 2 (k) so that this direction is maintained.
また、本実施の形態において、2つの画素を抽出したが、これに限ったものではない。例えば、図15の様に3つの画素を抽出し、折れ線としてマッチングを取ることもできる。また3点以上の場合は、図16の様に、△P1P2P3と△Q1Q2Q3の領域としてマッチングを取ってもよい。この様に、抽出点を多くすることで自由度が上がり、マッチングの精度を上げることができる。 In the present embodiment, two pixels are extracted, but the present invention is not limited to this. For example, as shown in FIG. 15, three pixels can be extracted and matched as a polygonal line. When there are three or more points, matching may be taken as a region of ΔP 1 P 2 P 3 and ΔQ 1 Q 2 Q 3 as shown in FIG. In this way, increasing the number of extraction points increases the degree of freedom and increases the matching accuracy.
また、本実施の形態において、線分をn等分してノルムの計算を行なったが、これに限ったものではない。例えば、図17の様に、線分P’1P’5と線分Q’1Q’5のノルムが最小となるようなQ’2(u2,v2)〜Q’4(u4,v4)を探索し、非線形の分割を行なっても良い。非線形の分割を許容することで補間点Q’2(u2,v2)〜Q’4(u4,v4)の自由度が上がり、マッチングの精度を上げることができる。 In the present embodiment, the norm is calculated by dividing the line segment into n equal parts, but the present invention is not limited to this. For example, as shown in FIG. 17, Q ′ 2 (u 2 , v 2 ) to Q ′ 4 (u 4 ) such that the norms of the line segment P ′ 1 P ′ 5 and the line segment Q ′ 1 Q ′ 5 are minimized. , V 4 ), and non-linear division may be performed. By allowing non-linear division, the degree of freedom of the interpolation points Q ′ 2 (u 2 , v 2 ) to Q ′ 4 (u 4 , v 4 ) is increased, and the matching accuracy can be increased.
本実施の形態において、歪み関数を伝播させる際に線形で重み付けを行なったが、これに限ったものではない。例えば、図18に示すような非線形での重み付けを行っても良い。この様な曲線にすることで、より滑らかに画像を補正することができる。 In the present embodiment, weighting is performed linearly when propagating the distortion function, but the present invention is not limited to this. For example, non-linear weighting as shown in FIG. 18 may be performed. By using such a curve, the image can be corrected more smoothly.
本実施の形態において、画像を合成する際に、一方の共通撮像領域を削除したが、これに限ったものではない。透過処理を施し、重ね合わせても良い。境界部をぼかす事により、接合部の不連続性を緩和することができ、一方で透過率を0または実質上0に近い値とすることで本願の効果も奏することができる。 In the present embodiment, when compositing images, one common imaging region is deleted, but the present invention is not limited to this. Transmission processing may be performed and superposition may be performed. By blurring the boundary portion, the discontinuity of the joint portion can be relaxed, and the effect of the present application can also be achieved by setting the transmittance to 0 or a value substantially close to 0.
本実施の形態において、第2の画像のみを操作したが、これに限ったものではない。図19の様に、第1の画像と第2の画像を同時に操作し、最適なパターンを探索しても良い。補正による変化量を第1の画像と第2の画像に分指させることができ、1つの画像当たりの変化量を抑えることが出来る。 In the present embodiment, only the second image is operated, but the present invention is not limited to this. As shown in FIG. 19, the first image and the second image may be operated simultaneously to search for an optimum pattern. The amount of change due to the correction can be divided into the first image and the second image, and the amount of change per image can be suppressed.
本実施の形態において、共通撮像領域を予め指定していたが、これに限ったものではない。図2の構成例に示すように共通領域抽出部201を加え、本領域を計算によって求めることもできる。例えば、第1の画像と第2の画像の相互相関を算出し、最も相関値が高い領域を共通領域とすれば良い。
In the present embodiment, the common imaging area is designated in advance, but the present invention is not limited to this. As shown in the configuration example of FIG. 2, the common
(変形例)
実施の形態1における画像生成装置の各構成要素をプログラムとして構築し、画像生成装置として利用されるコンピュータにインストールする、または、ネットワークを介して流通させることも可能である。このプログラムには、画素抽出部101と画素選択部102と画像補正部103と画像合成部104が、プロセス、またはプログラムモジュールとして実装されることになる。
(Modification)
It is also possible to construct each component of the image generation apparatus according to the first embodiment as a program and install it in a computer used as the image generation apparatus or distribute it via a network. In this program, the
本実施の形態に係る構成例を図20に示す。2001はCPU、2002はカムコーダ、デジタルカメラ等の画像取り込み部、2003は画像取り込み機器の接続I/O、2004はテレビ等のディスプレイ部、2005はディスプレイ部の接続I/O、2006はRAM、2007はハードディスク等の外部記憶装置、2008は外部記憶装置の接続I/O、2009はCD−ROMやDVD−ROM等の記憶媒体、2010は記憶媒体を読み込むドライブ、2011はドライブの接続I/O、2012はネットワーク通信を行うI/Fである。 A configuration example according to the present embodiment is shown in FIG. 2001 is a CPU, 2002 is an image capturing unit such as a camcorder or digital camera, 2003 is an image capturing device connection I / O, 2004 is a display unit such as a television, 2005 is a display unit connection I / O, 2006 is a RAM, 2007 Is an external storage device such as a hard disk, 2008 is an external storage device connection I / O, 2009 is a storage medium such as a CD-ROM or DVD-ROM, 2010 is a drive for reading the storage medium, 2011 is a drive connection I / O, 2012 is an I / F that performs network communication.
以下、図21のフローチャートを用いて詳細を示す。 Details will be described below with reference to the flowchart of FIG.
まずプログラムの読み込みを行う。 First, load the program.
本プログラムは、コンピュータ上で実行可能な形式として記録媒体2009に格納されている。これをドライブ2010で読み込む。或いは、本プログラムは、ネットワークなどのI/F2012を通じてダウンロードしてもよい。また、本プログラムは、予め外部記憶装置2007に格納されていてもよいし、更には、ドライブ、ネットワークを通じて読み込んだ後に、接続I/O2011及び2008を通じて、外部記憶装置2007に格納してもよい(ステップ2101)。
This program is stored in the
読み込んだプログラムをRAM2006に読み込む(ステップ2102)。なお、ドライブ2010を用いて読み込む場合は、接続I/O2011を通じてRAM2006へ展開される。一方、外部記憶装置2007を用いて読み込む場合は、接続I/O2008を通じてRAM2006へ展開される。
The read program is read into the RAM 2006 (step 2102). In addition, when reading using the
次に画像データの取り込みを行う。 Next, image data is captured.
取り込みは、画像取り込み部2002で光学的に行われる(ステップ2103)。 The capturing is optically performed by the image capturing unit 2002 (step 2103).
取り込まれた画像が、接続I/O2003及び2008を通じて外部記憶装置に格納される(ステップ2104)。
The captured image is stored in the external storage device through the connection I /
格納された画像データが、接続I/O2008を通じてRAM2006へ展開される(ステップ2105)。
The stored image data is expanded to the
RAMに読み込まれたプログラムと画像データを用いてCPU2001で画像生成処理が行われる(ステップ2106)。ここでの処理は、上述した実施の形態に従って進められる。
The
生成した結果は、接続I/O2005を通じてディスプレイ部2004に表示される。また、生成した画像データを、I/F2012を通じて送信することも可能である。
The generated result is displayed on the
(その他変形例)
なお、本発明を上記実施の形態及び変形例に基づいて説明してきたが、本発明は、上記の実施の形態に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
(Other variations)
Although the present invention has been described based on the above embodiments and modifications, it is needless to say that the present invention is not limited to the above embodiments. The following cases are also included in the present invention.
(1)上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。 (1) A part or all of the constituent elements constituting each of the above devices may be constituted by one system LSI (Large Scale Integration). The system LSI is a super multifunctional LSI manufactured by integrating a plurality of components on one chip, and specifically, a computer system including a microprocessor, a ROM, a RAM, and the like. . A computer program is stored in the RAM. The system LSI achieves its functions by the microprocessor operating according to the computer program.
(2)上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。 (2) A part or all of the constituent elements constituting each of the above devices may be constituted by an IC card that can be attached to and detached from each device or a single module. The IC card or the module is a computer system including a microprocessor, a ROM, a RAM, and the like. The IC card or the module may include the super multifunctional LSI described above. The IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
(3)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。 (3) The above embodiment and the above modifications may be combined.
本発明にかかる画像生成装置は、局所的な非線形の歪みを含む様々な幾何学的な変換が生じた画像からでも、パノラマ画像の合成を可能とする。撮影の際に光学中心が一致せずに視差が生じている場合やレンズの収差補正が不十分である場合に有用である。 The image generation apparatus according to the present invention makes it possible to synthesize a panoramic image even from an image in which various geometric transformations including local nonlinear distortion have occurred. This is useful in the case where parallax occurs because the optical centers do not coincide with each other or when the lens aberration correction is insufficient.
101 画素抽出部
102 画素選択部
103 画像補正部
104 画像合成部
201 共通領域抽出部
202 画素抽出部
203 画素選択部
204 画像補正部
205 画像合成部
2001 CPU
2002 画像取り込み部
2003 I/O
2004 ディスプレイ部
2005 I/O
2006 RAM
2007 外部記憶装置
2008 I/O
2009 ROM
2010 ドライブ
2011 I/O
2012 I/F
2201 画像メモリ
2202 画像メモリ
2203 対応点検出手段
2204 歪曲収差焦点距離推定手段
2205 歪曲収差補正手段
2206 回転補正制御手段
2207 回転補正手段
2208 画像合成手段
DESCRIPTION OF
2002 Image capture unit 2003 I / O
2004 Display unit 2005 I / O
2006 RAM
2007 External storage device 2008 I / O
2009 ROM
2010 drive 2011 I / O
2012 I / F
2201
Claims (14)
前記第1の画像のうち、前記第1の画像と前記第2の画像との共通撮像領域とその周辺M画素(但し、0≦M)を含む領域から、画素を2つ以上抽出する画素抽出部と、
前記第2の画像のうち、前記第1の画像との共通撮像領域とその周辺N画素(但し、0≦N)を含む領域から、前記抽出画素に基づき予め定義される領域と所定の条件を満たす領域を構成する画素を2つ以上選択する画素選択部と、
前記選択した画素を基に前記第1の画像と前記第2の画像の少なくとも一方を補正する画像補正部と、
少なくとも一方が補正された前記第1の画像と前記第2の画像とを合成する画像合成部とを備えた画像生成装置。 An apparatus for generating an image using a first image and a second image,
Pixel extraction for extracting two or more pixels from a region including a common imaging region of the first image and the second image and surrounding M pixels (where 0 ≦ M) in the first image. And
Of the second image, a region defined in advance based on the extracted pixel and a predetermined condition are selected from a region including a common imaging region with the first image and its surrounding N pixels (where 0 ≦ N). A pixel selection unit that selects two or more pixels constituting a region to be filled;
An image correction unit that corrects at least one of the first image and the second image based on the selected pixel;
An image generation apparatus comprising: an image synthesis unit that synthesizes the first image and the second image, at least one of which is corrected.
前記第1の画像のうち、前記第1の画像と前記第2の画像との共通撮像領域とその周辺M画素(但し、0≦M)を含む領域から、画素を2つ以上抽出する画素抽出ステップと、
前記第2の画像のうち、前記第1の画像との共通撮像領域とその周辺N画素(但し、0≦N)を含む領域から、前記抽出画素に基づき予め定義される領域と所定の条件を満たす領域を構成する画素を2つ以上選択する画素選択ステップと、
前記選択した画素を基に前記第1の画像と前記第2の画像の少なくとも一方を補正する画像補正ステップと、
少なくとも一方が補正された前記第1の画像と前記第2の画像とを合成する画像合成ステップとを含む画像生成方法。 A method of generating an image by combining a first image and a second image,
Pixel extraction for extracting two or more pixels from a region including a common imaging region of the first image and the second image and surrounding M pixels (where 0 ≦ M) in the first image. Steps,
Of the second image, a region defined in advance based on the extracted pixel and a predetermined condition are selected from a region including a common imaging region with the first image and its surrounding N pixels (where 0 ≦ N). A pixel selection step of selecting two or more pixels constituting a region to be filled;
An image correction step of correcting at least one of the first image and the second image based on the selected pixel;
An image generation method including an image synthesis step of synthesizing the first image and the second image, at least one of which is corrected.
前記第1の画像のうち、前記第1の画像と前記第2の画像との共通撮像領域とその周辺M画素(但し、0≦M)を含む領域から、画素を2つ以上抽出する画素抽出ステップと、
前記第2の画像のうち、前記第1の画像との共通撮像領域とその周辺N画素(但し、0≦N)を含む領域から、前記抽出画素に基づき予め定義される領域と所定の条件を満たす領域を構成する画素を2つ以上選択する画素選択ステップと、
前記選択した画素を基に前記第1の画像と前記第2の画像の少なくとも一方を補正する画像補正ステップと、
少なくとも一方が補正された前記第1の画像と前記第2の画像とを合成する画像合成ステップとを実行させるためのプログラム。 A program for causing a computer to generate an image by combining a first image and a second image,
Pixel extraction for extracting two or more pixels from a region including a common imaging region of the first image and the second image and surrounding M pixels (where 0 ≦ M) in the first image. Steps,
Of the second image, a region defined in advance based on the extracted pixel and a predetermined condition are selected from a region including a common imaging region with the first image and its surrounding N pixels (where 0 ≦ N). A pixel selection step of selecting two or more pixels constituting a region to be filled;
An image correction step of correcting at least one of the first image and the second image based on the selected pixel;
A program for executing an image synthesis step of synthesizing the first image and the second image, at least one of which is corrected.
前記第1の画像のうち、前記第1の画像と前記第2の画像との共通撮像領域とその周辺M画素(但し、0≦M)を含む領域から、画素を2つ以上抽出させ、
前記第2の画像のうち、前記第1の画像との共通撮像領域とその周辺N画素(但し、0≦N)を含む領域から、前記抽出画素に基づき予め定義される領域と所定の条件を満たす領域を構成する画素を2つ以上選択させ、
前記選択した画素を基に前記第1の画像と前記第2の画像の少なくとも一方を補正させ、
少なくとも一方が補正された前記第1の画像と前記第2の画像とを合成させるよう制御する半導体装置。 A semiconductor device that controls to generate an image by combining an input first image and a second image,
Of the first image, two or more pixels are extracted from a common imaging region of the first image and the second image and a region including surrounding M pixels (however, 0 ≦ M),
Of the second image, a region defined in advance based on the extracted pixel and a predetermined condition are selected from a region including a common imaging region with the first image and its surrounding N pixels (where 0 ≦ N). Select two or more pixels that make up the region to fill,
Correcting at least one of the first image and the second image based on the selected pixel;
A semiconductor device that controls to combine the first image and the second image, at least one of which is corrected.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006170012A JP2008003683A (en) | 2006-06-20 | 2006-06-20 | Image generation device and its method and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006170012A JP2008003683A (en) | 2006-06-20 | 2006-06-20 | Image generation device and its method and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2008003683A true JP2008003683A (en) | 2008-01-10 |
Family
ID=39008030
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006170012A Pending JP2008003683A (en) | 2006-06-20 | 2006-06-20 | Image generation device and its method and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2008003683A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2013069554A1 (en) * | 2011-11-09 | 2013-05-16 | ソニー株式会社 | Image processing device and method, and program |
WO2013146566A1 (en) * | 2012-03-30 | 2013-10-03 | ソニー株式会社 | Image processing apparatus and method, and program |
JP2014016185A (en) * | 2012-07-06 | 2014-01-30 | Mitsubishi Electric Corp | Imaging radar apparatus and signal processing apparatus |
WO2014064967A1 (en) * | 2012-10-24 | 2014-05-01 | 富士ゼロックス株式会社 | Information processing device, information processing system, and program |
US9105107B2 (en) | 2011-06-10 | 2015-08-11 | Samsung Electronics Co., Ltd. | Apparatus and method for image processing |
-
2006
- 2006-06-20 JP JP2006170012A patent/JP2008003683A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9105107B2 (en) | 2011-06-10 | 2015-08-11 | Samsung Electronics Co., Ltd. | Apparatus and method for image processing |
WO2013069554A1 (en) * | 2011-11-09 | 2013-05-16 | ソニー株式会社 | Image processing device and method, and program |
JP2013102366A (en) * | 2011-11-09 | 2013-05-23 | Sony Corp | Image processing device and method, and program |
US9704218B2 (en) | 2011-11-09 | 2017-07-11 | Sony Corporation | Image processing device and method, and program |
WO2013146566A1 (en) * | 2012-03-30 | 2013-10-03 | ソニー株式会社 | Image processing apparatus and method, and program |
JP2014016185A (en) * | 2012-07-06 | 2014-01-30 | Mitsubishi Electric Corp | Imaging radar apparatus and signal processing apparatus |
WO2014064967A1 (en) * | 2012-10-24 | 2014-05-01 | 富士ゼロックス株式会社 | Information processing device, information processing system, and program |
JP2014086925A (en) * | 2012-10-24 | 2014-05-12 | Fuji Xerox Co Ltd | Information processing device, information processing system, and program |
US9940700B2 (en) | 2012-10-24 | 2018-04-10 | Fuji Xerox Co., Ltd. | Information processing apparatus, information processing method, information processing system, and non-transitory computer readable medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9609181B2 (en) | Image signal processor and method for synthesizing super-resolution images from non-linear distorted images | |
JP4513906B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP4775700B2 (en) | Image processing apparatus and image processing method | |
US8217956B1 (en) | Method and apparatus for rendering spherical panoramas | |
TWI387935B (en) | Image generation method, program therefor, and storage medium for storing the program | |
US20050008254A1 (en) | Image generation from plurality of images | |
TWI336200B (en) | ||
JP6906947B2 (en) | Image processing equipment, imaging equipment, image processing methods and computer programs | |
JPH10178564A (en) | Panorama image generator and recording medium | |
JP2013020527A (en) | Image processing device, method, and program | |
WO2020218024A1 (en) | Panoramic video image synthesis device, panoramic video image synthesis method, and panoramic video image synthesis program | |
JP6656035B2 (en) | Image processing apparatus, imaging apparatus, and control method for image processing apparatus | |
JP4871820B2 (en) | Video display system and parameter generation method for the system | |
JP2008003683A (en) | Image generation device and its method and recording medium | |
WO2008102898A1 (en) | Image quality improvement processig device, image quality improvement processig method and image quality improvement processig program | |
JP2005045513A (en) | Image processor and distortion correction method | |
JP2013020528A (en) | Image processing device, method, and program | |
JP4128123B2 (en) | Camera shake correction device, camera shake correction method, and computer-readable recording medium recording camera shake correction program | |
JP6274744B2 (en) | Image processing apparatus and image processing method | |
JP4807194B2 (en) | Image processing apparatus and program | |
JP2016201788A (en) | Image processing system, imaging apparatus, image processing method, and program | |
JP2017103695A (en) | Image processing apparatus, image processing method, and program of them | |
JP2010232710A (en) | Image processing apparatus, and image processing method | |
JPH10108003A (en) | Image compositing device and image compositing method | |
JP5645704B2 (en) | Image processing apparatus and control method thereof |