JP2008003683A - Image generation device and its method and recording medium - Google Patents

Image generation device and its method and recording medium Download PDF

Info

Publication number
JP2008003683A
JP2008003683A JP2006170012A JP2006170012A JP2008003683A JP 2008003683 A JP2008003683 A JP 2008003683A JP 2006170012 A JP2006170012 A JP 2006170012A JP 2006170012 A JP2006170012 A JP 2006170012A JP 2008003683 A JP2008003683 A JP 2008003683A
Authority
JP
Japan
Prior art keywords
image
region
pixel
pixels
common imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2006170012A
Other languages
Japanese (ja)
Inventor
Shiyouko Ejima
將高 江島
Takashi Inoue
尚 井上
Kan Guen
カン グエン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2006170012A priority Critical patent/JP2008003683A/en
Publication of JP2008003683A publication Critical patent/JP2008003683A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To synthesize accurately an image in synthesizing a single sheet of a panoramic image from a plurality of images even when local nonlinear distortion or geometric transformation between the images occur. <P>SOLUTION: The device is equipped with a pixel extraction part for extracting two or more pixels from an area including a common imaging area with a second image and its peripheral M pixels (here, 0≤M) in a first image, a pixel selection part for selecting two or more pixels constituting the area defined in advance based on the extracted pixel and the area satisfying a designated condition from the common imaging area with the first image and the area including its peripheral N pixels (here, 0≤N) in the second image, an image correction part for correcting at least one of the first image and the second image, and an image synthesizing part for synthesizing the image in which at least one of the first image and the second image is corrected, and generates the image. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、複数枚の画像から1枚の画像を生成する技術に関するものである。   The present invention relates to a technique for generating one image from a plurality of images.

従来、複数枚の画像を接合してパノラマ画像を生成するには、収差補正と回転補正を施し、画像を補正して生成するものがあった(特許文献1参照)。図22は、特許文献1に記載された従来技術のブロック図である。   Conventionally, in order to generate a panoramic image by joining a plurality of images, there has been a method in which aberration correction and rotation correction are performed and the image is corrected (see Patent Document 1). FIG. 22 is a block diagram of the prior art described in Patent Document 1. In FIG.

まず、画像間で共通の被写体部分に対応する点(以下、対応点と記述する)を対応点検出手段2203で検出する。対応点の検出には、次に、その対応点を基に歪曲収差焦点距離推定手段2204で、焦点距離値、歪曲収差値の推定、回転補正制御手段2206で回転補正角を推定する。最後に、これらの値を用いて、まず、歪曲収差補正手段2205で画像の歪曲収差を補正し、続いて、回転補正手段2207で回転補正を行う。
特開平6−4660号公報
First, a corresponding point detection unit 2203 detects a point corresponding to a common subject portion between images (hereinafter referred to as a corresponding point). For detection of corresponding points, the focal length value and distortion value are estimated by the distortion aberration focal length estimation means 2204 based on the corresponding points, and the rotation correction angle is estimated by the rotation correction control means 2206. Finally, using these values, first, the distortion correction means 2205 corrects the distortion of the image, and then the rotation correction means 2207 performs rotation correction.
Japanese Patent Laid-Open No. 6-4660

上述した従来の構成では、対応点の抽出を正確に行なわないと補正の精度が低下する。ここで、通常、対応点の抽出はマッチング処理によって行なわれる。しかし、光源の影響等により複数の画像間で同じ位置にある画素であっても輝度値や色に違いが生じるため、画素単位で対応点の抽出を正確に行なうことは容易ではない。   In the conventional configuration described above, the accuracy of correction decreases unless the corresponding points are accurately extracted. Here, the extraction of corresponding points is usually performed by matching processing. However, even if the pixels are at the same position among a plurality of images due to the influence of the light source or the like, the brightness value and the color are different, so that it is not easy to accurately extract the corresponding points in units of pixels.

また、領域毎に生じた非線形の歪みを、完全に補正することは困難であるため、合成時に画像が完全には繋がらない。   In addition, since it is difficult to completely correct the non-linear distortion generated in each region, the images are not completely connected at the time of synthesis.

そこで本発明は、アフィン変換や透視変換の幾何学変換を用いずにマッチングだけの容易な処理で画像間の差異を推定し、この差異によって求められた歪み関数により精度よく補正を行い、パノラマ画像を生成する画像処理装置の提供を目的とする。   Therefore, the present invention estimates the difference between images by an easy process of matching only without using affine transformation or geometric transformation of perspective transformation, and corrects the panoramic image accurately by using the distortion function obtained by this difference. An object of the present invention is to provide an image processing apparatus that generates the image.

第1の発明による画像生成装置は、第1の画像において、第2の画像との共通撮像領域とその周辺M画素(但し、0≦M)を含む領域から、画素を2つ以上抽出する画素抽出部と、前記第2の画像において、前記第1の画像との共通撮像領域とその周辺N画素(但し、0≦N)を含む領域から、前記抽出画素に基づき予め定義される領域と所定の条件を満たす領域を構成する画素を2つ以上選択する画素選択部と、前記選択した画素を基に前記第1の画像と前記第2の画像の少なくとも一方を補正する画像補正部と、前記第1の画像と前記第2の画像の少なくとも一方が補正された画像とを合成する画像合成部とを有し、画像の生成を行う。   The image generating apparatus according to the first aspect of the present invention is a pixel that extracts two or more pixels from a region including a common imaging region with the second image and its surrounding M pixels (where 0 ≦ M) in the first image. In the second image and the extraction unit, a region defined in advance based on the extraction pixel and a predetermined region are selected from a region including a common imaging region with the first image and its surrounding N pixels (where 0 ≦ N). A pixel selection unit that selects two or more pixels constituting a region that satisfies the condition, an image correction unit that corrects at least one of the first image and the second image based on the selected pixel, An image synthesis unit that synthesizes the first image and an image in which at least one of the second images is corrected, and generates an image.

第2の発明によれば、所定の条件は、抽出画素に基づき予め定義される領域における画素値の差異を最小にすることとである。   According to the second invention, the predetermined condition is to minimize a difference in pixel values in a region defined in advance based on the extracted pixels.

第3の発明によれば、抽出画素に基づき予め定義される領域における差異は、画像の輝度情報、色情報、幾何情報の少なくとも一つを基に算出する。   According to the third aspect, the difference in the region defined in advance based on the extracted pixel is calculated based on at least one of the luminance information, color information, and geometric information of the image.

第4の発明によれば、領域は、直線、曲線、平面の少なくとも一つである。   According to the fourth invention, the region is at least one of a straight line, a curve, and a plane.

第5の発明によれば、画素選択部は、画素抽出部により抽出された画素との対応関係を表す歪み関数を算出する。   According to the fifth aspect, the pixel selection unit calculates a distortion function that represents a correspondence relationship with the pixel extracted by the pixel extraction unit.

第6の発明によれば、補正とは、選択された2つ以上の点のうち少なくとも1つの点を共通撮像領域外の対応点の新たな点の座標を算出するために用い、前記選択された2つ以上の点と前記新たな点とを用いて共通撮像領域外の画像データを補正することである。   According to the sixth invention, the correction is performed by using at least one of the selected two or more points to calculate the coordinates of a new point of the corresponding point outside the common imaging region. In addition, the image data outside the common imaging region is corrected using two or more points and the new point.

第7の発明によれば、画像補正部は、第1の画像と第2の画像との共通撮像領域以外の領域において、歪み関数に重み付けをして画素の補正を行う。   According to the seventh aspect, the image correction unit performs pixel correction by weighting the distortion function in a region other than the common imaging region of the first image and the second image.

第8の発明によれば、画像合成部は、第1の画像と第2の画像との共通撮像領域の少なくとも一方をクリッピング処理して合成する。   According to the eighth aspect of the invention, the image composition unit performs a clipping process to compose at least one of the common imaging regions of the first image and the second image.

第9の発明によれば、画像合成部は、第1の画像と第2の画像との共通撮像領域の少なくとも一方を透過処理して合成する。   According to the ninth aspect, the image composition unit synthesizes at least one of the common imaging region of the first image and the second image by transmission processing.

更に、第10の発明によれば、画像のマッチング処理により、第1の画像と第2の画像との共通撮像領域を抽出する共通領域抽出部を備えることもできる。   Furthermore, according to the tenth aspect, it is possible to provide a common area extraction unit that extracts a common imaging area of the first image and the second image by image matching processing.

本発明によれば、アフィン変換や透視変換の幾何学変換を用いずにマッチングだけの容易な処理で精度よく補正を行い、パノラマ画像を生成することができる。   According to the present invention, it is possible to generate a panoramic image by performing correction with high accuracy by an easy process of only matching without using affine transformation or geometric transformation of perspective transformation.

また、さらに、所定の領域において局所的なマッチング処理を行い、その結果を基に画像に補正処理を施す。この局所的なマッチング処理により、レンズの非線形歪みを含め、様々な幾何学変換にも対応が可能となる。   Further, local matching processing is performed in a predetermined region, and correction processing is performed on the image based on the result. By this local matching processing, it is possible to cope with various geometric transformations including nonlinear distortion of the lens.

以下本発明の実施の形態について、図面を参照しながら説明する。   Embodiments of the present invention will be described below with reference to the drawings.

(実施の形態)
図1は、本発明の実施の形態における画像生成装置のブロック図である。
(Embodiment)
FIG. 1 is a block diagram of an image generation apparatus according to an embodiment of the present invention.

図1において、画像生成装置は、画素抽出部101と画素選択部102と画像補正部103と画像合成部104とを有する。   In FIG. 1, the image generation apparatus includes a pixel extraction unit 101, a pixel selection unit 102, an image correction unit 103, and an image composition unit 104.

図3は、本発明の実施の形態1に係る、画像生成装置のフローチャートである。   FIG. 3 is a flowchart of the image generation apparatus according to Embodiment 1 of the present invention.

まず、第1の画像と第2の画像を入力し、画素抽出部101は、第1の画像において、図4に示す第2の画像との共通撮像領域と、その周辺M画素(但し、M≧0)を含むあらかじめ定義される領域から、第1の画像の画素を2つ以上抽出する(ステップ301)。   First, the first image and the second image are input, and the pixel extraction unit 101 in the first image has a common imaging region with the second image shown in FIG. Two or more pixels of the first image are extracted from a predefined region including ≧ 0) (step 301).

次に、画素選択部102は、第2の画像において、第1の画像との共通撮像領域(図4中ハッチングされた部分)とその周辺N画素(但し、N≧0)を含む領域から、前記抽出した画素に基づき予め定義される領域と所定の条件を満たす領域を構成する第2の画像の画素を2つ以上選択する(ステップ302)。所定の条件については後述する。   Next, the pixel selection unit 102, in the second image, from a region including a common imaging region (hatched portion in FIG. 4) with the first image and its peripheral N pixels (where N ≧ 0). Two or more pixels of the second image constituting a region defined in advance and a region satisfying a predetermined condition are selected based on the extracted pixels (step 302). The predetermined condition will be described later.

そして、画像補正部103は、第1の画像と第2の画像の少なくとも一方を補正する(ステップ303)。補正は、後述する前記選択した画素から求められる歪み関数を基に行う。   Then, the image correction unit 103 corrects at least one of the first image and the second image (step 303). The correction is performed based on a distortion function obtained from the selected pixel described later.

最後に、画像合成部104は、少なくとも一方が補正された第1の画像と第2の画像とを合成する(ステップ304)。   Finally, the image synthesis unit 104 synthesizes the first image and the second image, at least one of which has been corrected (step 304).

以下、各ステップの詳細を説明する。   Details of each step will be described below.

ここでは、周辺画素数を0(M=N=0)とし、図4のハッチング部分である共通の撮像領域のみを予め定義される領域として注目して合成する例を示す。   Here, an example is shown in which the number of peripheral pixels is 0 (M = N = 0), and only the common imaging area that is the hatched portion in FIG. 4 is focused and synthesized as a predefined area.

まず、ステップ301では、第1の画像から画素P(x,y)、P(x,y)を抽出する(図5)。図5においてハッチングがされた領域は、第1の画像における共通撮像領域である。図5に示すように、P1とP2は水平方向に長さを有する線分を形成するように抽出される(y1=y2)。 First, in step 301, pixels P 1 (x 1 , y 1 ) and P 2 (x 2 , y 2 ) are extracted from the first image (FIG. 5). The hatched area in FIG. 5 is a common imaging area in the first image. As shown in FIG. 5, P1 and P2 are extracted so as to form a line segment having a length in the horizontal direction (y1 = y2).

そして、ステップ302では、前述した所定の条件、即ち、画素P(x,y)、P(x,y)を結んだ線分の輝度値とのノルムが最小となる線分を構成する画素Q(u,v)、Q(u,v)を第2の画像から選択する(図6)。 In step 302, the predetermined condition described above, that is, a line that minimizes the norm with the luminance value of the line segment connecting the pixels P 1 (x 1 , y 1 ) and P 2 (x 2 , y 2 ). Pixels Q 1 (u 1 , v 1 ) and Q 2 (u 2 , v 2 ) constituting the minute are selected from the second image (FIG. 6).

ノルム算出の際には、まず、線分P、線分Qをn等分し、新たな点P’(x,y)、Q’(u,v)をそれぞれ求める(図7)。そして、(数1)により算出する。尚、f(ξ)はξでの輝度値を表す。 In calculating the norm, first, the line segment P 1 P 2 and the line segment Q 1 Q 2 are equally divided into n, and new points P ′ n (x n , y n ), Q ′ n (u n , v n ) is obtained (FIG. 7). And it calculates by (Formula 1). Note that f (ξ) represents a luminance value at ξ.

Figure 2008003683
Figure 2008003683

但し、x,y,u,vが実数を取ることに注意する。従って、画素が存在しない場合(x,y,u,vが整数でない場合)、ニアレストネイバー法(Nearest Neighbor Method)、バイリニア法(Bi−Linear Method)、バイキュービック法(Bi−Cubic Method)など従来のサンプリング手法を用いて補間を行う必要がある。一例として、バイリニア法による補間方法を以下に示す。まず、座標Aの4近傍A〜Aと各座標の輝度値f(A)〜f(A)求める(図8)。そして、(数2)により座標Aの輝度値f(A)を求める。 However, x n, y n, u n, v n to note that take the real number. Thus, (if x n, y n, u n , v n is not an integer) when the pixel is not present, the nearest neighbor method (Nearest Neighbor Method), bi-linear method (Bi-Linear Method), bicubic method (Bi- It is necessary to perform interpolation using a conventional sampling method such as Cubic Method). As an example, a bilinear interpolation method is shown below. First, four neighborhoods A 1 to A 4 of the coordinate A and luminance values f (A 1 ) to f (A 4 ) of the respective coordinates are obtained (FIG. 8). Then, the luminance value f (A) of the coordinate A is obtained from (Equation 2).

Figure 2008003683
Figure 2008003683

上記処理を繰り返し、共通撮像領域内での歪み関数(線分Pと線分Qの対応関係)を求める。一例としては、図9に示すように、1ライン単位に線分P (k) (k)を選択し(各ラインでy=y)、それに対応する線分Q (k) (k)の組を選択すればよい。但し、線分Q (k) (k)の選択にあたって、線分Q (k−1) (k−1)の結果も考慮に、全体最適となるようにする。即ち、ノルムの計算には(数3)を用いる。 The above process is repeated to obtain a distortion function (correspondence between line segment P 1 P 2 and line segment Q 1 Q 2 ) in the common imaging region. As an example, as shown in FIG. 9, a line segment P 1 (k) P 2 (k) is selected in units of one line ( y 1 = y 2 for each line), and the corresponding line segment Q 1 (k ) Q 2 (k) may be selected. However, when the selection of the line segment Q 1 (k) Q 2 ( k), in consideration of the result of the line segment Q 1 (k-1) Q 2 (k-1), so that the overall optimum. That is, (Formula 3) is used for calculating the norm.

Figure 2008003683
Figure 2008003683

次に、ステップ303では、前記歪み関数を基に画像の補正を行う。ここでは、第2の画像のみ補正する方法を示す。   Next, in step 303, the image is corrected based on the distortion function. Here, a method of correcting only the second image is shown.

(共通撮像領域の補正)
まず、第2の画像における共通撮像領域の画素データを線分Qの画素データで置き換えることで補正する(図10)。
(Correction of common imaging area)
First, correction is performed by replacing the pixel data of the common imaging region in the second image with the pixel data of the line segment Q 1 Q 2 (FIG. 10).

この処理により、第1の画像と第2の画像の共通撮像領域が、略等しい状態となる。   By this process, the common imaging area of the first image and the second image becomes substantially equal.

(共通撮像領域以外の領域の補正)
次に、第2の画像における共通撮像領域以外の領域を補正する。補正は、前記歪み関数に重み付けをして周辺画素に伝播させることで行なう。ここでは、線形の重み付けを行う方法を示す。
(Correction of areas other than the common imaging area)
Next, an area other than the common imaging area in the second image is corrected. The correction is performed by weighting the distortion function and propagating it to surrounding pixels. Here, a method of performing linear weighting is shown.

共通撮像領域の右端点をT(k,l)、歪みの伝播を実施する範囲(画素数)をβ、T(k,l)とTβ(kβ,lβ)との垂直方向の差をαとする(図11)。線形の重みを付ける場合、y=lβ上の画素の輝度値を直線Tβ上の輝度値で置き換えることで実現できる。ここでは、T’(k,lβ)の輝度値をT(k,lβ)の輝度値で置き換える手順を説明する。 The right end point of the common imaging area is T 1 (k 1 , l 1 ), the distortion propagation range (number of pixels) is β, T 1 (k 1 , l 1 ) and T β (k β , l β ) The difference in the vertical direction with respect to is α (FIG. 11). If be weighted linear, it can be realized by replacing the luminance value of the pixels on y = l beta in luminance value on the straight line T 1 T beta. Here, a procedure for replacing the luminance value of T ′ n (k n , l β ) with the luminance value of T n (k n , l β ) will be described.

まず、(数4)により線分Tβを求める。 First, the line segment T 1 T β is obtained by (Equation 4).

Figure 2008003683
Figure 2008003683

そして、(数5)によりlを求める。 Then, a l n by equation (5).

Figure 2008003683
Figure 2008003683

但し、lは実数であることに注意する。従って、画素が存在しない場合(lが整数でない場合)、前述のニアレストネイバー法、バイリニア法、バイキュービック法などのサンプリング手法を用いて補間を行う必要がある。このようにして求めたTの輝度値をT’の輝度値と置き換える。これを、y=lβ(k≦x≦kβ)上の輝度値に適用することで、線形の重み付けをした歪みの伝播が完了する。 Note that l n is a real number. Thus, (if l n is not an integer) when the pixel is not present, the nearest neighbor method described above, bilinear, it is necessary to perform interpolation using the sampling method such as bi-cubic method. The luminance value of T n thus obtained is replaced with the luminance value of T ′ n . By applying this to the luminance value on y = l β (k 1 ≦ x ≦ k β ), linear weighted distortion propagation is completed.

最後に、画像の合成を行う(図12)。   Finally, image synthesis is performed (FIG. 12).

まず、第2の画像の共通撮像領域を削除する。そして、第1の画像と第2の画像を接合する。   First, the common imaging area of the second image is deleted. Then, the first image and the second image are joined.

このように本発明によれば、アフィン変換や透視変換の幾何学変換を用いずにマッチングだけの容易な処理で精度よく補正を行い、パノラマ画像を生成することができる。   As described above, according to the present invention, it is possible to generate a panoramic image by performing correction with high accuracy by an easy process of matching only without using affine transformation or geometric transformation such as perspective transformation.

また、所定の領域において局所的なマッチング処理を行い、その結果を基に画像に補正処理を施す。この局所的なマッチング処理により、レンズの非線形歪みを含め、様々な幾何学変換にも対応が可能となる。   Further, local matching processing is performed in a predetermined region, and correction processing is performed on the image based on the result. By this local matching processing, it is possible to cope with various geometric transformations including nonlinear distortion of the lens.

また、部分的な補正であるため、連続して撮像された1〜N枚の画像データを接合して360°パノラマ画像を生成する際にも、最初の画像(角度0°の画像)と最後の画像(角度360°の画像)の合成もスムースに行うことができる。   Further, since the correction is partial, when a 360 ° panoramic image is generated by joining 1 to N pieces of image data continuously captured, the first image (image having an angle of 0 °) and the last image are also generated. These images (images having an angle of 360 °) can also be smoothly synthesized.

尚、本実施の形態において、予め指定された範囲として、M=N=0(即ち、共通撮像領域)としたが、これに限ったものではない。例えば、図13の様に共通撮像領域を超えた範囲を指定された範囲として、画素を選択することも可能である。但し、ノルムを算出する際、画素が存在しない領域Rについては計算を行なわないことに注意する。   In the present embodiment, M = N = 0 (that is, the common imaging region) is set as the range designated in advance, but the range is not limited to this. For example, as shown in FIG. 13, it is possible to select a pixel with a range exceeding the common imaging area as a designated range. However, when calculating the norm, it should be noted that the calculation is not performed for the region R where no pixel exists.

また、本実施の形態において、輝度信号に基づいてノルムの計算を行ったが、これに限ったものではない。色情報に基づいて計算を行っても良い。例えば、R信号、G信号、B信号、色差信号を用いることができる。また、幾何情報を用いても良い。例えば、近傍数画素からエッジの方向を判定し(図14)、この方向が維持されるように線分Q (k) (k)の組を選択することができる。 In the present embodiment, the norm is calculated based on the luminance signal, but the present invention is not limited to this. You may calculate based on color information. For example, an R signal, a G signal, a B signal, and a color difference signal can be used. Further, geometric information may be used. For example, it is possible to determine the direction of the edge from several neighboring pixels (FIG. 14) and select a set of line segments Q 1 (k) Q 2 (k) so that this direction is maintained.

また、本実施の形態において、2つの画素を抽出したが、これに限ったものではない。例えば、図15の様に3つの画素を抽出し、折れ線としてマッチングを取ることもできる。また3点以上の場合は、図16の様に、△Pと△Qの領域としてマッチングを取ってもよい。この様に、抽出点を多くすることで自由度が上がり、マッチングの精度を上げることができる。 In the present embodiment, two pixels are extracted, but the present invention is not limited to this. For example, as shown in FIG. 15, three pixels can be extracted and matched as a polygonal line. When there are three or more points, matching may be taken as a region of ΔP 1 P 2 P 3 and ΔQ 1 Q 2 Q 3 as shown in FIG. In this way, increasing the number of extraction points increases the degree of freedom and increases the matching accuracy.

また、本実施の形態において、線分をn等分してノルムの計算を行なったが、これに限ったものではない。例えば、図17の様に、線分P’P’と線分Q’Q’のノルムが最小となるようなQ’(u,v)〜Q’(u,v)を探索し、非線形の分割を行なっても良い。非線形の分割を許容することで補間点Q’(u,v)〜Q’(u,v)の自由度が上がり、マッチングの精度を上げることができる。 In the present embodiment, the norm is calculated by dividing the line segment into n equal parts, but the present invention is not limited to this. For example, as shown in FIG. 17, Q ′ 2 (u 2 , v 2 ) to Q ′ 4 (u 4 ) such that the norms of the line segment P ′ 1 P ′ 5 and the line segment Q ′ 1 Q ′ 5 are minimized. , V 4 ), and non-linear division may be performed. By allowing non-linear division, the degree of freedom of the interpolation points Q ′ 2 (u 2 , v 2 ) to Q ′ 4 (u 4 , v 4 ) is increased, and the matching accuracy can be increased.

本実施の形態において、歪み関数を伝播させる際に線形で重み付けを行なったが、これに限ったものではない。例えば、図18に示すような非線形での重み付けを行っても良い。この様な曲線にすることで、より滑らかに画像を補正することができる。   In the present embodiment, weighting is performed linearly when propagating the distortion function, but the present invention is not limited to this. For example, non-linear weighting as shown in FIG. 18 may be performed. By using such a curve, the image can be corrected more smoothly.

本実施の形態において、画像を合成する際に、一方の共通撮像領域を削除したが、これに限ったものではない。透過処理を施し、重ね合わせても良い。境界部をぼかす事により、接合部の不連続性を緩和することができ、一方で透過率を0または実質上0に近い値とすることで本願の効果も奏することができる。   In the present embodiment, when compositing images, one common imaging region is deleted, but the present invention is not limited to this. Transmission processing may be performed and superposition may be performed. By blurring the boundary portion, the discontinuity of the joint portion can be relaxed, and the effect of the present application can also be achieved by setting the transmittance to 0 or a value substantially close to 0.

本実施の形態において、第2の画像のみを操作したが、これに限ったものではない。図19の様に、第1の画像と第2の画像を同時に操作し、最適なパターンを探索しても良い。補正による変化量を第1の画像と第2の画像に分指させることができ、1つの画像当たりの変化量を抑えることが出来る。   In the present embodiment, only the second image is operated, but the present invention is not limited to this. As shown in FIG. 19, the first image and the second image may be operated simultaneously to search for an optimum pattern. The amount of change due to the correction can be divided into the first image and the second image, and the amount of change per image can be suppressed.

本実施の形態において、共通撮像領域を予め指定していたが、これに限ったものではない。図2の構成例に示すように共通領域抽出部201を加え、本領域を計算によって求めることもできる。例えば、第1の画像と第2の画像の相互相関を算出し、最も相関値が高い領域を共通領域とすれば良い。   In the present embodiment, the common imaging area is designated in advance, but the present invention is not limited to this. As shown in the configuration example of FIG. 2, the common area extraction unit 201 may be added to obtain this area by calculation. For example, the cross correlation between the first image and the second image may be calculated, and the region having the highest correlation value may be set as the common region.

(変形例)
実施の形態1における画像生成装置の各構成要素をプログラムとして構築し、画像生成装置として利用されるコンピュータにインストールする、または、ネットワークを介して流通させることも可能である。このプログラムには、画素抽出部101と画素選択部102と画像補正部103と画像合成部104が、プロセス、またはプログラムモジュールとして実装されることになる。
(Modification)
It is also possible to construct each component of the image generation apparatus according to the first embodiment as a program and install it in a computer used as the image generation apparatus or distribute it via a network. In this program, the pixel extraction unit 101, the pixel selection unit 102, the image correction unit 103, and the image synthesis unit 104 are mounted as processes or program modules.

本実施の形態に係る構成例を図20に示す。2001はCPU、2002はカムコーダ、デジタルカメラ等の画像取り込み部、2003は画像取り込み機器の接続I/O、2004はテレビ等のディスプレイ部、2005はディスプレイ部の接続I/O、2006はRAM、2007はハードディスク等の外部記憶装置、2008は外部記憶装置の接続I/O、2009はCD−ROMやDVD−ROM等の記憶媒体、2010は記憶媒体を読み込むドライブ、2011はドライブの接続I/O、2012はネットワーク通信を行うI/Fである。   A configuration example according to the present embodiment is shown in FIG. 2001 is a CPU, 2002 is an image capturing unit such as a camcorder or digital camera, 2003 is an image capturing device connection I / O, 2004 is a display unit such as a television, 2005 is a display unit connection I / O, 2006 is a RAM, 2007 Is an external storage device such as a hard disk, 2008 is an external storage device connection I / O, 2009 is a storage medium such as a CD-ROM or DVD-ROM, 2010 is a drive for reading the storage medium, 2011 is a drive connection I / O, 2012 is an I / F that performs network communication.

以下、図21のフローチャートを用いて詳細を示す。   Details will be described below with reference to the flowchart of FIG.

まずプログラムの読み込みを行う。   First, load the program.

本プログラムは、コンピュータ上で実行可能な形式として記録媒体2009に格納されている。これをドライブ2010で読み込む。或いは、本プログラムは、ネットワークなどのI/F2012を通じてダウンロードしてもよい。また、本プログラムは、予め外部記憶装置2007に格納されていてもよいし、更には、ドライブ、ネットワークを通じて読み込んだ後に、接続I/O2011及び2008を通じて、外部記憶装置2007に格納してもよい(ステップ2101)。   This program is stored in the recording medium 2009 in a format that can be executed on a computer. This is read by the drive 2010. Alternatively, this program may be downloaded through an I / F 2012 such as a network. The program may be stored in the external storage device 2007 in advance, or may be stored in the external storage device 2007 through the connection I / O 2011 and 2008 after being read through the drive and the network ( Step 2101).

読み込んだプログラムをRAM2006に読み込む(ステップ2102)。なお、ドライブ2010を用いて読み込む場合は、接続I/O2011を通じてRAM2006へ展開される。一方、外部記憶装置2007を用いて読み込む場合は、接続I/O2008を通じてRAM2006へ展開される。   The read program is read into the RAM 2006 (step 2102). In addition, when reading using the drive 2010, it expand | deploys to RAM2006 through connection I / O2011. On the other hand, when data is read using the external storage device 2007, it is expanded in the RAM 2006 through the connection I / O 2008.

次に画像データの取り込みを行う。   Next, image data is captured.

取り込みは、画像取り込み部2002で光学的に行われる(ステップ2103)。   The capturing is optically performed by the image capturing unit 2002 (step 2103).

取り込まれた画像が、接続I/O2003及び2008を通じて外部記憶装置に格納される(ステップ2104)。   The captured image is stored in the external storage device through the connection I / O 2003 and 2008 (step 2104).

格納された画像データが、接続I/O2008を通じてRAM2006へ展開される(ステップ2105)。   The stored image data is expanded to the RAM 2006 through the connection I / O 2008 (step 2105).

RAMに読み込まれたプログラムと画像データを用いてCPU2001で画像生成処理が行われる(ステップ2106)。ここでの処理は、上述した実施の形態に従って進められる。   The CPU 2001 performs image generation processing using the program and image data read into the RAM (step 2106). The processing here proceeds according to the above-described embodiment.

生成した結果は、接続I/O2005を通じてディスプレイ部2004に表示される。また、生成した画像データを、I/F2012を通じて送信することも可能である。   The generated result is displayed on the display unit 2004 through the connection I / O 2005. The generated image data can be transmitted through the I / F 2012.

(その他変形例)
なお、本発明を上記実施の形態及び変形例に基づいて説明してきたが、本発明は、上記の実施の形態に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
(Other variations)
Although the present invention has been described based on the above embodiments and modifications, it is needless to say that the present invention is not limited to the above embodiments. The following cases are also included in the present invention.

(1)上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。   (1) A part or all of the constituent elements constituting each of the above devices may be constituted by one system LSI (Large Scale Integration). The system LSI is a super multifunctional LSI manufactured by integrating a plurality of components on one chip, and specifically, a computer system including a microprocessor, a ROM, a RAM, and the like. . A computer program is stored in the RAM. The system LSI achieves its functions by the microprocessor operating according to the computer program.

(2)上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。   (2) A part or all of the constituent elements constituting each of the above devices may be constituted by an IC card that can be attached to and detached from each device or a single module. The IC card or the module is a computer system including a microprocessor, a ROM, a RAM, and the like. The IC card or the module may include the super multifunctional LSI described above. The IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.

(3)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。   (3) The above embodiment and the above modifications may be combined.

本発明にかかる画像生成装置は、局所的な非線形の歪みを含む様々な幾何学的な変換が生じた画像からでも、パノラマ画像の合成を可能とする。撮影の際に光学中心が一致せずに視差が生じている場合やレンズの収差補正が不十分である場合に有用である。   The image generation apparatus according to the present invention makes it possible to synthesize a panoramic image even from an image in which various geometric transformations including local nonlinear distortion have occurred. This is useful in the case where parallax occurs because the optical centers do not coincide with each other or when the lens aberration correction is insufficient.

本発明の実施の形態における電子透かし埋め込み装置のブロック図Block diagram of a digital watermark embedding apparatus in an embodiment of the present invention 本発明の実施の形態における電子透かし埋め込み装置のブロック図Block diagram of a digital watermark embedding apparatus in an embodiment of the present invention 本発明の実施の形態における電子透かし埋め込み装置のフローチャートFlowchart of a digital watermark embedding apparatus according to an embodiment of the present invention 本発明の実施の形態における共通の撮像領域を示す図The figure which shows the common imaging region in embodiment of this invention 本発明の実施の形態における画素の抽出方法を示す図(2点抽出の場合)The figure which shows the extraction method of the pixel in embodiment of this invention (in the case of 2 point extraction) 本発明の実施の形態における画素の選択方法を示す図(2点選択の場合)The figure which shows the selection method of the pixel in embodiment of this invention (in the case of 2 point selection) 本発明の実施の形態における線分の分割方法を示す図(線形の場合)The figure which shows the division | segmentation method of the line segment in embodiment of this invention (in the case of a linear) 本発明の実施の形態における画素の補間方法(Bi−Linear Method)を示す図The figure which shows the interpolation method (Bi-Linear Method) of the pixel in embodiment of this invention 本発明の実施の形態における共通撮像領域でのマッチングを示す図(周辺を含まない場合)The figure which shows the matching in the common imaging area in embodiment of this invention (when a periphery is not included) 本発明の実施の形態における共通撮像領域での補正を示す図(線形の場合)The figure which shows the correction | amendment in the common imaging area in embodiment of this invention (in the case of a linear) 本発明の実施の形態における共通撮像領域以外での補正を示す図The figure which shows the correction | amendment other than the common imaging area in embodiment of this invention 本発明の実施の形態における画像の合成方法を示す図The figure which shows the composition method of the image in embodiment of this invention 本発明の実施の形態における共通撮像領域でのマッチングを示す図(周辺を含む場合)The figure which shows the matching in the common imaging area | region in embodiment of this invention (when a periphery is included) 本発明の実施の形態におけるエッジの方向を示す図The figure which shows the direction of the edge in embodiment of this invention 本発明の実施の形態における画素の抽出方法を示す図(3点抽出の場合)The figure which shows the extraction method of the pixel in embodiment of this invention (in the case of 3 point extraction) 本発明の実施の形態における画素の選択方法を示す図(3点選択の場合)The figure which shows the selection method of the pixel in embodiment of this invention (in the case of 3 point selection) 本発明の実施の形態における線分の分割方法を示す図(非線形の場合)The figure which shows the division | segmentation method of the line segment in embodiment of this invention (in the case of nonlinear) 本発明の実施の形態における共通撮像領域での補正を示す図(非線形の場合)The figure which shows the correction | amendment in the common imaging area in embodiment of this invention (in the case of nonlinear) 本発明の実施の形態における共通撮像領域でのマッチングを示す図(両方を可変にする場合)The figure which shows the matching in the common imaging area in embodiment of this invention (when making both variable) 本発明の実施の形態における記録媒体のブロック図The block diagram of the recording medium in embodiment of this invention 本発明の実施の形態における記録媒体のフローチャートFlowchart of recording medium in the embodiment of the present invention 従来技術(特許文献1)のブロック図Block diagram of prior art (Patent Document 1)

符号の説明Explanation of symbols

101 画素抽出部
102 画素選択部
103 画像補正部
104 画像合成部
201 共通領域抽出部
202 画素抽出部
203 画素選択部
204 画像補正部
205 画像合成部
2001 CPU
2002 画像取り込み部
2003 I/O
2004 ディスプレイ部
2005 I/O
2006 RAM
2007 外部記憶装置
2008 I/O
2009 ROM
2010 ドライブ
2011 I/O
2012 I/F
2201 画像メモリ
2202 画像メモリ
2203 対応点検出手段
2204 歪曲収差焦点距離推定手段
2205 歪曲収差補正手段
2206 回転補正制御手段
2207 回転補正手段
2208 画像合成手段
DESCRIPTION OF SYMBOLS 101 Pixel extraction part 102 Pixel selection part 103 Image correction part 104 Image composition part 201 Common area extraction part 202 Pixel extraction part 203 Pixel selection part 204 Image correction part 205 Image composition part 2001 CPU
2002 Image capture unit 2003 I / O
2004 Display unit 2005 I / O
2006 RAM
2007 External storage device 2008 I / O
2009 ROM
2010 drive 2011 I / O
2012 I / F
2201 Image memory 2202 Image memory 2203 Corresponding point detection means 2204 Distortion aberration focal length estimation means 2205 Distortion aberration correction means 2206 Rotation correction control means 2207 Rotation correction means 2208 Image composition means

Claims (14)

第1の画像と第2の画像とを用いて画像を生成する装置であって、
前記第1の画像のうち、前記第1の画像と前記第2の画像との共通撮像領域とその周辺M画素(但し、0≦M)を含む領域から、画素を2つ以上抽出する画素抽出部と、
前記第2の画像のうち、前記第1の画像との共通撮像領域とその周辺N画素(但し、0≦N)を含む領域から、前記抽出画素に基づき予め定義される領域と所定の条件を満たす領域を構成する画素を2つ以上選択する画素選択部と、
前記選択した画素を基に前記第1の画像と前記第2の画像の少なくとも一方を補正する画像補正部と、
少なくとも一方が補正された前記第1の画像と前記第2の画像とを合成する画像合成部とを備えた画像生成装置。
An apparatus for generating an image using a first image and a second image,
Pixel extraction for extracting two or more pixels from a region including a common imaging region of the first image and the second image and surrounding M pixels (where 0 ≦ M) in the first image. And
Of the second image, a region defined in advance based on the extracted pixel and a predetermined condition are selected from a region including a common imaging region with the first image and its surrounding N pixels (where 0 ≦ N). A pixel selection unit that selects two or more pixels constituting a region to be filled;
An image correction unit that corrects at least one of the first image and the second image based on the selected pixel;
An image generation apparatus comprising: an image synthesis unit that synthesizes the first image and the second image, at least one of which is corrected.
前記所定の条件は、抽出画素に基づき予め定義される領域における画素値の差異を最小にすることを特徴とする請求項1記載の画像生成装置。 The image generation apparatus according to claim 1, wherein the predetermined condition minimizes a difference in pixel values in a region defined in advance based on the extracted pixels. 抽出画素に基づき予め定義される領域における差異は、画像の輝度情報、色情報、幾何情報の少なくとも一つを基に算出することを特徴とする請求項2記載の画像生成装置。 The image generation apparatus according to claim 2, wherein the difference in the region defined in advance based on the extracted pixel is calculated based on at least one of luminance information, color information, and geometric information of the image. 前記領域は、直線、曲線、平面の少なくとも一つであることを特徴とする請求項1乃至3記載の画像生成装置。 The image generation apparatus according to claim 1, wherein the region is at least one of a straight line, a curve, and a plane. 画素選択部は、画素抽出部により抽出された画素との対応関係を表す歪み関数を算出することを特徴とする請求項1乃至4記載の画像生成装置。 The image generation apparatus according to claim 1, wherein the pixel selection unit calculates a distortion function representing a correspondence relationship with the pixel extracted by the pixel extraction unit. 前記補正は、前記選択された2つ以上の点のうち少なくとも1つの点を共通撮像領域外の対応点の新たな点の座標を算出するために用い、前記選択された2つ以上の点と前記新たな点とを用いて共通撮像領域外の画像データを、補正することを特徴とする請求項1乃至5記載の画像生成装置。 The correction uses at least one point of the selected two or more points to calculate the coordinates of a new point of the corresponding point outside the common imaging region, and the two or more selected points and The image generation apparatus according to claim 1, wherein the image data outside the common imaging region is corrected using the new point. 画像補正部は、第1の画像と第2の画像との共通撮像領域以外の領域において、歪み関数に重み付けをして画素の補正を行うことを特徴とする請求項1乃至6記載の画像生成装置。 The image generation unit according to claim 1, wherein the image correction unit performs pixel correction by weighting the distortion function in a region other than the common imaging region of the first image and the second image. apparatus. 画像合成部は、第1の画像と第2の画像との共通撮像領域の少なくとも一方をクリッピング処理して合成することを特徴とする請求項1乃至7記載の画像生成装置。 The image generating apparatus according to claim 1, wherein the image combining unit combines at least one of the common imaging areas of the first image and the second image by clipping processing. 画像合成部は、第1の画像と第2の画像との共通撮像領域の少なくとも一方を透過処理して合成することを特徴とする請求項1乃至7記載の画像生成装置。 The image generating apparatus according to claim 1, wherein the image composition unit performs composition by transmitting at least one of the common imaging regions of the first image and the second image. 画像のマッチング処理により、第1の画像と第2の画像との共通撮像領域を抽出する共通領域抽出部を更に備えることを特徴とする請求項1乃至9記載の画像生成装置。 The image generation apparatus according to claim 1, further comprising a common area extraction unit that extracts a common imaging area of the first image and the second image by image matching processing. 第1の画像と第2の画像を合成して画像を生成する方法であって、
前記第1の画像のうち、前記第1の画像と前記第2の画像との共通撮像領域とその周辺M画素(但し、0≦M)を含む領域から、画素を2つ以上抽出する画素抽出ステップと、
前記第2の画像のうち、前記第1の画像との共通撮像領域とその周辺N画素(但し、0≦N)を含む領域から、前記抽出画素に基づき予め定義される領域と所定の条件を満たす領域を構成する画素を2つ以上選択する画素選択ステップと、
前記選択した画素を基に前記第1の画像と前記第2の画像の少なくとも一方を補正する画像補正ステップと、
少なくとも一方が補正された前記第1の画像と前記第2の画像とを合成する画像合成ステップとを含む画像生成方法。
A method of generating an image by combining a first image and a second image,
Pixel extraction for extracting two or more pixels from a region including a common imaging region of the first image and the second image and surrounding M pixels (where 0 ≦ M) in the first image. Steps,
Of the second image, a region defined in advance based on the extracted pixel and a predetermined condition are selected from a region including a common imaging region with the first image and its surrounding N pixels (where 0 ≦ N). A pixel selection step of selecting two or more pixels constituting a region to be filled;
An image correction step of correcting at least one of the first image and the second image based on the selected pixel;
An image generation method including an image synthesis step of synthesizing the first image and the second image, at least one of which is corrected.
画像のマッチング処理により、第1の画像と第2の画像との共通撮像領域を抽出する共通領域抽出ステップを更に備えることを特徴とする請求項11記載の画像生成方法。 The image generation method according to claim 11, further comprising a common area extraction step of extracting a common imaging area of the first image and the second image by image matching processing. コンピュータに、第1の画像と第2の画像を合成して画像を生成させるプログラムであって、
前記第1の画像のうち、前記第1の画像と前記第2の画像との共通撮像領域とその周辺M画素(但し、0≦M)を含む領域から、画素を2つ以上抽出する画素抽出ステップと、
前記第2の画像のうち、前記第1の画像との共通撮像領域とその周辺N画素(但し、0≦N)を含む領域から、前記抽出画素に基づき予め定義される領域と所定の条件を満たす領域を構成する画素を2つ以上選択する画素選択ステップと、
前記選択した画素を基に前記第1の画像と前記第2の画像の少なくとも一方を補正する画像補正ステップと、
少なくとも一方が補正された前記第1の画像と前記第2の画像とを合成する画像合成ステップとを実行させるためのプログラム。
A program for causing a computer to generate an image by combining a first image and a second image,
Pixel extraction for extracting two or more pixels from a region including a common imaging region of the first image and the second image and surrounding M pixels (where 0 ≦ M) in the first image. Steps,
Of the second image, a region defined in advance based on the extracted pixel and a predetermined condition are selected from a region including a common imaging region with the first image and its surrounding N pixels (where 0 ≦ N). A pixel selection step of selecting two or more pixels constituting a region to be filled;
An image correction step of correcting at least one of the first image and the second image based on the selected pixel;
A program for executing an image synthesis step of synthesizing the first image and the second image, at least one of which is corrected.
入力された第1の画像と第2の画像を合成して画像を生成するよう制御する半導体装置であって、
前記第1の画像のうち、前記第1の画像と前記第2の画像との共通撮像領域とその周辺M画素(但し、0≦M)を含む領域から、画素を2つ以上抽出させ、
前記第2の画像のうち、前記第1の画像との共通撮像領域とその周辺N画素(但し、0≦N)を含む領域から、前記抽出画素に基づき予め定義される領域と所定の条件を満たす領域を構成する画素を2つ以上選択させ、
前記選択した画素を基に前記第1の画像と前記第2の画像の少なくとも一方を補正させ、
少なくとも一方が補正された前記第1の画像と前記第2の画像とを合成させるよう制御する半導体装置。
A semiconductor device that controls to generate an image by combining an input first image and a second image,
Of the first image, two or more pixels are extracted from a common imaging region of the first image and the second image and a region including surrounding M pixels (however, 0 ≦ M),
Of the second image, a region defined in advance based on the extracted pixel and a predetermined condition are selected from a region including a common imaging region with the first image and its surrounding N pixels (where 0 ≦ N). Select two or more pixels that make up the region to fill,
Correcting at least one of the first image and the second image based on the selected pixel;
A semiconductor device that controls to combine the first image and the second image, at least one of which is corrected.
JP2006170012A 2006-06-20 2006-06-20 Image generation device and its method and recording medium Pending JP2008003683A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006170012A JP2008003683A (en) 2006-06-20 2006-06-20 Image generation device and its method and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006170012A JP2008003683A (en) 2006-06-20 2006-06-20 Image generation device and its method and recording medium

Publications (1)

Publication Number Publication Date
JP2008003683A true JP2008003683A (en) 2008-01-10

Family

ID=39008030

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006170012A Pending JP2008003683A (en) 2006-06-20 2006-06-20 Image generation device and its method and recording medium

Country Status (1)

Country Link
JP (1) JP2008003683A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013069554A1 (en) * 2011-11-09 2013-05-16 ソニー株式会社 Image processing device and method, and program
WO2013146566A1 (en) * 2012-03-30 2013-10-03 ソニー株式会社 Image processing apparatus and method, and program
JP2014016185A (en) * 2012-07-06 2014-01-30 Mitsubishi Electric Corp Imaging radar apparatus and signal processing apparatus
WO2014064967A1 (en) * 2012-10-24 2014-05-01 富士ゼロックス株式会社 Information processing device, information processing system, and program
US9105107B2 (en) 2011-06-10 2015-08-11 Samsung Electronics Co., Ltd. Apparatus and method for image processing

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9105107B2 (en) 2011-06-10 2015-08-11 Samsung Electronics Co., Ltd. Apparatus and method for image processing
WO2013069554A1 (en) * 2011-11-09 2013-05-16 ソニー株式会社 Image processing device and method, and program
JP2013102366A (en) * 2011-11-09 2013-05-23 Sony Corp Image processing device and method, and program
US9704218B2 (en) 2011-11-09 2017-07-11 Sony Corporation Image processing device and method, and program
WO2013146566A1 (en) * 2012-03-30 2013-10-03 ソニー株式会社 Image processing apparatus and method, and program
JP2014016185A (en) * 2012-07-06 2014-01-30 Mitsubishi Electric Corp Imaging radar apparatus and signal processing apparatus
WO2014064967A1 (en) * 2012-10-24 2014-05-01 富士ゼロックス株式会社 Information processing device, information processing system, and program
JP2014086925A (en) * 2012-10-24 2014-05-12 Fuji Xerox Co Ltd Information processing device, information processing system, and program
US9940700B2 (en) 2012-10-24 2018-04-10 Fuji Xerox Co., Ltd. Information processing apparatus, information processing method, information processing system, and non-transitory computer readable medium

Similar Documents

Publication Publication Date Title
US9609181B2 (en) Image signal processor and method for synthesizing super-resolution images from non-linear distorted images
JP4513906B2 (en) Image processing apparatus, image processing method, program, and recording medium
JP4775700B2 (en) Image processing apparatus and image processing method
US8217956B1 (en) Method and apparatus for rendering spherical panoramas
TWI387935B (en) Image generation method, program therefor, and storage medium for storing the program
US20050008254A1 (en) Image generation from plurality of images
TWI336200B (en)
JP6906947B2 (en) Image processing equipment, imaging equipment, image processing methods and computer programs
JPH10178564A (en) Panorama image generator and recording medium
JP2013020527A (en) Image processing device, method, and program
WO2020218024A1 (en) Panoramic video image synthesis device, panoramic video image synthesis method, and panoramic video image synthesis program
JP6656035B2 (en) Image processing apparatus, imaging apparatus, and control method for image processing apparatus
JP4871820B2 (en) Video display system and parameter generation method for the system
JP2008003683A (en) Image generation device and its method and recording medium
WO2008102898A1 (en) Image quality improvement processig device, image quality improvement processig method and image quality improvement processig program
JP2005045513A (en) Image processor and distortion correction method
JP2013020528A (en) Image processing device, method, and program
JP4128123B2 (en) Camera shake correction device, camera shake correction method, and computer-readable recording medium recording camera shake correction program
JP6274744B2 (en) Image processing apparatus and image processing method
JP4807194B2 (en) Image processing apparatus and program
JP2016201788A (en) Image processing system, imaging apparatus, image processing method, and program
JP2017103695A (en) Image processing apparatus, image processing method, and program of them
JP2010232710A (en) Image processing apparatus, and image processing method
JPH10108003A (en) Image compositing device and image compositing method
JP5645704B2 (en) Image processing apparatus and control method thereof