KR20050040342A - Image combination method with repeating photographing - Google Patents

Image combination method with repeating photographing Download PDF

Info

Publication number
KR20050040342A
KR20050040342A KR1020030075520A KR20030075520A KR20050040342A KR 20050040342 A KR20050040342 A KR 20050040342A KR 1020030075520 A KR1020030075520 A KR 1020030075520A KR 20030075520 A KR20030075520 A KR 20030075520A KR 20050040342 A KR20050040342 A KR 20050040342A
Authority
KR
South Korea
Prior art keywords
image
area
overlapping
images
corresponding pixel
Prior art date
Application number
KR1020030075520A
Other languages
Korean (ko)
Inventor
김용민
Original Assignee
스타브이-레이주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 스타브이-레이주식회사 filed Critical 스타브이-레이주식회사
Priority to KR1020030075520A priority Critical patent/KR20050040342A/en
Publication of KR20050040342A publication Critical patent/KR20050040342A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)

Abstract

개시된 내용은 화소수가 적은 영상소자를 이용하여 넓은 면적을 갖는 대상체의 서로 다른 부분을 반복촬영함으로써 중복되는 영역의 영상을 조합하여 고해상도의 영상을 획득하는 방법에 관한 것이다. 본 발명에 따른 반복촬영에 의해 획득된 영상조합방법은 영상소자에 의해 촬영된 중복된 영역을 갖는 서로 다른 영상들을 조합하는 방법에 있어서, 상기 서로 다른 영상들을 중복된 영역과 중복되지 않은 영역으로 분할하는 과정과, 상기 서로 다른 영상들의 중복된 영역의 각 끝부분으로부터 서로 다른 위치를 갖는 중복된 픽셀들까지의 거리를 각각 계산하는 과정과, 상기 계산된 거리에 비례하여 상기 중복된 픽셀들에 대한 각각의 대표 픽셀값을 계산하는 과정으로 이루어지는 것을 특징으로 한다.The present disclosure relates to a method of obtaining a high resolution image by combining images of overlapping regions by repeatedly photographing different portions of an object having a large area by using an image device having a small number of pixels. An image combining method obtained by repeating photographing according to the present invention is a method of combining different images having overlapping regions photographed by an image device, wherein the different images are divided into overlapping regions and non-overlapping regions. Calculating a distance from each end of the overlapped area of the different images to overlapped pixels having different positions, and proportional to the calculated distance. It is characterized by consisting of a process of calculating each representative pixel value.

Description

반복촬영에 의해 획득된 영상조합방법{IMAGE COMBINATION METHOD WITH REPEATING PHOTOGRAPHING}Image Combination Method Acquired by Repeated Shooting {IMAGE COMBINATION METHOD WITH REPEATING PHOTOGRAPHING}

본 발명은 반복촬영에 의해 획득된 영상조합방법에 관한 것으로, 특히 화소수가 적은 영상소자를 이용하여 넓은 면적을 갖는 대상체의 서로 다른 부분을 반복촬영함으로써 중복되는 영역의 영상을 조합하여 고해상도의 영상을 획득하는 방법에 관한 것이다.The present invention relates to an image combining method obtained by repetitive imaging, and in particular, by repeatedly photographing different portions of an object having a large area by using an image device having a small number of pixels, an image of a high resolution is combined by combining images of overlapping regions. It is about a method of acquiring.

통상적으로 넓은 면적의 대상체를 고해상도로 촬영하기 위해서는 영상소자의 픽셀(pixel)수가 많아야 가능하다. 하지만, 픽셀수가 많은 영상소자는 가격이 고가이어서 상업성이 떨어진다는 단점이 있었다. 이러한 단점을 보완하기 위하여 픽셀수가 적은 하나 또는 다수개의 영상소자를 이용하여 넓은 면적의 대상체를 반복촬영하는 방법을 이용하였으나 촬영된 영상은 동일한 광학계를 사용하여 촬영하기 때문에 같은 해상도를 갖게 되지만, 영상과 영상의 경계면에서 화소(pixel)밝기의 변화가 급격하게 이루어지기 때문에 밝기 등의 불균일이 발생되어 단순한 영상의 조합을 통해서는 모자이크와 같은 현상이 영상에서 보이게 된다는 문제점이 있었다. 따라서, 이러한 현상을 피하기 위해서는 영상을 조합하는 과정에서 별도의 영상처리과정을 거쳐야 한다.In general, in order to capture a large area of an object at high resolution, the number of pixels of the image device is large. However, there are disadvantages in that the image device having a large number of pixels is expensive and its commerciality is low. In order to compensate for this disadvantage, a method of repeatedly photographing an object having a large area using one or a plurality of image elements having a small number of pixels is used, but since the captured image is taken using the same optical system, the same resolution is obtained. Since there is a sudden change in pixel brightness at the boundary of the image, non-uniformity such as brightness is generated and there is a problem that a mosaic-like phenomenon is seen in the image through a simple combination of images. Therefore, in order to avoid such a phenomenon, a separate image processing process must be performed in the process of combining the images.

따라서, 본 발명의 목적은 상술한 문제점을 해소하기 위한 것으로, 화소수가 적은 영상소자를 이용하여 넓은 면적을 갖는 대상체의 서로 다른 부분을 반복촬영하여 중복되는 영역의 영상을 조합함으로써, 고해상도의 영상을 획득할 수 있도록 한 반복촬영에 의해 획득된 영상조합방법을 제공함에 있다.Accordingly, an object of the present invention is to solve the above-described problem, and by repeatedly photographing different portions of an object having a large area by using an image element having a small number of pixels, combining images of overlapping regions, thereby obtaining a high resolution image. An object of the present invention is to provide an image combining method obtained by repeating photographing.

상기 목적을 달성하기 위한 본 발명의 반복촬영에 의해 획득된 영상조합방법은 영상소자에 의해 촬영된 중복된 영역을 갖는 서로 다른 영상들을 조합하는 방법에 있어서, 상기 서로 다른 영상들을 중복된 영역과 중복되지 않은 영역으로 분할하는 과정과, 상기 서로 다른 영상들의 중복된 영역의 각 끝부분으로부터 서로 다른 위치를 갖는 중복된 픽셀들까지의 거리를 각각 계산하는 과정과, 상기 계산된 거리에 비례하여 상기 중복된 픽셀들에 대한 각각의 대표 픽셀값을 계산하는 과정으로 이루어진다.An image combining method obtained by repeating photographing of the present invention for achieving the above object is a method of combining different images having overlapping regions captured by an image device, wherein the different images are overlapped with the overlapping region. Dividing into non-regions, calculating distances from overlapping pixels having different positions from ends of overlapping regions of the different images, and overlapping the proportionality with respect to the calculated distances. Computing the representative pixel value for each pixel has been made.

이하, 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 의한 반복촬영에 의해 획득된 영상의 일예를 나타내고, 도 2는 도 1에서 두 개의 영상이 중복되어 겹치는 영역을 나타내며, 도 3 및 도 4는 도 1에서 네 개의 영상이 중복되어 겹치는 영역을 나타내는 도면이다.FIG. 1 shows an example of an image obtained by repeated shooting according to an embodiment of the present invention, FIG. 2 shows a region in which two images overlap and overlaps with each other in FIG. 1, and FIGS. It is a figure which shows the area | region which overlaps and overlaps an image.

도시된 바와 같이, 영상 A, B, C, D는 하나 또는 다수의 영상소자에서 각각 획득된 영상으로 각각의 영상은 서로 다른 부분을 촬영한 영상이다. 이와 같이 각각 촬영된 영상들은 (나)영역과 (다)영역 등의 중복촬영영역을 갖게 된다. 여기서, 중복촬영영역인 (나)영역은 영상 A와 영상 B의 중복촬영영역이며, (다)영역은 영상 A, B, C, D의 중복촬영영역을 나타낸다. 이와 같이 촬영된 영상을 하나의 완전한 영상으로 조합하는 방법에 관해 설명하면 다음과 같다.As shown, images A, B, C, and D are images obtained by one or more image elements, respectively, and each image is an image obtained by photographing different portions. Each of the images photographed as described above has a redundant photographing area such as (b) area and (c) area. Here, the (b) area, which is the overlapping shooting area, is the overlapping shooting area of the images A and B, and the (c) area represents the overlapping shooting area of the images A, B, C, and D. A method of combining the photographed images into one complete image will now be described.

먼저, 중복 촬영된 A, B, C, D 영상에서의 영역을 크게 중복해서 촬영되지 않은 영역과 중복해서 촬영된 영역으로 분할한다. 예를 들어, 도 1에서 영상 B의 (가)영역은 원래의 한 이미지가 다른 이미지들과 중복되지 않는 영역이다. 즉, 이웃한 영상 A, C, D의 영역과 중복되지 않는 영역인 것이다. 그리고, (나)영역은 이웃한 2개의 이미지만이 중복되는 영역을 나타내고 있다. 즉, 영상 C와 영상 D를 제외한 영상 A와 영상 B의 중복영역이 이에 해당하며, (다)영역은 주변에 이웃한 4개의 이미지가 모두 중복되는 영역을 나타내고 있다. 즉, 영상 A, B, C, D의 중복영역이 이에 해당하게 된다.First, the areas in the overlapped A, B, C, and D images are divided into areas that are not overlapped and areas that are overlapped. For example, in FIG. 1, the region (a) of the image B is a region where an original image does not overlap with other images. That is, the region does not overlap with the regions of neighboring images A, C, and D. The region (b) represents an area where only two neighboring images overlap. That is, the overlapping area of the image A and the image B except the image C and the image D corresponds to this, and the area (C) represents an area where all four neighboring images overlap. That is, overlapping regions of images A, B, C, and D correspond to this.

여기서, (가)영역은 원래의 영상정보가 다른 부분에는 없고 하나의 이미지에만 있는 경우이다. 이 경우에는 원래의 영상의 정보가 100% 사용된다. 즉, P = P(a)가 된다. 여기서, P와 P(a)는 동일한 값으로 원래의 영상인 영상 B의 픽셀의 값을 의미하는 것이다.Here, (a) is the case where the original image information is present in only one image and not in other parts. In this case, 100% of the information of the original image is used. That is, P = P (a). Here, P and P (a) are the same value and mean the pixel value of the image B that is the original image.

그리고, (나)영역은 상술한 바와 같이, 원래의 영상정보가 다른 하나의 영상 영역과 중복되는 경우의 영역으로서, 이러한 경우, 중복되는 영역의 최종 영상의 해당 픽셀의 값(P)을 구하는 방법에 대하여 첨부된 도 2를 참조하여 설명한다.As described above, the (b) area is an area in which the original image information overlaps with another image area, and in this case, a method of obtaining a value P of the corresponding pixel of the final image of the overlapping area. This will be described with reference to FIG. 2.

먼저, 이 경우에는 다음의 식 1과 같이 변의 제일 끝부분에서부터 거리를 계산하여 거리에 비례하는 값을 사용한다. 여기서, P(a)와 P(b)는 영상 A와 영상 B에서 중복 촬영된 영역(10)의 동일 지점에 대한 픽셀의 밝기값으로써, P(a)와 P(b)에 대한 화소값에서 대표되는 화소값인 최종 영상의 해당 픽셀의 값(P)은 다음의 식 1에 의해 계산된다.First, in this case, as shown in Equation 1 below, the distance is calculated from the end of the side and a value proportional to the distance is used. Here, P (a) and P (b) are brightness values of pixels at the same point of the overlapped region 10 in the image A and the image B, and the pixel values for P (a) and P (b) The value P of the corresponding pixel of the final image, which is a representative pixel value, is calculated by the following equation (1).

P = (P(a)*L(a))+(P(b)*L(b))/(L(a)+L(b)) ------------ (식 1)P = (P (a) * L (a)) + (P (b) * L (b)) / (L (a) + L (b)) ------------ ( Equation 1)

여기서, P(a) : 중복촬영영역에서의 영상 A의 해당 픽셀의 밝기값Here, P (a): brightness value of the corresponding pixel of the image A in the overlapping shooting area

P(b) : 중복촬영영역에서의 영상 B의 해당 픽셀의 밝기값P (b): Brightness value of the corresponding pixel in image B in the overlapping region

L(a) : 영상 A의 A영역 끝(30)에서부터 해당 픽셀까지의 거리에 대한 함수L (a): Function of the distance from the end of region A (30) of image A to the corresponding pixel

L(b) : 영상 B의 B영역 끝(20)에서부터 해당 픽셀까지의 거리에 대한 함수L (b): Function of the distance from the end of area B of image B to the corresponding pixel.

P : 최종 영상의 해당 픽셀의 값P: the value of the corresponding pixel in the final image

상기 식 1에서, L(a)/(L(a)+L(b))를 x로 놓으면, P = P(a)*x + P(b)(1-x)이 되고, L(a)/(L(a)+L(b))를 y로 놓으면, P = P(a)*y + P(b)(1-y)가 된다. 예를 들어, L(a)=0인 경우에는 L(b)=100이 되며, L(a)=100인 경우에는 L(b)=0이 되는 것이다. 즉, L(a)와 L(b)의 거리에 대한 함수 관계로부터 비례되어 중복되는 영역의 최종 영상의 해당 픽셀의 값(P)이 구해지게 된다.In Equation 1, when L (a) / (L (a) + L (b)) is set to x, P = P (a) * x + P (b) (1-x), and L (a If y / (L (a) + L (b)) is set to y, then P = P (a) * y + P (b) (1-y). For example, when L (a) = 0, L (b) = 100, and when L (a) = 100, L (b) = 0. That is, the value P of the corresponding pixel of the final image of the overlapping area is proportionally obtained from the function relationship of the distance between L (a) and L (b).

그리고, (다)영역(40) 역시 상술한 바와 같이 주변에 이웃한 4개의 영상(A,B,C,D)이 모두 중복되는 영역으로서, 이러한 경우, 중복되는 영역의 최종 영상의 해당 픽셀의 값(P)을 구하는 방법에 대하여 첨부된 도 3 및 도 4를 참조하여 설명하면 다음과 같다.As described above, the (40) area 40 is also an area where all four neighboring images A, B, C, and D overlap each other, and in this case, the corresponding pixel of the final image of the overlapping area A method of obtaining the value P will now be described with reference to FIGS. 3 and 4.

이 경우에는 4개의 영상이 모두 중복되므로 영상이 2번 중복되는 경우의 영상 조합을 2번 반복하게 된다. 즉, 먼저, 영상 A와 영상 B의 중복 영역에 대한 영상 조합을 한 후, 영상 C와 영상 D의 중복 영역에 대한 영상 조합을 한다. 이와 같이 2번 반복되는 영상 조합은 중복 영역의 수평 방향에 대해서만 조합이 이루어지는 것이므로, 이러한 수평 방향에 대한 중복촬영영역의 영상 조합이 완료된 후에는 후술하는 수직 방향에 대한 영상 조합이 이루어지게 된다. 이로써, 중복촬영영역을 갖는 다수개의 서로 다른 영상이 하나의 완전한 영상으로 조합되는 것이다.In this case, since all four images overlap, the image combination when the images overlap twice is repeated twice. That is, first, an image combination is performed on the overlapped regions of the image A and the image B, and then an image combination is performed on the overlapped regions of the image C and the image D. FIG. Since the image combination repeated twice is performed only in the horizontal direction of the overlapping region, after the image combination of the overlapping photographing region with respect to the horizontal direction is completed, the image combination for the vertical direction described later is performed. As a result, a plurality of different images having overlapping photographing regions are combined into one complete image.

다음의 식 2는 수평 방향에 대하여 영상 A와 영상 B의 중복 영역(M 영역)에서 거리에 비례하여 계산되는 해당 픽셀의 값 P(m)을 구하기 위한 식이며, 식 3은 수평 방향에 대하여 영상 C와 영상 D의 중복 영역(N 영역)에서 거리에 비례하여 계산되는 해당 픽셀의 값 P(n)을 구하기 위한 식이다.Equation 2 below calculates the value P (m) of the corresponding pixel calculated in proportion to the distance in the overlapping area (M area) of the image A and the image B in the horizontal direction, and Equation 3 is the image C in the horizontal direction. The equation for calculating the value P (n) of the corresponding pixel calculated in proportion to the distance in the overlapped area (N area) of the and D images.

P(m) = (P(a)*L(a)+P(b)*L(b)) / (L(a)+L(b)) ------------ (식 2)P (m) = (P (a) * L (a) + P (b) * L (b)) / (L (a) + L (b)) ------------ (Equation 2)

P(n) = (P(c)*L(c)+P(d)*L(d)) / (L(c)+L(d)) ------------ (식 3)P (n) = (P (c) * L (c) + P (d) * L (d)) / (L (c) + L (d)) ------------ (Equation 3)

여기서, P(a), P(b), P(c), P(d) : A, B, C, D 각 영상의 중복촬영영역에서의 동일 지점에 대한 해당 픽셀의 밝기값Here, P (a), P (b), P (c), and P (d): A, B, C, D brightness values of the corresponding pixel at the same point in the overlapping region of each image.

L(a), L(b), L(c), L(d) : 영상 A, B, C, D의 각 영역의 끝에서부터 해당 픽셀까지의 거리에 대한 함수L (a), L (b), L (c), L (d): function of the distance from the end of each area of image A, B, C, D to the corresponding pixel

P(m), P(n) : 1차로 계산한 M, N 영역의 해당 픽셀의 값P (m), P (n): Value of the corresponding pixel in M, N area calculated first

이와 같이, 상기 식 2와 식 3에 의해 영상 A와 영상 B의 중복 영역인 M 영역에서의 해당 픽셀의 값인 P(m)값과 영상 C와 영상 D의 중복 영역인 N 영역에서의 해당 픽셀의 값인 P(n)값이 계산됨에 따라, 도 4에서와 같이, L(m)와 L(n)의 거리에 대한 함수 관계로부터 비례되어 M 영역과 N 영역의 중복 영역의 최종 영상의 해당 픽셀의 값(P)이 아래의 식 4에 의해 계산된다.As described above, according to Equations 2 and 3, the value of P (m) which is the value of the corresponding pixel in the M area which is the overlapping area of the image A and the image B, and the corresponding pixel in the N area which is the overlapping area of the image C and the image D As the value P (n) is calculated, as shown in FIG. 4, the corresponding pixel of the final image of the overlapped region of the M region and the N region is proportional to the function relationship of the distance between L (m) and L (n). The value P is calculated by Equation 4 below.

P = (P(m)*L(m)+P(n)*L(n)) / (L(m)+L(n)) ------------ (식 4)P = (P (m) * L (m) + P (n) * L (n)) / (L (m) + L (n)) ------------ (Equation 4 )

여기서, P(m), P(n) : 1차로 계산한 M, N 영역의 해당 픽셀의 값Here, P (m), P (n): the value of the corresponding pixel in the M and N area calculated first

P : 최종 영상의 해당 픽셀의 값P: the value of the corresponding pixel in the final image

한편, 상기 식 2에서와 같이 P(m) = (P(a)*L(a)+P(b)*L(b)) / (L(a)+L(b)) 이고, P(n) = (P(c)*L(a)+P(d)*L(d)) / (L(a)+L(d))와 같으므로, 이와 같은 식을 식 4에 대입하여 정리하면 다음과 같아지게 된다. 즉,On the other hand, P (m) = (P (a) * L (a) + P (b) * L (b)) / (L (a) + L (b)) as in the formula 2, P ( n) = (P (c) * L (a) + P (d) * L (d)) / (L (a) + L (d)), so we substitute this expression in equation 4 If you do In other words,

P = (P(m)*L(m)+P(n)*L(n)) / (L(m)+L(n))P = (P (m) * L (m) + P (n) * L (n)) / (L (m) + L (n))

= ((P(a)*L(a)+P(b)*L(b))*L(m) + (P(c)*L(a)+P(d)*L(d))*L(n)) / (L(m)+L(n)) * (L(a)+L(b))= ((P (a) * L (a) + P (b) * L (b)) * L (m) + (P (c) * L (a) + P (d) * L (d)) * L (n)) / (L (m) + L (n)) * (L (a) + L (b))

= P(a)*L(a)*L(m)+P(b)*L(b)*L(m) + P(c)*L(a)*L(n) + P(d)*L(b)*L(n) / (L(m)+L(n)) * (L(a)+L(b))이 된다.= P (a) * L (a) * L (m) + P (b) * L (b) * L (m) + P (c) * L (a) * L (n) + P (d) * L (b) * L (n) / (L (m) + L (n)) * (L (a) + L (b)).

여기서, L(a)/(L(a)+L(b)) = x, L(m)/(L(m)+L(n)) = y 라 놓으면, 결국Where L (a) / (L (a) + L (b)) = x, L (m) / (L (m) + L (n)) = y

P = P(a)*x*y + P(b)*(1-x)*y + P(c)*x(1-y) + P(d)*(1-x)*(1-y)이 된다.P = P (a) * x * y + P (b) * (1-x) * y + P (c) * x (1-y) + P (d) * (1-x) * (1- y)

한편 본 발명의 상세한 설명에서는 구체적인 실시예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.Meanwhile, in the detailed description of the present invention, specific embodiments have been described, but various modifications are possible without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the scope of the following claims, but also by those equivalent to the scope of the claims.

상술한 바와 같이, 본 발명에 따르면, 따라서, 본 발명의 목적은 상술한 문제점을 해소하기 위한 것으로, 화소수가 적은 영상소자로 넓은 면적을 갖는 대상체의 서로 다른 부분을 반복촬영하여 중복되는 영역의 영상을 조합함으로써, 고해상도의 영상을 획득할 수 있는 효과가 있다.As described above, according to the present invention, therefore, an object of the present invention is to solve the above-mentioned problem, and an image of a region overlapped by repeatedly photographing different portions of an object having a large area with an image element having a small number of pixels. By combining, there is an effect that can obtain a high resolution image.

도 1은 본 발명의 실시예에 의한 반복촬영에 의해 획득된 영상의 일예를 나타내는 도면.1 is a view showing an example of an image obtained by repeated shooting according to an embodiment of the present invention.

도 2는 도 1에서 두 개의 영상이 중복되어 겹치는 영역을 나타내는 도면.FIG. 2 is a diagram illustrating a region in which two images overlap and overlap in FIG. 1. FIG.

도 3 및 도 4는 도 1에서 네 개의 영상이 중복되어 겹치는 영역을 나타내는 도면.3 and 4 are diagrams illustrating regions in which four images overlap each other in FIG. 1.

Claims (2)

영상소자에 의해 촬영된 중복된 영역을 갖는 서로 다른 영상들을 조합하는 방법에 있어서,In the method of combining different images having an overlapping area photographed by the imaging device, 상기 서로 다른 영상들을 중복된 영역과 중복되지 않은 영역으로 분할하는 과정과,Dividing the different images into overlapping and non-overlapping areas; 상기 서로 다른 영상들의 중복된 영역의 각 끝부분으로부터 서로 다른 위치를 갖는 중복된 픽셀들까지의 거리를 각각 계산하는 과정과,Calculating a distance from each end of the overlapped area of the different images to overlapped pixels having different positions; 상기 계산된 거리에 비례하여 상기 중복된 픽셀들에 대한 각각의 대표 픽셀값을 계산하는 과정으로 이루어지는 것을 특징으로 하는 반복촬영에 의해 획득된 영상조합방법.And calculating each representative pixel value for the overlapped pixels in proportion to the calculated distance. 제 1 항에 있어서,The method of claim 1, 상기 대표 픽셀값 P = (P(a)*L(a))+(P(b)*L(b))/(L(a)+L(b))에 의해 계산되는 것을 특징으로 하는 반복촬영에 의해 획득된 영상조합방법.Repetition characterized by the representative pixel value P = (P (a) * L (a)) + (P (b) * L (b)) / (L (a) + L (b)) Image combining method obtained by shooting. 여기서, P(a) : 중복촬영영역에서의 영상 A의 해당 픽셀의 밝기값Here, P (a): brightness value of the corresponding pixel of the image A in the overlapping shooting area P(b) : 중복촬영영역에서의 영상 B의 해당 픽셀의 밝기값P (b): Brightness value of the corresponding pixel in image B in the overlapping region L(a) : 영상 A의 A영역 끝에서부터 해당 픽셀까지의 거리에 대한 함수L (a): Function of the distance from the end of A area of image A to the corresponding pixel L(b) : 영상 B의 B영역 끝에서부터 해당 픽셀까지의 거리에 대한 함수L (b): Function of distance from end of B area of image B to corresponding pixel P : 최종 영상의 해당 픽셀의 값P: the value of the corresponding pixel in the final image
KR1020030075520A 2003-10-28 2003-10-28 Image combination method with repeating photographing KR20050040342A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020030075520A KR20050040342A (en) 2003-10-28 2003-10-28 Image combination method with repeating photographing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030075520A KR20050040342A (en) 2003-10-28 2003-10-28 Image combination method with repeating photographing

Publications (1)

Publication Number Publication Date
KR20050040342A true KR20050040342A (en) 2005-05-03

Family

ID=37242179

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030075520A KR20050040342A (en) 2003-10-28 2003-10-28 Image combination method with repeating photographing

Country Status (1)

Country Link
KR (1) KR20050040342A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111901499A (en) * 2020-07-17 2020-11-06 青岛聚好联科技有限公司 Method and equipment for calculating actual pixel distance in video image

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111901499A (en) * 2020-07-17 2020-11-06 青岛聚好联科技有限公司 Method and equipment for calculating actual pixel distance in video image
CN111901499B (en) * 2020-07-17 2022-04-01 青岛聚好联科技有限公司 Method and equipment for calculating actual pixel distance in video image

Similar Documents

Publication Publication Date Title
US10127687B2 (en) Calibration device, calibration method, optical device, image-capturing device, projection device, measuring system, and measuring method
US8040558B2 (en) Apparatus and method for shift invariant differential (SID) image data interpolation in fully populated shift invariant matrix
US8581995B2 (en) Method and apparatus for parallax correction in fused array imaging systems
DE112015005073B4 (en) Imaging system containing a lens with longitudinal chromatic aberration, endoscope and imaging method
EP2268043B1 (en) Image processing device, imaging device, method, and program
US8471918B2 (en) Imaging device with plural imaging regions and parallax computing portion
US6252577B1 (en) Efficient methodology for scaling and transferring images
CN109068025B (en) Lens shadow correction method and system and electronic equipment
US8055101B2 (en) Subpixel registration
US20070133903A1 (en) System and method for providing multi-sensor super-resolution
DE112016002043T5 (en) CIRCULAR DISPLAY OF RECORDED PICTURES
US20060146153A1 (en) Method and apparatus for processing Bayer image data
JP2011521591A (en) Camera sensor correction
JP2005167484A (en) Image configuration apparatus and image configuration method
DE69913560T2 (en) VERY FASTER PICTURES
DE112016001559T5 (en) Imaging system that uses structured light for deep recovery
KR20190100792A (en) Image sensing device
JP2009100203A (en) Signal processing device for solid-state imaging device, imaging apparatus having signal processing device, signal processing method, and program
CN103491296A (en) Method for achieving high-speed camera shooting
US8213710B2 (en) Apparatus and method for shift invariant differential (SID) image data interpolation in non-fully populated shift invariant matrix
US9721348B2 (en) Apparatus and method for raw-cost calculation using adaptive window mask
CN107211095A (en) The method and apparatus for handling image
Ishii et al. An image conversion algorithm from fish eye image to perspective image for human eyes
JP5055588B2 (en) Image processing apparatus and image processing method
KR20050040342A (en) Image combination method with repeating photographing

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application