KR20110088680A - Image processing apparatus which can compensate a composite image obtained from a plurality of image - Google Patents

Image processing apparatus which can compensate a composite image obtained from a plurality of image Download PDF

Info

Publication number
KR20110088680A
KR20110088680A KR1020100008295A KR20100008295A KR20110088680A KR 20110088680 A KR20110088680 A KR 20110088680A KR 1020100008295 A KR1020100008295 A KR 1020100008295A KR 20100008295 A KR20100008295 A KR 20100008295A KR 20110088680 A KR20110088680 A KR 20110088680A
Authority
KR
South Korea
Prior art keywords
image
images
image data
divided region
brightness information
Prior art date
Application number
KR1020100008295A
Other languages
Korean (ko)
Inventor
이준석
홍상석
전병찬
박규로
Original Assignee
(주) 에투시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주) 에투시스템 filed Critical (주) 에투시스템
Priority to KR1020100008295A priority Critical patent/KR20110088680A/en
Publication of KR20110088680A publication Critical patent/KR20110088680A/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/02Rear-view mirror arrangements
    • B60R1/08Rear-view mirror arrangements involving special optical features, e.g. avoiding blind spots, e.g. convex mirrors; Side-by-side associations of rear-view and other mirrors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/57Control of contrast or brightness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images

Abstract

PURPOSE: An image processing apparatus is provided to correct brightness of synthesis image based on the brightness difference between input images. CONSTITUTION: An image composition unit(13) creates a division area image data and a single image data in order to create single image which is composed of division area images. The image composition unit creates an image data through a data correction of the division area images and the single image. An image output unit(14) creates an output image based on the synthesis image data.

Description

복수개의 영상을 합성한 합성 영상에 대한 보정 기능을 구비하는 영상 처리 장치{IMAGE PROCESSING APPARATUS WHICH CAN COMPENSATE A COMPOSITE IMAGE OBTAINED FROM A PLURALITY OF IMAGE}IMAGE PROCESSING APPARATUS WHICH CAN COMPENSATE A COMPOSITE IMAGE OBTAINED FROM A PLURALITY OF IMAGE}

본 발명은 복수개의 영상을 합성한 합성 영상에 대한 보정 기능을 구비하는 영상 처리 장치에 관한 것으로서, 보다 상세하게는 복수개의 촬영 장치에 의해 획득된 복수개의 영상을 하나의 단일 영상으로 합성하는 경우 각각의 영상 사이의 밝기를 고려하여 합성 영상을 보정할 수 있는 기능을 구비하는 장치에 관한 것이다.
The present invention relates to an image processing apparatus having a correction function for a synthesized image obtained by synthesizing a plurality of images, and more particularly, when synthesizing a plurality of images acquired by a plurality of photographing apparatuses into a single image. The present invention relates to an apparatus having a function of correcting a synthesized image in consideration of brightness between images.

최근, IT 기술의 발전과 더불어 이를 차량에 접목시키고자 하는 시도가 증가하고 있다. 예컨대, 차량에 카메라를 장착하여 운전 상태나 주변 상황을 녹화하는 블랙 박스 장치나 차량의 후방에 카메라를 설치하여 후진시 후방 영상을 촬영하여 차량 내부의 디스플레이 장치에 출력하도록 하는 주차 보조 시스템 등이 사용되고 있으며 이러한 추세는 점차 증가하고 있다. 한편, 이러한 기술 중에서 최근에는 차량의 전후방, 좌우측면에 광각 카메라를 설치하고 이들 카메라들로부터 촬영되는 영상을 차량의 바로 위 즉, 상방향에서 내려다보는 형태의 영상으로 재구성하여 차량의 디스플레이 장치에 출력함으로써 운전자의 편의를 도모하도록 하는 시스템도 제안되고 있다. 이러한 시스템은 마치 새가 하늘에서 내려다 보는 듯한 영상을 제공한다는 점에서 버드아이뷰(Bird eye vie) 시스템이라고 하거나 AVM(around view monitoring) 시스템 등으로 불리우고 있다. 이러한 기술은 보다 넓은 시야각을 확보하기 위하여 어안(fish eye) 렌즈를 구비하는 광각 카메라를 사용하는데, 이러한 광각 카메라를 사용하여 획득되는 복수개의 영상 신호들에 대해 1) 왜곡 보정 단계, 2) 평면화 단계, 3) 재배열 단계, 4) 단일 영상화 단계를 거쳐서 차량의 상공에서 내려다 보는 합성 영상을 구성하여 제공하게 된다.Recently, with the development of IT technology, attempts to apply it to vehicles are increasing. For example, a black box device that mounts a camera in a vehicle to record driving conditions or surrounding conditions, or a parking assistance system that installs a camera in the rear of the vehicle to take a rearward image and output it to a display device inside the vehicle when the vehicle is reversed. This trend is increasing. Meanwhile, among these technologies, wide-angle cameras are installed in front, rear, left, and right sides of the vehicle, and the images captured from these cameras are reconstructed into images of the form directly above the vehicle, that is, viewed from above, and output to the display device of the vehicle. There has also been proposed a system for the driver's convenience. Such a system is called a bird eye vie system or an AVM (around view monitoring) system in that it provides an image as if the bird is looking down from the sky. This technique uses a wide-angle camera with a fish eye lens to secure a wider viewing angle, which includes 1) distortion correction and 2) planarization for a plurality of image signals obtained using such a wide-angle camera. , 3) rearrangement step, and 4) single imaging step to construct and provide a composite image viewed from above the vehicle.

그러나, 이러한 종래의 합성 영상 제공 시스템은 복수개의 광각 카메라로부터 획득되는 별개의 영상들을 전술한 바와 같은 과정을 거쳐 하나의 영상으로 이어 붙이는 듯한 방식으로 합성 영상을 생성하게 되므로, 복수개의 광각 카메라로부터 획득된 각각의 영상들 사이에는 각 카메라의 노출 정도, 제공되는 빛의 양 등의 여러 가지 요인으로 인하여 밝기 차이가 존재하게 된다. 이러한 영상들은 전술한 바와 같은 과정을 거쳐 단일 영상화가 이루어지더라도 단일 영상을 구성하는 각각의 분할 영상들 사이에는 특히 인접하는 경계 영역 사이에서 매우 부자연스러운 영상을 제공할 수 밖에 없다. 이러한 문제점을 해결하기 위해서는,단일 영상화를 거친 후의 영상에 대해 밝기 조절을 수행하여 자연스러운 영상을 제공할 수 있도록 후처리 보정 과정을 필요로 하게 되는데, 종래의 합성 영상 제공 시스템에서는 밝기 조절 처리에 의해 제공되는 합성 영상이 자연스럽지 못하다는 점에서 문제가 있고, 또한 매우 복잡한 연산 과정을 거쳐야 하므로 실시간 처리가 어렵고 회로 구성이 복잡하여 제조 비용이 증가한다는 문제점이 있다. 따라서 이러한 후처리 보정 과정을 생략하는 경우가 많아서 매우 부자연스러운 영상을 제공하게 된다.
However, such a conventional composite image providing system generates a composite image in such a manner that the separate images obtained from the plurality of wide-angle cameras are connected to one image through the above-described process, so that they are acquired from the plurality of wide-angle cameras. There is a difference in brightness between different images due to various factors such as the exposure level of each camera and the amount of light provided. Such images may provide a very unnatural image between the divided images constituting a single image, especially between adjacent boundary regions, even though the single image is made through the above-described process. In order to solve this problem, a post-processing correction process is required to provide a natural image by performing brightness adjustment on an image after a single imaging, and in a conventional composite image providing system, a brightness adjustment process is provided. There is a problem in that the synthesized image is not natural, and also has to go through a very complex calculation process, which makes it difficult to process in real time and complicated circuit configuration, which increases the manufacturing cost. Therefore, this post-processing correction process is often omitted, thereby providing a very unnatural image.

본 발명은 상기한 바와 같은 과제를 해결하기 위한 것으로서, 복수개의 광각 카메라로부터 획득되는 복수개의 입력 영상을 이용하여 단일 영상으로 합성하는 경우에 있어서, 각각의 입력 영상들 사이의 밝기 차이에 기초하여 합성 영상의 밝기를 보정함으로써 최종 합성 영상이 자연스럽게 보일 수 있도록 하여 사용자의 편의성을 증대할 수 있는 영상 처리 장치를 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION The present invention has been made in view of the above-described problems. In the case of synthesizing a single image using a plurality of input images obtained from a plurality of wide-angle cameras, the synthesis is performed based on the brightness difference between the respective input images. An object of the present invention is to provide an image processing apparatus capable of increasing user convenience by allowing a final synthesized image to appear natural by correcting an image brightness.

또한, 본 발명은 합성 영상의 자연스러움을 해치지 않으면서도 간편하고 용이하게 합성 영상의 밝기를 조절하도록 함으로써 회로 구성이 단순화될 수 있으므로 제조 비용 또한 절감할 수 있는 영상 처리 장치를 제공하는 것을 또 다른 목적으로 한다.
In addition, another object of the present invention is to provide an image processing apparatus that can simplify the circuit configuration by easily and easily adjusting the brightness of the synthesized image without harming the naturalness of the synthesized image, thereby reducing the manufacturing cost. It is done.

상기한 바와 같은 과제를 해결하기 위하여 본 발명은, 복수개의 영상을 합성한 합성 영상에 대한 보정 기능을 구비하는 영상 처리 장치에 있어서, 인접한 광각 카메라 사이에서 촬영 영역이 일부분 겹치도록 배치되는 적어도 2 이상의 복수개의 광각 카메라; 상기 복수개의 광각 카메라로부터 각각 획득되는 적어도 2 이상의 입력 영상에 대한 입력 영상 데이터를 수신하는 영상 수신부; 상기 영상 수신부로부터 복수개의 입력 영상 데이터를 수신하여 복수개의 분할 영역 영상으로 구성되는 단일 영상을 생성하도록 분할 영역 영상 데이터와 단일 영상 데이터를 생성하고, 상기 분할 영역 영상 데이터와 단일 영상 데이터를 보정하여 합성 영상 데이터를 생성하는 영상 합성부; 및 상기 영상 합성부에서 생성된 합성 영상 데이터에 기초하여 출력 영상을 생성하여 출력하는 영상 출력부를 포함하는 영상 처리 장치를 제공한다.SUMMARY OF THE INVENTION In order to solve the above problems, the present invention provides an image processing apparatus having a correction function for a synthesized image obtained by synthesizing a plurality of images, wherein at least two or more images are arranged to partially overlap each other between adjacent wide-angle cameras. A plurality of wide angle cameras; An image receiver configured to receive input image data of at least two input images respectively obtained from the plurality of wide-angle cameras; Receives a plurality of input image data from the image receiver to generate a segment image data and a single image data to generate a single image consisting of a plurality of divided region images, and corrects and synthesizes the segment region image data and a single image data An image synthesizer for generating image data; And an image output unit configured to generate and output an output image based on the synthesized image data generated by the image synthesizer.

여기에서, 상기 영상 합성부는 상기 단일 영상을 구성하는 복수개의 분할 영역 영상들 사이의 경계 영역의 밝기 정보를 고려하여 복수개의 분할 영역 영상 데이터 및 단일 영상 데이터를 보정함으로써 합성 영상 데이터를 생성할 수 있다.Here, the image synthesizing unit may generate composite image data by correcting the plurality of divided region image data and the single image data in consideration of brightness information of the boundary region between the plurality of divided region images constituting the single image. .

또한, 상기 영상 합성부는, 상기 복수개의 광각 카메라로부터 각각 획득되는 적어도 2 이상의 입력 영상 각각에 대한 왜곡 보정을 수행하여 왜곡 보정 영상을 생성하는 왜곡 보정 단계와, 상기 왜곡 보정 단계에 의해 생성되는 왜곡 보정 영상 각각에 대한 평면화를 수행하여 평면화 영상을 생성하는 평면화 단계와, 상기 평면화 단계에 의해 생성된 평면화 영상 각각에 대한 재배열을 수행하여 재배열 영상을 생성하는 재배열 단계와, 상기 재배열 단계에 의해 생성된 재배열 영상들에 기초하여 단일 영상을 생성하는 단일 영상화 단계에 의해 복수개의 분할 영역 영상으로 구성되는 단일 영상을 생성할 수 있다.The image synthesizing unit may include a distortion correction step of generating a distortion correction image by performing distortion correction on each of at least two input images acquired from the plurality of wide-angle cameras, and distortion correction generated by the distortion correction step. A planarization step of generating a planarized image by performing planarization on each of the images, a rearrangement step of generating a rearrangement image by performing rearrangement on each of the planarized images generated by the planarization step, and in the rearrangement step A single image including a plurality of divided region images may be generated by a single imaging step of generating a single image based on the rearranged images generated by the image.

또한, 상기 영상 합성부는, 상기 복수개의 분할 영역 영상들 각각에 대해, 인접하는 다른 분할 영역 영상들과의 경계 영역을 구성하는 경계 화소들의 밝기 정보와 인접하는 다른 분할 영역 영상들의 경계 화소들의 밝기 정보가 서로 동일하게 되도록 함으로써 복수개의 분할 영역 영상 데이터 및 단일 영상 데이터를 보정하도록 구성할 수 있다.In addition, the image synthesizing unit, for each of the plurality of divided region images, brightness information of boundary pixels constituting a boundary region with other divided region images and brightness information of boundary pixels of other adjacent region images. Can be configured to correct a plurality of divided region image data and a single image data by making the same to each other.

또한, 상기 경계 화소들의 평균값에 의해 각 경계 화소들의 밝기 정보를 동일하게 하도록 구성할 수도 있다.Further, the brightness information of each boundary pixel may be equalized by the average value of the boundary pixels.

또한, 상기 밝기 정보를 동일하게 한 경계 화소에 대하여, 스케일 정보를 연산하고, 상기 스케일 정보에 기초하여 각 분할 영역 영상의 내부에 포함되는 화소들에 대하여 밝기 정보를 변경함으로써 각 분할 영역 영상에 포함된 화소들에 대한 밝기 정보를 조절할 수 있다.In addition, by calculating scale information with respect to the boundary pixels having the same brightness information, and changing brightness information with respect to pixels included in each divided area image based on the scale information, the brightness information is included in each divided area image. Brightness information of the pixels may be adjusted.

또한, 상기 스케일 정보는 가우시안 함수(Gaussian fuction)에 의해 연산되는 것일 수 있다.
In addition, the scale information may be calculated by a Gaussian fuction.

본 발명에 의하면, 복수개의 광각 카메라로부터 획득되는 복수개의 입력 영상을 이용하여 단일 영상으로 합성하는 경우에 있어서, 각각의 입력 영상들 사이의 밝기 차이에 기초하여 합성 영상의 밝기를 보정함으로써 최종 합성 영상이 자연스럽게 보일 수 있도록 하여 사용자의 편의성을 증대할 수 있는 영상 처리 장치를 제공할 수 있다.According to the present invention, in the case of synthesizing a single image using a plurality of input images obtained from a plurality of wide-angle cameras, the final synthesized image is corrected by correcting the brightness of the synthesized image based on the brightness difference between the respective input images. It is possible to provide an image processing apparatus that can make this look natural and can increase user convenience.

또한, 본 발명에 의하면, 합성 영상의 자연스러움을 해치지 않으면서도 간편하고 용이하게 합성 영상의 밝기를 조절하도록 함으로써 회로 구성이 단순화될 수 있으므로 제조 비용 또한 절감할 수 있는 영상 처리 장치를 제공할 수 있는 효과가 있다.
In addition, according to the present invention, since the circuit configuration can be simplified by easily and easily adjusting the brightness of the synthesized image without harming the naturalness of the synthesized image, it is possible to provide an image processing apparatus that can reduce manufacturing costs. It works.

도 1은 종래의 영상 합성 시스템의 기본적인 과정과 각 과정별의 영상을 나타낸 도면이다.
도 2는 본 발명에 의한 복수개의 영상을 합성한 합성 영상에 대한 보정 기능을 구비하는 영상 처리 장치의 일실시예를 나타낸 블록도이다.
도 3은 도 1에서 설명한 바와 같은 과정을 통해 생성된 단일 영상의 일예를 나타낸 도면이다.
도 4a는 도 3에 도시한 분할 영역 영상 1과 분할 영역 영상 4의 경계 영역을 확대하여 나타낸 도면이고 도 4b는 도 4a의 경계 영역에 포함되는 경계 화소들을 파란색(분할 영역 영상 4)과 빨간색(분할 영역 영상 1)으로 구분하여 나타낸 것이다.
도 5는 도 4b에 도시한 파란색과 빨간색으로 나타낸 각각의 경계 화소들의 일부에 대한 밝기 정보의 일예를 나타낸 것이다.
도 6은 도 5의 각 경계 화소들 사이의 밝기 정보의 평균값과 가감 요구값을 나타낸 것이다.
도 7은 가우시안 함수의 함수값을 나타낸 것이다.
도 8은 가우시안 함수의 그래프를 나타낸 도면이다.
도 9는 스케일 정보를 이용한 가감 요구값의 일예를 나타낸 도면이다.
도 10은 보정이 완료된 합성 영상 데이터에 기초하여 영상 출력부(14)에서 출력되는 영상의 일예를 나타낸 도면이다.
1 is a view showing the basic process of the conventional image synthesizing system and the image of each process.
2 is a block diagram illustrating an embodiment of an image processing apparatus having a correction function for a composite image obtained by synthesizing a plurality of images according to the present invention.
FIG. 3 is a diagram illustrating an example of a single image generated through the process described with reference to FIG. 1.
FIG. 4A is an enlarged view of a boundary area between the partition area image 1 and the partition area image 4 shown in FIG. 3, and FIG. 4B shows the boundary pixels included in the border area of FIG. 4A as blue (split area image 4) and red ( The image is divided into divided regions 1).
FIG. 5 illustrates an example of brightness information of a part of each of the boundary pixels shown in blue and red shown in FIG. 4B.
FIG. 6 illustrates an average value and a deceleration request value of brightness information between respective boundary pixels of FIG. 5.
7 illustrates a function value of a Gaussian function.
8 shows a graph of a Gaussian function.
9 is a diagram illustrating an example of an addition / deceleration request value using scale information.
FIG. 10 is a diagram illustrating an example of an image output from the image output unit 14 based on the corrected composite image data.

이하, 첨부 도면을 참조하여 본 발명에 의한 실시예를 상세하게 설명하기로 한다.
Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

우선, 본 발명에 의한 실시예를 설명하기에 앞서서, 본 발명과 관련된 종래 기술의 원리를 개략적으로 설명한다.First, prior to explaining the embodiment according to the present invention, the principle of the prior art related to the present invention will be described schematically.

전술한 바와 같이, 차량의 전후방, 좌우측면에 복수개 예컨대 4개의 어안 렌즈를 갖는 광각 카메라를 설치하여 지면에 수평 방향으로 영상을 촬영하고, 이를 차량의 상부에서 내려다 보는 형태로 재구성하는 종래 기술(이하, 이러한 종래 기술을 편의상 간단히 "영상 합성 시스템"이라 한다)이 제안되고 있다. 이러한 종래의 영상 합성 시스템의 기본적인 과정과 각 과정별의 영상을 도 1에 예시적으로 나타내었다.As described above, a wide-angle camera having a plurality of, for example, four fisheye lenses is installed on the front, rear, left, and right sides of the vehicle to take an image in the horizontal direction on the ground, and reconstruct the image into a form looking down from the top of the vehicle (hereinafter, For convenience, such a conventional technique is referred to simply as an "image synthesis system." The basic process of the conventional image synthesizing system and the image for each process are illustrated in FIG. 1.

도 1을 참조하면, 종래의 영상 합성 시스템은 6단계로 구성되는데, 영상 입력 단계(S100), 왜곡 보정 단계(S110), 평면화 단계(S120), 재배열 단계(S130), 단일 영상화 단계(S140) 및 단일 영상 출력 단계(S150)의 과정을 구비한다.Referring to FIG. 1, a conventional image synthesizing system is composed of six steps, an image input step S100, a distortion correction step S110, a planarization step S120, a rearrangement step S130, and a single imaging step S140. ) And a single image output step (S150).

영상 입력 단계(S100)는 복수개의 광각 카메라로부터 획득되는 복수개의 영상에 대한 영상 데이터가 입력되는 과정이다. 예컨대, 차량인 대상 물체에 복수개의 카메라를 장착하는 경우, 전방/후방/좌측면/우측면에 4개의 광각 카메라를 장착할 수 있으며, 이 때 촬영되는 영상은 도 1에 나타낸 바와 같이 나타나게 된다. 전술한 바와 같이, 광각 카메라는 어안 렌즈를 구비하므로 넓은 시야각을 확보할 수 있는데, 이는 대상 물체 주변의 영상 신호에 의해 추후에 설명하는 바와 같이 단일 평면화 영상을 구성하기 위해서는 각 카메라간에 일정 영역이 서로 겹치는 부분이 있어야 하고 겹치는 영역에도 불구하고 보다 적은 수의 카메라로서 영상을 재구성하기 위해서는 각각의 카메라의 시야각이 넓어야 하기 때문이다. 한편, 본 발명에서, 카메라라고 함은, 어안 렌즈 뿐 아니라 이미지 센서 등 기타 전기적 장치를 포함하는 개념으로서 사용한다. 즉, 단순히 영상을 광학적으로 취득하는 기구만을 의미하는 것이 아니라, 광학 신호를 전기적인 신호로 변환하는 장치로서, 예컨대 도 2에 나타낸 바와 같이 영상 처리 장치에 입력되어 처리할 수 있는 형태의 신호를 출력하는 수단을 의미하는 개념으로 정의하여 사용한다. The image input step S100 is a process of inputting image data of a plurality of images obtained from a plurality of wide-angle cameras. For example, when a plurality of cameras are mounted on an object that is a vehicle, four wide-angle cameras may be mounted on the front / rear / left side / right side, and the captured image is displayed as shown in FIG. 1. As described above, since the wide-angle camera has a fisheye lens, a wide field of view can be secured. In order to construct a single planarized image as described later by an image signal around a target object, a predetermined area is formed between each camera. This is because there must be overlapping parts and each camera must have a wide viewing angle to reconstruct the image with fewer cameras despite the overlapping areas. Meanwhile, in the present invention, the camera is used as a concept including not only a fisheye lens but also other electrical devices such as an image sensor. That is, it does not mean simply a mechanism for optically acquiring an image, but an apparatus for converting an optical signal into an electrical signal, for example, as shown in FIG. It is used as a concept that means a means to do.

한편, 전술한 바와 같이 가능한 한 적은 수의 카메라만을 사용하기 위해 어안 렌즈를 장착한 광각 카메라를 사용할 경우 넓은 시야각을 확보할 수는 있으나, 획득되는 영상의 가장자리 쪽으로 갈수록 영상이 방사형으로 왜곡되게 된다. 왜곡 보정 단계(S110)는 이러한 왜곡 영상을 보정하기 위한 과정이다. 어안 렌즈 왜곡 보정은 크게 "Equi-solid Angle Projection", "Orthographic Projection"의 두 가지 방식으로 나눌 수 있는데, 이는 어안 렌즈를 제조할 때 어안 렌즈로 들어오는 빛을 어떻게 재배열하느냐를 정의하는 방식으로 어안 렌즈 제조사는 어안 렌즈 제조 시에 두 가지 방법 중 하나를 선택해서 어안 렌즈를 제조한다. 따라서 어안 렌즈에 적용된 왜곡 방식에 따라 왜곡 연산의 역연산을 구하고, 어안 렌즈로 촬영한 영상을 역변환해주면 "왜곡 보정"된 영상을 얻을 수 있으며, 이 때 변환된 영상을 "왜곡 보정 영상"이라고 한다. 왜곡 보정 영상은 도 1에 나타낸 바와 같이 표시될 수 있으며, 왜곡 보정을 수행하기 위한 연산식은 예컨대 다음과 같은 수식을 사용할 수 있다.On the other hand, when using a wide-angle camera equipped with a fisheye lens to use as few cameras as possible as described above, a wide viewing angle can be secured, but the image is distorted radially toward the edge of the acquired image. The distortion correction step S110 is a process for correcting such a distorted image. Fisheye lens distortion correction can be largely divided into two methods: "Equi-solid Angle Projection" and "Orthographic Projection", which define how fisheye lens rearranges the light entering the fisheye lens. Lens manufacturers choose one of two methods for manufacturing fisheye lenses. Therefore, if the inverse operation of the distortion operation is obtained according to the distortion method applied to the fisheye lens, and the image converted by the fisheye lens is inversely transformed, a "distortion corrected" image can be obtained, and the converted image is called a "distortion correction image". . The distortion correction image may be displayed as shown in FIG. 1, and an equation for performing distortion correction may use, for example, the following equation.

[수식 1][Equation 1]

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

여기에서,

Figure pat00003
는 카메라의 촛점 거리,
Figure pat00004
는 카메라의 광중심에서 입력 영상의 (x,y) 좌표 즉,
Figure pat00005
까지의 거리,
Figure pat00006
Figure pat00007
은 입력 영상의 (x,y) 좌표값이고,
Figure pat00008
Figure pat00009
은 왜곡 보정 영상의 (x,y) 좌표값이다.
From here,
Figure pat00003
The focal length of the camera,
Figure pat00004
Is the (x, y) coordinate of the input image at the camera's optical center,
Figure pat00005
Distance to,
Figure pat00006
And
Figure pat00007
Is the (x, y) coordinate value of the input image,
Figure pat00008
And
Figure pat00009
Is the (x, y) coordinate value of the distortion corrected image.

다음으로, 왜곡 보정 영상을 얻게 되면, 평면화(homography) 과정을 수행한다(S120). 평면화 과정(S120)은 대상 물체 즉, 카메라가 장착된 물체 위에서 대상물체를 지면을 향하는 방향 즉, 수직으로 내려다보는 영상으로 변환하는 과정이다. 전술한 바와 같이, 왜곡 보정 단계(S110)에서 얻어지는 왜곡 보정 영상은 각각의 카메라마다 각기 다른 시점으로 촬영한 영상에 해당하므로, 이들 영상은 하나의 시점 즉, 수직으로 내려다 보는 시점의 영상으로 변환하는 과정이 평면화 단계(S120)이다. 평면화 단계(S120)를 수행하여 생성된 영상을 평면화 영상이라고 하며, 평면화 단계(S120) 수행 이후의 영상은 도 1에 나타낸 바와 같이 표시될 수 있고, 이러한 평면화 단계에서는 예컨대 다음과 같은 수식을 사용할 수 있다.Next, when the distortion correction image is obtained, a plane (homography) process is performed (S120). The planarization process (S120) is a process of converting an object onto an object, that is, an object on which a camera is mounted, into an image looking downward in a direction toward the ground, that is, vertically. As described above, since the distortion correction image obtained in the distortion correction step S110 corresponds to an image photographed at different viewpoints for each camera, these images are converted into an image of one viewpoint, that is, a vertically viewed viewpoint. The process is a flattening step (S120). An image generated by performing the flattening step S120 is called a flattened image, and an image after performing the flattening step S120 may be displayed as shown in FIG. 1, and the following equation may be used in this flattening step, for example. have.

[수식 2][Equation 2]

Figure pat00010
Figure pat00010

여기서,

Figure pat00011
은 상기 수식 1에 의해 획득된 왜곡 보정 영상의 (x,y) 좌표값이고,
Figure pat00012
은 상기 수식 2에 의해 변환된 평면화영상의 (x,y) 좌표값이며,
Figure pat00013
은 평면화 변환계수(이를 Perspective Transform이라고 한다)를 의미한다.
here,
Figure pat00011
Is a (x, y) coordinate value of the distortion correction image obtained by Equation 1,
Figure pat00012
Is the (x, y) coordinate value of the flattened image converted by Equation 2,
Figure pat00013
Is the flattening transform coefficient (called Perspective Transform).

다음으로, 평면화 영상이 획득되면, 재배열 단계(Affine transform)를 수행한다(S130). 재배열 단계(S130)는, 평면화 단계에서 생성된 평면화 영상들을 변위이동 및 회전만을 적용해 재배열하는 단계로서, 대상 물체를 둘러싸도록 촬영된 영상들이 대상물체를 제외한 주변 영상으로 재구성되는 단계이다. 이러한 재배열 단계(S130)는, 화소에 대한 이동과 회전만으로 이루어질 수 있는데, 이를 위해 어파인 변환(Affine transform) 등과 같은 방법을 사용할 수 있다. 재배열을 통해 생성된 영상을 재배열 영상이라고 하며, 재배열 영상은 도 1에 나타낸 바와 같이 표시될 수 있다.Next, when a planarized image is obtained, an rearrangement step (Affine transform) is performed (S130). The rearrangement step (S130) is a step of rearranging the planarized images generated in the planarization step by applying only displacement movement and rotation, wherein the images photographed to surround the target object are reconstructed into surrounding images except for the target object. The rearrangement step S130 may be performed by only moving and rotating the pixel. For this, a method such as an affine transform may be used. An image generated through the rearrangement is called a rearrangement image, and the rearrangement image may be displayed as shown in FIG. 1.

재배열 단계에서는 다음과 같은 수식을 사용할 수 있다.In the rearrangement phase, you can use the following formula:

[수식 3][Equation 3]

Figure pat00014
Figure pat00014

여기에서,

Figure pat00015
은 수식 2에 의해 변환된 평면화 영상의 (x,y) 좌표값이고,
Figure pat00016
은 수식 3에 의해 변환될 재배열 영상의 (x,y) 좌표값이고,
Figure pat00017
는 회전 변환 계수이고,
Figure pat00018
는 변위 이동 계수(
Figure pat00019
Figure pat00020
를 합쳐서 affine transform으로 정의한다)를 의미한다.
From here,
Figure pat00015
Is the (x, y) coordinate value of the flattened image converted by Equation 2,
Figure pat00016
Is the (x, y) coordinate value of the rearranged image to be converted by Equation 3,
Figure pat00017
Is the rotation conversion factor,
Figure pat00018
Is the displacement displacement coefficient (
Figure pat00019
and
Figure pat00020
To be defined as an affine transform).

다음으로, 단일 영상화 단계(S140)를 수행한다. 재배열 영상은 영상을 단지 다시 배열해 놓은 것에 불과하기 때문에, 대상 물체 주변을 촬영한 영상들은 서로 공통 영역을 가지며 공통 영역이 서로 겹치게 배열된다. 따라서 공통 영역을 가지는 재배열 영상에서 겹치는 부분을 처리하여 공통 영역에 대해 하나의 대표 영상을 획득하게 하는 단일 영상화 단계가 필요하다. 단일 영상화 단계는 여러 가지 구현 방식을 사용할 수 있으며 구현 방식에 따라 달라질 수 있으므로, 구현 원리만 간단히 설명하도록 한다. 공통 영역이 발생하면 단일 영상화단계는 이 공통 영역을 화소 단위로 쪼개어 분석하여 보다 더 정확한 위치에 배열된 화소들만으로 단일화 영상 영역을 구성하게 한다. 정확한 위치에 배열된 화소에 대한 기준은 여러 가지가 될 수 있는데 가장 간단한 기준은 예컨대 화소가 속한 영상의 광중심과 화소와의 거리가 될 수 있다. 이 기준을 이용하여 공통 영역의 겹치는 화소들 가운데 광중심에 보다 더 가까이 놓인 화소만으로 공통 영역을 재구성하게 되면, 재배열 영상을 겹치는 영역 없이 단일 영상으로 구성할 수 있게 된다. 단일 영상화 단계를 통해 생성되는 영상을 단일 영상이라 하며, 도 1에 나타낸 바와 같이 표시될 수 있다.Next, a single imaging step S140 is performed. Since the rearranged images are merely rearranged images, the images photographed around the object have a common area and the common areas are arranged to overlap each other. Therefore, a single imaging step is needed to process overlapping portions of the rearranged image having the common area to obtain one representative image for the common area. Since a single imaging step can use several implementations and can vary depending on the implementation, only the implementation principle is briefly described. When a common area occurs, the single imaging step divides the common area into pixels and analyzes the pixel to form a single image area using only pixels arranged at a more accurate position. The reference for the pixels arranged at the correct position may be various. The simplest reference may be, for example, the distance between the pixel and the optical center of the image to which the pixel belongs. By using this criterion, if the common region is reconstructed using only pixels closer to the optical center among the overlapping pixels of the common region, the rearranged image may be configured as a single image without overlapping regions. An image generated through a single imaging step is called a single image and may be displayed as shown in FIG. 1.

이와 같이 단일 영상화 단계(S140)까지를 수행하게 되면 평면화된 단일 영상이 획득되고, 이를 합성 영상으로서 출력(S150)하게 되면 도 1에 나타낸 바와 같이 대상 물체 주변을 대상 물체의 수직 상방향에서 내려다 본 형태의 영상을 볼 수 있게 된다.When the single imaging step (S140) is performed as described above, a flattened single image is obtained, and when it is output as a composite image (S150), as shown in FIG. You can see the image of the form.

한편, 전술한 각 단계 및 각 단계에서 사용하는 수식 1, 2 및 수식 3등은 종래 기술에 의해 이용되고 있는 것이고, 본 발명과는 직접적인 관련은 없는 것이므로 상세 설명은 생략하였다. 특히, 수식 2 및 3에서 각각의 계수들은 사용되는 방식 또는 알고리듬에 따라서 다르게 결정될 수 있는 것으로서, 본 발명은 이러한 계수를 산출하는 방법 자체와 관련되는 것은 아니므로 이들에 대한 상세 설명 또한 생략한다.
On the other hand, the above-described steps and formulas 1, 2, and 3 used in each step are used by the prior art, and are not directly related to the present invention, and thus detailed descriptions thereof are omitted. In particular, each of the coefficients in Equations 2 and 3 may be determined differently according to the method or algorithm used, and the present invention is not related to the method of calculating such coefficients, and thus, detailed description thereof is also omitted.

도 2는 본 발명에 의한 복수개의 영상을 합성한 합성 영상에 대한 보정 기능을 구비하는 영상 처리 장치(10, 이하 간단히 영상 처리 장치라 한다)의 일실시예를 나타낸 블록도이다.2 is a block diagram illustrating an embodiment of an image processing apparatus 10 (hereinafter, simply referred to as an image processing apparatus) having a correction function for a composite image obtained by synthesizing a plurality of images according to the present invention.

본 실시예의 영상 처리 장치(10)는 복수개의 광각 카메라(11), 영상 수신부(12), 영상 합성부(13) 및 영상 신호 출력부(14)를 구비한다.The image processing apparatus 10 according to the present embodiment includes a plurality of wide-angle cameras 11, an image receiving unit 12, an image synthesizing unit 13, and an image signal output unit 14.

복수개의 광각 카메라(11)는 인접한 광각 카메라 사이에서 촬영 영역이 일부분 겹치도록 배치되며, 적어도 2 이상의 복수개로 구성되어 각각 영상을 촬영하여 이를 전기적 신호로 변환하여 영상 수신부(12)로 전송한다. 전술한 바와 같이, 각 카메라(11)는 단순한 광학 기구 뿐 아니라 광학 신호를 전기적 신호로 변환하는 이미지 센서 등의 전기적 장치를 포함하는 개념임을 유의해야 한다. 예컨대, 대상 물체가 차량인 경우 광각 카메라(11)는 차량의 전방/후방/좌측면/우측면에 배치될 수 있으며, 이들 각각의 카메라(11)는 그 촬영 영역이 인접하는 카메라(11) 사이에서 적어도 일부분 이상 겹치도록 배치된다.The plurality of wide-angle cameras 11 are arranged such that the photographing areas partially overlap between adjacent wide-angle cameras, and are composed of at least two or more pieces, each of which photographs an image, converts the image into an electrical signal, and transmits the image to the image receiving unit 12. As described above, it should be noted that each camera 11 is a concept including not only a simple optical apparatus but also an electrical apparatus such as an image sensor for converting an optical signal into an electrical signal. For example, when the target object is a vehicle, the wide-angle camera 11 may be disposed at the front / rear / left side / right side of the vehicle, and each of these cameras 11 may be located between the cameras 11 whose photographing areas are adjacent to each other. At least a portion is arranged to overlap.

영상 수신부(12)는 복수개의 광각 카메라(11)로부터 각각 획득되는 적어도 2 이상의 입력 영상에 대한 입력 영상 데이터를 수신하는 수단으로서, 수신된 복수개의 입력 영상 데이터를 영상 합성부(13)로 전송한다. 필요한 경우 영상 수신부(12)에서는 필터 등에 의해 영상 전처리 과정을 수행할 수도 있다.The image receiving unit 12 is a means for receiving input image data of at least two input images respectively obtained from the plurality of wide-angle cameras 11, and transmits the received plurality of input image data to the image synthesizing unit 13. . If necessary, the image receiver 12 may perform an image preprocessing process using a filter.

영상 합성부(13)는 상기 영상 수신부(12)로부터 복수개의 입력 영상 데이터를 수신하여 합성 영상 데이터를 생성하는 수단으로써, 상기 영상 데이터 수신부로부터 복수개의 입력 영상 데이터로부터 도 1에서 설명한 바와 같은 과정을 통해 단일 영상을 생성하도록 단일 영상 데이터를 생성한다. 영상 합성부(13)에서 생성되는 단일 영상은 복수개의 분할 영역 영상으로 구성되며, 각 복수개의 분할 영역에 대한 분할 영역 영상 데이터가 생성되고 이들에 기초하여 단일 영상에 상응하는 단일 영상 데이터를 생성한다. 또한, 영상 합성부(13)는 이와 같이 생성되는 분할 영역 영상 데이터와 단일 영상 데이터를 밝기 정보에 기초하여 보정함으로써 합성 영상에 대한 합성 영상 데이터를 생성한다.The image synthesizing unit 13 is a means for generating composite image data by receiving a plurality of input image data from the image receiving unit 12 and performing the process as described in FIG. 1 from the plurality of input image data from the image data receiving unit. Single image data is generated to generate a single image. The single image generated by the image synthesizing unit 13 is composed of a plurality of divided region images, and divided region image data for each of the plurality of divided regions is generated, and based on these, single image data corresponding to the single image is generated. . In addition, the image synthesizing unit 13 generates composite image data of the synthesized image by correcting the divided region image data and the single image data generated as described above based on the brightness information.

영상 합성부(13)에서 단일 영상을 생성하는 것은 도 1을 참조하여 설명한 바와 같은 단계에 의해 이루어질 수 있다. 즉, 도 1을 참조하여 설명한 바와 같이, 복수개의 광각 카메라로부터 각각 획득되는 적어도 2 이상의 입력 영상 각각에 대한 왜곡 보정을 수행하여 왜곡 보정 영상을 생성하는 왜곡 보정 단계와, 상기 왜곡 보정 단계에 의해 생성되는 왜곡 보정 영상 각각에 대한 평면화를 수행하여 평면화 영상을 생성하는 평면화 단계와, 상기 평면화 단계에 의해 생성된 평면화 영상 각각에 대한 재배열을 수행하여 재배열 영상을 생성하는 재배열 단계와, 상기 재배열 단계에 의해 생성된 재배열 영상들에 기초하여 단일 영상을 생성하는 단일 영상화 단계에 의해 단일 영상을 생성하게 된다. 여기에서, 상기 단일 영상은 복수개의 분할 영역 영상으로 구성된다. 본 발명에서 분할 영역 영상이라 함은 단일 영상을 구성하는 별개의 분할된 영상을 의미하는 것으로서, 이는 도 3을 참조하여 설명한다.Generating a single image in the image synthesizing unit 13 may be performed by the steps as described with reference to FIG. 1. That is, as described with reference to FIG. 1, a distortion correction step of generating distortion correction images by performing distortion correction on each of at least two or more input images acquired from a plurality of wide-angle cameras, and by the distortion correction step A flattening step of generating a planarized image by performing flattening on each of the distortion correction images, a rearrangement step of generating a rearranged image by performing rearrangement on each of the flattened images generated by the flattening step, and A single image is generated by a single imaging step of generating a single image based on the rearranged images generated by the arrangement step. Here, the single image is composed of a plurality of divided region images. In the present invention, the divided region image refers to a separate divided image constituting a single image, which will be described with reference to FIG. 3.

도 3은 도 1에서 설명한 바와 같은 과정을 통해 생성된 단일 영상의 일예를 나타낸 것으로서, 차량에 전방/후방/좌측면/우측면 방향으로 설치된 4개의 광각 카메라에 의해 획득된 입력 영상들로부터 단일 영상을 생성한 경우를 나타낸 것이다.FIG. 3 illustrates an example of a single image generated through the process described with reference to FIG. 1. FIG. 3 illustrates a single image from input images acquired by four wide-angle cameras installed in a vehicle in front, rear, left, and right directions. It shows the created case.

도 3에서 중앙의 검은색 부분은 차량을 나타내는데, 이 차량을 중심으로 볼 때 전방, 좌측면, 우측면, 후방 사이에는 대각선 방향의 사선에 의해 각각의 영상들이 서로 다른 밝기를 가짐으로써 분리되어 있는 느낌을 통해 부자연스러운 단일 영상을 나타내고 있음을 알 수 있다. 이는 전술한 바와 같이, 합성 영상 제공 시스템은 서로 다른 별개의 광각 카메라에 의해 획득된 영상을 왜곡 보정, 평면화, 재배열 단계를 거쳐 구성하고 서로 겹치는 영역에 대해서는 어느 하나의 대표 영상을 선택하여 이들을 이어 붙이는 듯한 형태로 단일 영상을 생성하기 때문에 각각의 영상들은 서로 분리되어 있는 듯한 느낌을 주게 된다. 본 발명에서 단일 영상이라 함은 도 3과 같은 형태의 영상 전체를 의미하며, 분할 영역 영상이라 함은 도 3에서 대각선 방향의 사선에 의해 서로 구획되는 4개의 영상 각각을 의미하고, 도 3에서는 전방 영상으로부터 시계 방향으로 분할 영역 영상 1,2,3,4로 나타내었다.In FIG. 3, the black part in the center represents a vehicle. When viewed from the center, the images are separated by having diagonal brightness between the front, left, right, and rear sides with different brightness. It can be seen that it represents an unnatural single image. As described above, the composite image providing system configures images acquired by different separate wide-angle cameras through distortion correction, planarization, and rearrangement steps, and selects one representative image for the overlapping regions and connects them. Since a single image is created in the form of a paste, each image gives a feeling of being separated from each other. In the present invention, the single image refers to the entire image of the form as shown in FIG. 3, and the divided region image refers to each of four images divided by diagonal lines in FIG. 3, and in front of FIG. 3. The divisional images 1,2,3,4 are shown clockwise from the image.

영상 합성부(13)는 이와 같은 단일 영상과 단일 영상을 구성하는 분할 영역 영상에 상응하는 단일 영상 데이터와 분할 영역 영상 데이터를 보정함으로써 합성 영상에 대한 합성 영상 데이터를 생성한다. 이 때, 영상 합성부(13)는 단일 영상을 구성하는 복수개의 분할 영역 영상들 사이의 경계 영역의 밝기 정보를 고려하여 복수개의 분할 영역 영상 데이터 및 단일 영상 데이터를 보정함으로써 합성 영상 데이터를 생성하게 된다.The image synthesizing unit 13 generates composite image data of the synthesized image by correcting the single image data and the divided region image data corresponding to the single image and the divided region image constituting the single image. At this time, the image synthesizing unit 13 generates composite image data by correcting the plurality of divided region image data and the single image data in consideration of brightness information of the boundary region between the plurality of divided region images constituting a single image. do.

이러한 과정을 도 4a 및 4b를 참조하여 보다 구체적으로 설명한다.This process will be described in more detail with reference to FIGS. 4A and 4B.

도 4a는 도 3에 도시한 분할 영역 영상 1과 분할 영역 영상 4의 경계 영역을 확대하여 나타낸 도면이고 도 4b는 도 4a의 경계 영역에 포함되는 경계 화소들을 파란색(분할 영역 영상 4)과 빨간색(분할 영역 영상 1)으로 구분하여 나타낸 것이다. FIG. 4A is an enlarged view of a boundary area between the partition area image 1 and the partition area image 4 shown in FIG. 3, and FIG. 4B shows the boundary pixels included in the border area of FIG. 4A as blue (split area image 4) and red ( The image is divided into divided regions 1).

도 4b에 도시한 파란색과 빨간색으로 나타낸 각각의 경계 화소들의 일부에 대한 밝기 정보는 예컨대 도 5와 같이 구성될 수 있다. 도 5에 나타낸 바와 같이 경계 영역의 경계 화소들의 밝기 정보는 분할 영역들 간에 어느 정도 일정한 정도로 서로 차이가 남을 알 수 있다. 따라서, 이들을 서로 동일하도록 하고 동일하게 만들기 위하여 밝기 정보에 가감된 값에 해당하는 스케일(scale) 정보를 연산하고, 이 스케일 정보에 따라 분할 영역 영상 각각에 포함된 내부의 화소들에 대해 밝기 정보를 조절하게 되면 분할 영역 영상들의 경계 영역들이 자연스럽게 나타날 수 있게 된다.Brightness information for some of the respective boundary pixels shown in blue and red shown in FIG. 4B may be configured as shown in FIG. 5, for example. As shown in FIG. 5, it can be seen that the brightness information of the boundary pixels of the boundary region is different from each other to some extent to some extent. Therefore, in order to make them the same and make them the same, scale information corresponding to a value added to or subtracted from the brightness information is calculated, and brightness information is applied to the internal pixels included in each of the divided images according to the scale information. When adjusted, the boundary regions of the divided region images may appear naturally.

예컨대, 도 3의 분할 영역 영상 1을 예로 들어 설명하면, 분할 영역 영상 1은 분할 영역 영상 4와 분할 영역 영상 2와 서로 인접하고 있다. 분할 영역 영상 1과 분할 영역 영상 4의 서로 맞닿는 경계 영역의 경계 화소들은 도 4에서와 같이 표시할 수 있고, 분할 영역 영상 1과 분할 영역 영상 2의 경계 영역의 경계 화소들도 마찬가지로 표시될 수 있다.For example, referring to the divided region image 1 of FIG. 3 as an example, the divided region image 1 is adjacent to the divided region image 4 and the divided region image 2. The boundary pixels of the boundary regions of the divided region image 1 and the divided region image 4 which are in contact with each other may be displayed as shown in FIG. 4, and the boundary pixels of the boundary regions of the divided region image 1 and the divided region image 2 may be displayed similarly. .

분할 영역 영상 1과 분할 영역 영상 4 각각의 경계 영역의 경계 화소들의 밝기 정보는 도 5에서와 같이 구성될 수 있고 분할 영역 영상 1과 분할 영역 영상 2 각각의 경계 영역의 경계 화소들의 밝기 정보 또한 도 5와 유사한 형태로 알 수 있다.Brightness information of the boundary pixels of each of the boundary regions of the divided region image 1 and the divided region image 4 may be configured as shown in FIG. It can be seen in the form similar to 5.

우선, 분할 영역 영상 1과 분할 영역 영상 4 사이의 경계 영역의 경계 화소들의 밝기 정보를 동일하게 하는 것은 서로 인접하는 경계 화소들의 밝기 정보의 평균값으로 구성할 수 있다. 예컨대, 도 5와 같은 경우라면 도 6과 같은 평균값을 구할 수 있고 이 평균값과의 차이만큼을 각각의 경계 화소들에 가감함으로써 밝기 정보로 동일하게 할 수 있다. 도 6에 이러한 가감 요구값들도 함께 나타내었다.First, equalizing the brightness information of the boundary pixels of the boundary region between the divided region image 1 and the divided region image 4 may be configured by an average value of the brightness information of adjacent boundary pixels. For example, in the case of FIG. 5, the average value as shown in FIG. 6 can be obtained, and the brightness information can be equalized by adding or subtracting the difference from the average value to each of the boundary pixels. Figure 6 also shows these required values.

이와 같이 경계 화소들에 대해 밝기 정보를 동일하게 한 이후, 분할 영역 영상 1의 내부 화소들에 대해서도 밝기 정보를 조절하는데 이는 다음과 같은 방법을 사용할 수 있다. 분할 영역 영상 1을 참조하여 설명하면, 전술한 바와 같이 분할 영역 영상 1의 경계 화소는 분할 영역 영상 4의 경계 화소들과 밝기 정보를 동일하게 할 수 있는데, 이 때 분할 영역 영상 1의 경계 화소들에 가감된 값의 스케일 정보를 구하고 구해진 스케일 정보에 기초하여 경계 화소로부터 분할 영역 영상 1의 내부에 포함되는 화소들에 대해서 점차적으로 밝기 정보를 변경할 수 있다.After the brightness information is the same for the boundary pixels as described above, the brightness information is also adjusted for the internal pixels of the partition image 1. Referring to the partition area image 1, as described above, the boundary pixels of the partition area image 1 may have the same brightness information as the boundary pixels of the partition area image 4. Scale information of a value added to or subtracted from may be obtained, and brightness information may be gradually changed for pixels included in the divided region image 1 from the boundary pixel based on the obtained scale information.

이 때, 스케일 정보는 예컨대 가우시안 함수(Gaussian fuction)에 의해 연산될 수 있다. In this case, the scale information may be calculated by, for example, a Gaussian fuction.

가우시안 함수는 주지된 바와 같이 다음과 같은 수식으로 표현된다.Gaussian functions are represented by the following equation, as is well known.

Figure pat00021
Figure pat00021

σ=1 일 때, G(x)는 도 7과 같은 값으로서 도 8과 같은 형태의 그래프로 표현될 수 있다. When σ = 1, G (x) may be represented by a graph of the form of FIG. 8 as a value of FIG. 7.

이러한 가우시안 함수 중에서, 대칭축을 기준으로 한 쪽 즉 x>=0인 쪽만을 사용하는데, 경계 화소들의 밝기 정보에서 가감된 값을 가우시안 함수의 x=0 위치에서의 값만큼으로 스케일링하고, 이 스케일 값에 기초하여 분할 영역 영상의 내부쪽으로 점차적으로 가우시안 함수에 의한 스케일링함으로써 분할 영역 영상 내부의 화소들의 밝기 정보를 가우시안 함수의 그래프에서와 같은 형태로 자연스럽게 조절할 수 있다. Among these Gaussian functions, only one side based on the axis of symmetry, that is, the side of x> = 0, is used, and the value added or subtracted from the brightness information of the boundary pixels is scaled by the value at the x = 0 position of the Gaussian function, and this scale value By gradually scaling by the Gaussian function toward the inside of the divided region image, the brightness information of the pixels inside the divided region image may be naturally adjusted in the form as shown in the graph of the Gaussian function.

예컨대, 도 6에서 분할 영역 영상 1의 가감 요구값은 -7,-7,-8,-5,-5이고 이러한 가감 요구값을 도 7 및 도 8의 가우시안 함수값에 반영하면 도 9에서와 같은 가감 요구값을 얻을 수 있다. 즉, x=0일 때의 원래의 가우시안 함수의 값은 G(0)=0.383이므로, G(x)=-7이 되기 위해서는 0.383에 -18.277만큼을 곱해야 G(x)=-7을 만족하게 된다. 따라서, 이 때의 -18.277이 스케일 값이 된다. 따라서, 이러한 스케일 값을 x=1,2,3...에 순차적으로 대응되는 가우시안 함수값 G(1),G(2),G(3)...에 곱해주면 x=1,2,3에 해당하는 화소들에 대해 가감해야 할 밝기 정보의 요구값을 가우시안 함수의 형태로 얻을 수 있게 된다. 도 9에 나타낸 바와 같이, 첫번째 경계 화소에 대해 가감 요구값이 -7이므로 이 때의 스케일 값은 -18.277이고, 이를 x=1일 때의 가우시안 함수값에 곱해주면 x=1일 때 즉 첫번째 경계 화소의 인접하는 분할 영역 1의 내부 화소에 대한 밝기 조절 가감 요구값 -4.423을 얻을 수 있고, 이 값만큼 x=1에 해당하는 화소에 대해 밝기 정보를 변경한다. 이를 순차적으로 x=2,3,4...에 대해서 수행하면 첫번째 경계 화소로부터 분할 영역 내부 방향 쪽으로의 화소들에 대한 밝기 정보 가감 요구값을 모두 얻을 수 있다. For example, in FIG. 6, the addition / decrease request value of the segmented image 1 is -7, -7, -8, -5, -5, and when the addition / decrease request value is reflected in the Gaussian function values of FIGS. The same deceleration request value can be obtained. That is, since the value of the original Gaussian function when x = 0 is G (0) = 0.383, in order to be G (x) =-7, 0.383 needs to be multiplied by -18.277 to satisfy G (x) =-7. Done. Therefore, -18.277 at this time becomes a scale value. Therefore, multiplying these scale values by the Gaussian function values G (1), G (2), G (3) ... corresponding to x = 1, 2, 3 ... in turn yields x = 1, 2, For the pixels corresponding to 3, the required value of brightness information to be added or subtracted can be obtained in the form of a Gaussian function. As shown in Fig. 9, the scale value at this time is -18.277 since the acceleration / deceleration request value is -7 for the first boundary pixel, and the result is multiplied by a Gaussian function value when x = 1, that is, the first boundary. The brightness adjustment / decrease request value -4.423 for the inner pixel of the adjacent divided region 1 of the pixel can be obtained, and the brightness information is changed for the pixel corresponding to x = 1 by this value. By sequentially performing this for x = 2, 3, 4 ..., all of the brightness information addition / requirement values for the pixels from the first boundary pixel toward the inside of the divided region can be obtained.

마찬가지로, G(x)=-8인 경우에는, 스케일 값은 -20.088이므로 이 경계화소에 대한 인접 화소들에 대해서는 이 값만큼 순차적으로 가우시안 함수값에 곱해 주면 밝기 조절 가감 요구값을 알 수 있다. 도 9를 참조하면 이 경우의 x=1에서의 가감 요구값은 -5.055임을 알 수 있다. Similarly, in the case of G (x) =-8, since the scale value is -20.088, the neighboring pixels for this boundary pixel are multiplied by the Gaussian function value by this value sequentially, so that the brightness adjustment value can be known. 9, it can be seen that the addition / deceleration request value at x = 1 in this case is -5.055.

이와 같이 분할 영역 영상 1의 모든 경계 화소들에 대해서 도 9에서와 같이 필요한 스케일 값을 가우시안 함수를 이용하여 구할 수 있으므로 각각의 경계 화소를 기준으로 분할 영역 영상 1의 내부의 화소들에 대해서 밝기 정보 가감 요구값을 획득할 수 있게 되며, 이 가감 요구값을 적용하면 경계 영역으로부터 분할 영역 영상 1의 내부 방향으로 점차적으로 자연스럽게 밝기 정보가 변화되도록 보정을 수행할 수 있게 된다.As described above, all of the boundary pixels of the partition image 1 may be obtained by using a Gaussian function as shown in FIG. 9. Therefore, the brightness information of the pixels in the partition image 1 may be obtained based on each boundary pixel. It is possible to obtain an addition / decrease request value, and by applying the addition / decrease request value, it is possible to perform correction so that the brightness information gradually changes naturally from the boundary area to the inner direction of the divided region image 1.

한편, 분할 영역 영상 1에서 경계 화소들로부터 분할 영역 영상 1의 내부의 어느 범위 까지 위와 같은 가감 요구값을 적용하여 밝기 정보를 조절할 것인가는 다음과 같이 결정할 수 있다. 예컨대, 가장 좁은 행이나 열 크기의 절반까지 상기 과정을 수행하도록 할 수도 있고, 각 경계 영역 사이의 중점으로부터 각 경계 영역 까지의 화소간의 거리의 절반까지 상기 과정을 수행하도록 구성할 수도 있다. On the other hand, in the divided region image 1, it may be determined whether the brightness information is adjusted by applying the above acceleration / decrease request value from the boundary pixels to the inside of the divided region image 1 as follows. For example, the process may be performed up to half of the narrowest row or column size, or may be configured to perform the process up to half of the distance between pixels from the midpoint between each boundary region to each boundary region.

이와 같은 과정을 정리해 보면, 우선 분할 영역 영상 1은, 분할 영역 영상 4와 분할 영역 영상 2와의 경계 화소들을 고려하여 경계 화소들간의 밝기 정보를 동일하게 한 후, 분할 영역 영상 1의 내부의 화소들에 대해서 전술한 바와 같은 방식에 의해 스케일 정보를 이용하여 점차적인 밝기 정보를 조절하게 된다. 마찬가지로, 분할 영역 영상 2는 분할 영역 영상 1과 분할 영역 영상 3을 고려하여 상기 과정을 수행하고, 분할 영역 영상 3은 분할 영역 영상 2와 분할 영역 영상 4를 고려하고, 분할 영역 영상 4는 분할 영역 영상 3과 분할 영역 영상 1을 고려하여 전술한 바와 같은 과정을 수행함으로써, 전체 영상에 대해서 밝기 정보를 조절함으로써 밝기 정보의 보정을 수행한다.In summary, the divided region image 1 equalizes the brightness information between the boundary pixels in consideration of the boundary pixels of the divided region image 4 and the divided region image 2, and then stores the pixels inside the divided region image 1. The brightness information is gradually adjusted using the scale information in the same manner as described above. Similarly, the partition area image 2 performs the above process in consideration of the partition area image 1 and the partition area image 3, the partition area image 3 considers the partition area image 2 and the partition area image 4, and the partition area image 4 is the partition area. By performing the above-described process in consideration of the image 3 and the divided region image 1, the brightness information is corrected by adjusting the brightness information for the entire image.

이와 같이 각각의 분할 영역 영상에 대하여 밝기 정보의 보정이 완료되면, 보정된 밝기 정보가 반영된 각각의 분할 영역 영상에 대한 분할 영역 영상 데이터를 구성하고 이에 의하여 전체적인 합성 영상에 대한 합성 영상 데이터를 생성하고, 이를 영상 출력부(14)로 전송한다.As described above, when the brightness information is corrected for each divided region image, the divided region image data for each divided region image in which the corrected brightness information is reflected is generated, thereby generating the synthesized image data for the entire synthesized image. This is transmitted to the image output unit 14.

다시 도 2를 참조하면, 영상 출력부(14)는 전술한 바와 같이 영상 합성부(13)에서 생성된 합성 영상 데이터에 기초하여 출력 영상을 생성하여 외부의 디스플레이 장치 예컨대 LCD 모니터 등으로 출력하는 기능을 수행한다.Referring to FIG. 2 again, the image output unit 14 generates an output image based on the synthesized image data generated by the image synthesizer 13 and outputs the image to an external display device such as an LCD monitor as described above. Do this.

도 10은 전술한 바와 같이 보정이 완료된 합성 영상 데이터에 기초하여 영상 출력부(14)에서 출력되는 영상을 나타낸 것으로서, 각각의 분할 영역 영상들 사이의 경계 영역이 자연스럽게 연결되어 전체적으로 하나의 화면인 것처럼 보임을 확인할 수 있다.FIG. 10 illustrates an image output from the image output unit 14 based on the corrected composite image data as described above. As shown in FIG. 10, the boundary regions between the respective divided region images are naturally connected to form a single screen as a whole. You can see it.

이상에서, 바람직한 실시예를 참조하여 본 발명을 설명하였으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능할 것이다. 따라서 본 발명은 첨부한 특허청구범위 및 도면 등의 전체적인 기재를 참조하여 해석되어야 할 것이며, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.In the above, the present invention has been described with reference to preferred embodiments, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains may make various modifications and variations from such descriptions. will be. Therefore, the present invention should be construed with reference to the overall description of the appended claims and drawings, and all equivalent or equivalent modifications thereof will belong to the scope of the present invention.

예컨대, 상기 실시예에서 가우시안 함수를 이용하여 스케일 정보를 연산하였으나 이에 한정되는 것은 아니며 예컨대

Figure pat00022
로 표현되는 시그모이드(sigmoid) 함수나, 1차 또는 2차 함수를 이용할 수도 있다. 또한, 예컨대
Figure pat00023
등과 같은 함수를 이용할 수도 있다.
For example, in the above embodiment, the scale information is calculated using a Gaussian function, but is not limited thereto.
Figure pat00022
It is also possible to use a sigmoid (sigmoid) function, or a linear or quadratic function. Also, for example
Figure pat00023
You can also use functions such as

10...영상 처리 장치,
11...카메라,
12...영상 수신부,
13...영상 합성부,
14...영상 출력부.
10 ... image processing unit,
11 camera,
12 ... video receiver,
13, video synthesis unit,
14.Video output.

Claims (7)

복수개의 영상을 합성한 합성 영상에 대한 보정 기능을 구비하는 영상 처리 장치에 있어서,
인접한 광각 카메라 사이에서 촬영 영역이 일부분 겹치도록 배치되는 적어도 2 이상의 복수개의 광각 카메라;
상기 복수개의 광각 카메라로부터 각각 획득되는 적어도 2 이상의 입력 영상에 대한 입력 영상 데이터를 수신하는 영상 수신부;
상기 영상 수신부로부터 복수개의 입력 영상 데이터를 수신하여 복수개의 분할 영역 영상으로 구성되는 단일 영상을 생성하도록 분할 영역 영상 데이터와 단일 영상 데이터를 생성하고, 상기 분할 영역 영상 데이터와 단일 영상 데이터를 보정하여 합성 영상 데이터를 생성하는 영상 합성부; 및
상기 영상 합성부에서 생성된 합성 영상 데이터에 기초하여 출력 영상을 생성하여 출력하는 영상 출력부
를 포함하는 영상 처리 장치.
An image processing apparatus having a correction function for a composite image obtained by synthesizing a plurality of images,
A plurality of at least two wide-angle cameras arranged to partially overlap the photographing areas between adjacent wide-angle cameras;
An image receiver configured to receive input image data of at least two input images respectively obtained from the plurality of wide-angle cameras;
Receiving a plurality of input image data from the image receiving unit to generate a segment image data and a single image data to generate a single image consisting of a plurality of partition region images, and to correct and synthesize the partition region image data and a single image data An image synthesizer for generating image data; And
An image output unit which generates and outputs an output image based on the synthesized image data generated by the image synthesizer.
Image processing apparatus comprising a.
제1항에 있어서,
상기 영상 합성부는 상기 단일 영상을 구성하는 복수개의 분할 영역 영상들 사이의 경계 영역의 밝기 정보를 고려하여 복수개의 분할 영역 영상 데이터 및 단일 영상 데이터를 보정함으로써 합성 영상 데이터를 생성하는 것을 특징으로 하는 영상 처리 장치.
The method of claim 1,
The image synthesizing unit generates composite image data by correcting the plurality of divided region image data and the single image data in consideration of brightness information of the boundary region between the plurality of divided region images constituting the single image. Processing unit.
제1항에 있어서,
상기 영상 합성부는, 상기 복수개의 광각 카메라로부터 각각 획득되는 적어도 2 이상의 입력 영상 각각에 대한 왜곡 보정을 수행하여 왜곡 보정 영상을 생성하는 왜곡 보정 단계와, 상기 왜곡 보정 단계에 의해 생성되는 왜곡 보정 영상 각각에 대한 평면화를 수행하여 평면화 영상을 생성하는 평면화 단계와, 상기 평면화 단계에 의해 생성된 평면화 영상 각각에 대한 재배열을 수행하여 재배열 영상을 생성하는 재배열 단계와, 상기 재배열 단계에 의해 생성된 재배열 영상들에 기초하여 단일 영상을 생성하는 단일 영상화 단계에 의해 복수개의 분할 영역 영상으로 구성되는 단일 영상을 생성하는 것을 특징으로 하는 영상 처리 장치.
The method of claim 1,
The image synthesizing unit includes a distortion correction step of generating a distortion correction image by performing distortion correction on each of at least two input images obtained from the plurality of wide-angle cameras, and each of the distortion correction images generated by the distortion correction step. A planarization step of generating a planarized image by performing a planarization of the imager, a rearrangement step of generating a rearrangement image by rearranging each of the planarized images generated by the planarization step, and generating the rearrangement image And a single image composed of a plurality of divided region images by a single imaging step of generating a single image based on the rearranged images.
제2항에 있어서,
상기 영상 합성부는, 상기 복수개의 분할 영역 영상들 각각에 대해, 인접하는 다른 분할 영역 영상들과의 경계 영역을 구성하는 경계 화소들의 밝기 정보와 인접하는 다른 분할 영역 영상들의 경계 화소들의 밝기 정보가 서로 동일하게 되도록 함으로써 복수개의 분할 영역 영상 데이터 및 단일 영상 데이터를 보정하는 것을 특징으로 하는 영상 처리 장치.
The method of claim 2,
The image synthesizing unit, for each of the plurality of divided region images, brightness information of boundary pixels constituting a boundary area with other divided region images and brightness information of boundary pixels of other adjacent region images are mutually different from each other. And correcting the plurality of divided region image data and the single image data by being equal.
제4항에 있어서,
상기 경계 화소들의 평균값에 의해 각 경계 화소들의 밝기 정보를 동일하게 하는 것을 특징으로 하는 영상 처리 장치.
The method of claim 4, wherein
And the brightness information of each boundary pixel is equalized by the average value of the boundary pixels.
제4항에 있어서,
상기 밝기 정보를 동일하게 한 경계 화소에 대하여, 스케일 정보를 연산하고, 상기 스케일 정보에 기초하여 각 분할 영역 영상의 내부에 포함되는 화소들에 대하여 밝기 정보를 변경함으로써 각 분할 영역 영상에 포함된 화소들에 대한 밝기 정보를 조절하는 것을 특징으로 하는 영상 처리 장치.
The method of claim 4, wherein
Pixels included in each divided region image are calculated by calculating scale information with respect to the boundary pixels having the same brightness information, and changing brightness information for pixels included in each divided region image based on the scale information. The image processing apparatus, characterized in that for adjusting the brightness information for the field.
제6항에 있어서,
상기 스케일 정보는 가우시안 함수(Gaussian fuction)에 의해 연산되는 것을 특징으로 하는 영상 처리 장치.
The method of claim 6,
And the scale information is calculated by a Gaussian function.
KR1020100008295A 2010-01-29 2010-01-29 Image processing apparatus which can compensate a composite image obtained from a plurality of image KR20110088680A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100008295A KR20110088680A (en) 2010-01-29 2010-01-29 Image processing apparatus which can compensate a composite image obtained from a plurality of image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100008295A KR20110088680A (en) 2010-01-29 2010-01-29 Image processing apparatus which can compensate a composite image obtained from a plurality of image

Publications (1)

Publication Number Publication Date
KR20110088680A true KR20110088680A (en) 2011-08-04

Family

ID=44927096

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100008295A KR20110088680A (en) 2010-01-29 2010-01-29 Image processing apparatus which can compensate a composite image obtained from a plurality of image

Country Status (1)

Country Link
KR (1) KR20110088680A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101406073B1 (en) * 2013-03-12 2014-06-11 현대오트론 주식회사 Method and apparatus for generating around view image
CN105196917A (en) * 2014-06-13 2015-12-30 现代摩比斯株式会社 Around View Monitoring Apparatus And Method Thereof
KR20160045481A (en) * 2014-10-17 2016-04-27 현대모비스 주식회사 Apparatus for anti-aliasing of vehicle video

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101406073B1 (en) * 2013-03-12 2014-06-11 현대오트론 주식회사 Method and apparatus for generating around view image
CN105196917A (en) * 2014-06-13 2015-12-30 现代摩比斯株式会社 Around View Monitoring Apparatus And Method Thereof
US9669761B2 (en) 2014-06-13 2017-06-06 Hyundai Mobis Co., Ltd. Around view monitoring apparatus and method thereof
KR20160045481A (en) * 2014-10-17 2016-04-27 현대모비스 주식회사 Apparatus for anti-aliasing of vehicle video

Similar Documents

Publication Publication Date Title
KR101077584B1 (en) Apparatus and method for processing images obtained by a plurality of cameras
US20210133927A1 (en) Systems and Methods for Synthesizing High Resolution Images Using Images Captured by an Array of Independently Controllable Imagers
KR101339121B1 (en) An apparatus for generating around view image of vehicle using multi look-up table
EP2518995B1 (en) Multocular image pickup apparatus and multocular image pickup method
CN103826033B (en) Image processing method, image processing equipment, image pick up equipment and storage medium
CN109690628B (en) Image processing apparatus
US20050007477A1 (en) Correction of optical distortion by image processing
US9369693B2 (en) Stereoscopic imaging device and shading correction method
WO2008053765A1 (en) Image generating device and image generating method
EP1418766A2 (en) Method and apparatus for processing images
CA2342318A1 (en) Method and apparatus for processing images
CN110519493B (en) Image processing apparatus, image processing method, and computer-readable recording medium
JP5096645B1 (en) Image generating apparatus, image generating system, method, and program
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
KR20100002231A (en) Image processing apparatus, image processing method, program and recording medium
CA2341886A1 (en) Method and apparatus for synthesizing high-resolution imagery using one high-resolution camera and a lower resolution camera
JP6478511B2 (en) Image processing method, image processing apparatus, compound eye imaging apparatus, image processing program, and storage medium
JP2006119843A (en) Image forming method, and apparatus thereof
JP2004135209A (en) Generation device and method for wide-angle view high-resolution video image
KR20110088680A (en) Image processing apparatus which can compensate a composite image obtained from a plurality of image
KR101230909B1 (en) Apparatus and method for processing wide angle image
KR101293263B1 (en) Image processing apparatus providing distacnce information in a composite image obtained from a plurality of image and method using the same
JP2009211254A (en) Image processing unit, compound eye imaging device, image processing method, and image processing program
US20230379445A1 (en) Image processing device, moving apparatus, image processing method, and storage medium
JPH0795595A (en) Color image pickup device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application