KR101854354B1 - Method for Image correction based on using multi-sensor - Google Patents

Method for Image correction based on using multi-sensor Download PDF

Info

Publication number
KR101854354B1
KR101854354B1 KR1020170131677A KR20170131677A KR101854354B1 KR 101854354 B1 KR101854354 B1 KR 101854354B1 KR 1020170131677 A KR1020170131677 A KR 1020170131677A KR 20170131677 A KR20170131677 A KR 20170131677A KR 101854354 B1 KR101854354 B1 KR 101854354B1
Authority
KR
South Korea
Prior art keywords
image
frame
previous frame
sensor
current frame
Prior art date
Application number
KR1020170131677A
Other languages
Korean (ko)
Inventor
홍용희
Original Assignee
엘아이지넥스원 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘아이지넥스원 주식회사 filed Critical 엘아이지넥스원 주식회사
Priority to KR1020170131677A priority Critical patent/KR101854354B1/en
Application granted granted Critical
Publication of KR101854354B1 publication Critical patent/KR101854354B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P15/00Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration
    • G01P15/14Measuring acceleration; Measuring deceleration; Measuring shock, i.e. sudden change of acceleration by making use of gyroscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

The present invention relates to a multi-sensor based image correcting method capable of improving matching precision. The method comprises the following steps: performing non-uniformity correction; estimating image movement and magnification variations of a current frame compared with a previous frame by using a multi-sensor; correcting the previous frame based on the estimated image movement and magnification variations; performing image conversion for the corrected previous frame based on a current frame image, and matching the same with the current frame; and updating a corrected table.

Description

다중센서 기반 영상보정 방법{Method for Image correction based on using multi-sensor}[0001] The present invention relates to a multi-sensor based image correction method,

본 발명은 다중센서 기반 영상보정 방법에 관한 것으로, 보다 상세하게는 영상의 불균일 정도가 임계치 이상인 불균일 영상에 대해 다중센서를 이용하여 영상보정을 실행할 수 있는 영상보정 방법에 관한 것이다.The present invention relates to a multi-sensor-based image correction method, and more particularly, to an image correction method capable of performing image correction using a multi-sensor for a non-uniform image whose degree of unevenness of the image is equal to or higher than a threshold value.

일반적인 영상보정 방법으로서, 교정 기반 불균일 보정(CBNUC)은 흑체와 같은 보정장비를 이용하여 이득(gain)과 오프셋(offset)을 획득하고 적용하는 방법으로, 서로 다른 두 온도의 흑체를 이용하여 FPA(Focal plane array)의 이득 및 오프셋을 보정하는 two point NUC가 주로 사용되고 있다As a general image correction method, calibration based nonuniformity correction (CBNUC) is a method of acquiring and applying a gain and an offset using a correction device such as a blackbody, and using a black body having two different temperatures, The two-point NUC, which corrects the gain and offset of the focal plane array, is mainly used

기존 정합 장면 기반 불균일보정(SBNUC)는 프레임 간의 정합을 실행하기 위해 영상 정보를 기반으로 단순 영상매칭 반복 연산, row 및 column 프로젝션 매칭 기법, 위상상관정합(Phase Correlation Registration)기법 등 알고리즘을 이용하여 프레임 모션 보정 후 정합을 수행하였다. Conventional matching scene-based nonuniformity correction (SBNUC) is based on image information to perform matching between frames, using algorithm such as simple image matching repetition, row and column projection matching, and phase correlation registration Matching was performed after motion compensation.

종래의 교정 기반 불균일보정(CBNUC)는 영상 기반 불균일보정(SBNUC)에 비해 구현하기 쉬우며 정확한 보정 테이블 획득이 가능하다는 장점이 있다. 하지만 가정에 벗어난 주변 환경 변화에 대응하지 못하며, 불균일보정 후 장시간 경과 시 발생되는 FPA변화로 인해 주기적으로 불균일 보정을 해주어야 한다. 또한, 전원인가 후 FPA에서 발생되는 온도 드리프트 현상에 대응하기 어려운 단점이 있다. 이를 극복하기 위해 셔터보정을 수행한다. 하지만 이 경우 셔터가 주기적으로 영상을 가리게 되어 연속 영상획득이 불가능한 단점이 있다.Conventional calibration-based nonuniformity correction (CBNUC) is easier to implement than image-based nonuniformity correction (SBNUC) and has the advantage of obtaining accurate calibration tables. However, it can not cope with changes in the surrounding environment outside the home, and periodic non-uniformity correction should be performed due to the FPA change occurring after a long time after the non-uniformity correction. In addition, there is a disadvantage that it is difficult to cope with the temperature drift phenomenon generated in the FPA after power application. To overcome this, shutter correction is performed. However, in this case, since the shutter periodically covers the image, continuous image acquisition is not possible.

기존 정합 장면 기반 불균일 보정(SBNUC)는 프레임 간의 정합을 수행하기 위해 영상 기반 알고리즘을 이용하였다. 하지만 영상정보만으로 정합을 하기 위한 모션 추정에는 많은 시스템 자원이 필요로 하게 되어 시스템 제작 비용 상승 및 제작 난이도 상승 등의 문제를 수반하게 된다.  Conventional matching scene based nonuniformity correction (SBNUC) uses an image based algorithm to perform matching between frames. However, the motion estimation for matching with only image information requires a lot of system resources, which leads to problems such as an increase in system manufacturing cost and an increase in manufacturing difficulty.

또한, 영상 신호가 영상 센서의 불균일로 인해 발생되는 신호에 비해 작을 경우 정합 장면기반 불균일 보정이 수행이 불가능한 단점도 있다.In addition, when the video signal is smaller than the signal generated due to the non-uniformity of the image sensor, there is a disadvantage that it is impossible to perform the matching-based non-uniformity correction.

한국공개특허 제10-2016-0060747호는 다중 센서 영상 정합 장치에 대하여 기술하고 있다. 그러나 이 기술에서는 CCD영상과 IR 영상을 정합함으로써 야간 환경에 유리하고, 표적과 주변온도가 비슷할 때 표적을 구분하는 기술에 대해 기재하고 있을 뿐, 영상 센서의 불균일로 인한 불균일한 영상에 대한 해결 방안을 제시하고 있지 않다.Korean Patent Laid-Open No. 10-2016-0060747 describes a multiple sensor image matching apparatus. However, this technology merely describes a technique for distinguishing a target when the target and the ambient temperature are similar, which is advantageous to the nighttime environment by matching the CCD image and the IR image, and a solution to the uneven image due to the non- .

본 발명은 상기한 문제점을 해결하기 위해 안출된 것으로서, 영상의 불균일 정도가 임계치 이상인 영상에 대해 다중센서를 사용하는 영상보정방법을 제안함을 목적으로 한다.SUMMARY OF THE INVENTION It is an object of the present invention to provide an image correction method using multiple sensors for an image having a degree of unevenness of the image equal to or higher than a threshold value.

또한, 본 발명은 다중센서 기반으로 영상 정합을 수행하므로 정합 정밀도를 높일 수 있는 영상보정방법을 제안함을 목적으로 한다.It is another object of the present invention to provide an image correction method capable of improving registration accuracy by performing image registration based on multiple sensors.

아울러, 본 발명은 다중센서를 이용함으로써, 정합 정밀도를 높이고 정합 장면기반 불균일 보정 실행의 속도를 최적화하는 것이 가능한 영상보정 방법을 제안함을 목적으로 한다.It is another object of the present invention to provide an image correction method capable of enhancing the matching precision and optimizing the speed of execution of the matching-based nonuniformity correction by using multiple sensors.

그러나 본 발명의 목적은 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the objects of the present invention are not limited to those mentioned above, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

본 발명은 상기한 목적을 달성하기 위해 안출된 것으로서, 영상의 현재 프레임과 이전 프레임에 대해 보정 테이블을 기준으로 불균일 보정을 수행하는 단계와, 다중 센서를 이용하여 상기 이전 프레임 대비 현재 프레임의 영상 이동 및 배율 변화량을 추정하는 단계와, 상기 추정된 영상 이동 및 배율 변화량을 기준으로 상기 이전 프레임을 보정하는 단계와, 상기 보정된 이전 프레임을 현재 프레임 영상을 기준으로 영상 변환하여 상기 현재 프레임과 정합하는 단계 및 상기 정합 후 상기 이전 프레임과 현재 프레임의 영상 차이값에 의한 신호 차이 에러를 이용하여 상기 보정 테이블을 업데이트하는 단계를 포함하는 다중센서 기반의 영상보정방법을 제안한다.According to an aspect of the present invention, there is provided a method of compensating for non-uniformity of a current frame and a previous frame of a current frame, And correcting the previous frame based on the estimated image movement and magnification change amount; and a step of performing image conversion on the corrected previous frame with reference to a current frame image and matching the current frame with the current frame image And a step of updating the correction table using a signal difference error based on an image difference value between the previous frame and the current frame after the matching.

본 발명의 실시 예에 따른 다중센서 기반의 영상보정방법은 영상의 불균일 정도를 영상의 거칠기 값으로 환산하고, 거칠기 값이 임계치 이상인 경우 기존의 영상처리기반 영상정합이 불가능하기 때문에 선택적으로 다중 센서를 사용하여 영상보정을 실행함으로써, 정합이 불가능했던 경우에도 줌 센서와 자이로 센서 정보를 바탕으로 정합 장면기반 불균일 보정 수행이 가능하다. The multi-sensor-based image correction method according to the embodiment of the present invention converts the degree of unevenness of the image into the roughness value of the image, and if the roughness value is equal to or more than the threshold value, , It is possible to perform the matching-based non-uniformity correction based on the zoom sensor and the gyro sensor information even when the matching is impossible.

또한, 본 발명은 다중센서 기반으로 영상 정합을 수행하므로 정합 정밀도를 높일 수 있으며, 정합 장면기반 불균일 보정 실행의 속도를 최적화할 수 있다.In addition, since the present invention performs image matching based on multiple sensors, it is possible to improve the matching precision and optimize the speed of execution of the matching-based non-uniformity correction.

도 1은 본 발명의 일실시 예에 따른 다중센서를 선택적으로 이용하는 영상보정 시스템의 개략적인 구성을 도시하는 블록도이다.
도 2는 본 발명의 일실시 예에 따른 다중센서를 선택적으로 이용하는 영상보정장치의 개략적인 구성을 도시하는 블록도이다.
도 3은 본 발명의 일실시 예에 따른 영상 프로세서의 상세한 구성을 도시하는 블록도이다.
도 4는 본 발명의 실시 예에 따른 다중센서 기반 보정 테이블 업데이트부의 개략적인 구성을 도시하는 블록도이다.
도 5는 본 발명의 일실시 예에 따라 영상의 불균일 정도를 판단하는데 이용되는 수평 차이 필터 및 수직 차이 필터를 도시한다.
도 6은 영상 거칠기를 설명하기 위한 사진 자료이다.
도 7은 본 발명의 실시 예에 따른 정합 장면기반 불균일 보정 방법을 설명하기 위한 알고리즘을 나타내는 도면이다.
도 8은 본 발명의 실시 예에 따른 다중센서를 이용한 정합장면 기반 불균일 보정 광학 시스템의 신호 흐름도를 도시한다.
도 9는 본 발명의 실시 예에 따른 자이로 센서를 이용한 프레임 이동량 추정 방법을 설명하기 위한 순서도이다.
도 10은 본 발명의 실시 예에 따라 자이로 센서를 사용하여 프레임의 이동 방향 및 이동량을 추정하여 신호 차이 에러를 생성하는 일 예를 도시하는 도면이다.
도 11은 본 발명의 실시 예에 따른 줌센서를 이용하여 프레임의 확대 축소량 즉 배율 변화량을 추정하는 방법을 설명하기 위한 흐름도이다.
도 12는 본 발명의 실시 예에 따른 줌센서를 이용하여 프레임의 배율 변화량을 추정하여 신호 차이 에러를 생성하는 방법을 설명하기 위한 예시도이다.
도 13은 본 발명의 실시 예에 따른 다중센서 기반의 영상보정 방법을 설명하기 위한 개략적인 순서도이다.
도 14는 본 발명의 다른 실시 예에 따른 영상 불균일의 정도에 따라 다중센서를 선택적으로 이용하여 영상을 보정하는 방법을 설명하기 위한 개략적인 순서도이다.
1 is a block diagram showing a schematic configuration of an image correction system that selectively uses multiple sensors according to an embodiment of the present invention.
2 is a block diagram showing a schematic configuration of an image correction apparatus that selectively uses multiple sensors according to an embodiment of the present invention.
3 is a block diagram showing a detailed configuration of a video processor according to an embodiment of the present invention.
4 is a block diagram showing a schematic configuration of a multi-sensor-based correction table update unit according to an embodiment of the present invention.
FIG. 5 illustrates a horizontal difference filter and a vertical difference filter used for determining a degree of unevenness of an image according to an embodiment of the present invention.
6 is photograph data for explaining the image roughness.
7 is a diagram illustrating an algorithm for explaining a matching scene-based non-uniformity correction method according to an embodiment of the present invention.
FIG. 8 shows a signal flow diagram of a matching scene-based non-uniformity correction optical system using multiple sensors according to an embodiment of the present invention.
9 is a flowchart illustrating a frame movement amount estimation method using a gyro sensor according to an embodiment of the present invention.
10 is a diagram illustrating an example of generating a signal difference error by estimating a movement direction and a movement amount of a frame using a gyro sensor according to an embodiment of the present invention.
11 is a flowchart for explaining a method of estimating the amount of enlargement / reduction of a frame, that is, magnification variation using a zoom sensor according to an embodiment of the present invention.
12 is an exemplary diagram for explaining a method of generating a signal difference error by estimating a magnification change amount of a frame using a zoom sensor according to an embodiment of the present invention.
13 is a schematic flowchart for explaining an image correction method based on multiple sensors according to an embodiment of the present invention.
14 is a schematic flowchart for explaining a method of selectively correcting an image using multiple sensors according to the degree of image unevenness according to another embodiment of the present invention.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to designate the same or similar components throughout the drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, the preferred embodiments of the present invention will be described below, but it is needless to say that the technical idea of the present invention is not limited thereto and can be variously modified by those skilled in the art.

도 1은 본 발명의 일실시 예에 따른 다중센서를 선택적으로 이용하는 영상보정 시스템의 개략적인 구성을 도시하는 블록도이고, 도 2는 본 발명의 일실시 예에 따른 다중센서를 선택적으로 이용하는 영상보정장치의 개략적인 구성을 도시하는 블록도이며, 도 3은 본 발명의 일실시 예에 따른 영상 프로세서의 상세한 구성을 도시하는 블록도이다. FIG. 1 is a block diagram illustrating a schematic configuration of an image correction system that selectively uses multiple sensors according to an exemplary embodiment of the present invention. FIG. 2 is a block diagram of an image correction system using selectively multiple sensors according to an exemplary embodiment of the present invention. 3 is a block diagram showing a detailed configuration of an image processor according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시 예에 따른 다중센서를 선택적으로 이용하는 영상보정 시스템(100)은 줌 광학계(120) 및 영상보정장치(110)를 포함하여 구성된다. 도 2를 참조하면, 영상보정장치(110)는 영상센서(130), 줌 센서(140), 자이로 센서(150) 및 영상 프로세서(170)를 포함하여 구성된다. Referring to FIG. 1, an image correction system 100 that selectively uses multiple sensors according to an exemplary embodiment of the present invention includes a zoom optical system 120 and an image correction device 110. 2, the image correction apparatus 110 includes an image sensor 130, a zoom sensor 140, a gyro sensor 150, and an image processor 170. [

영상보정 시스템(100)은 줌 광학계(120)를 통해 외부에서 광에너지를 영상센서(130)로 집광하여 영상을 전기신호로 변환 후 영상 프로세서(170)로 전달한다. 영상 프로세서(170)는 영상 신호를 처리한 후 영상보정 시스템(100) 외부로 보정된 영상을 출력한다.The image correction system 100 condenses the light energy from the outside to the image sensor 130 through the zoom optical system 120, converts the image into an electric signal, and transmits the electric signal to the image processor 170. The image processor 170 processes the image signal and outputs the corrected image to the outside of the image correction system 100.

영상센서(130)에서 출력된 영상 신호를 그대로 외부로 출력할 경우, 영상 센서 제조 과정에서 발생되는 불균일한 고정 패턴 노이즈가 그대로 실려 외부로 출력되게 된다. 이러한 경우 영상 화질이 떨어지며 피사체를 제대로 구분하기 힘들다. 이를 해결하고자 영상센서(130)의 불균일성을 보정하기 위해 영상 프로세서(170)는 불균일 보정 과정을 실행한다. When the image signal output from the image sensor 130 is directly output to the outside, the non-uniform fixed pattern noise generated in the process of manufacturing the image sensor is directly output to the outside. In this case, the image quality is poor and it is difficult to distinguish the subject properly. In order to solve this problem, in order to correct the non-uniformity of the image sensor 130, the image processor 170 performs a non-uniformity correction process.

영상센서(130)에 대한 불균일 보정 방법에는 크게 캘리브레이션 기반 불균일 보정과 장면기반 불균일 보정으로 두 가지가 있다. 캘리브레이션 기반 불균일 보정은 흑체나 적분구와 같은 레퍼런스 입력을 이용하여 영상을 보정하는 방법이고, 장면기반 불균일 보정은 영상보정 시스템(100)에 입력되는 보정되지 않은 영상을 영상처리과정을 이용하여 보정하는 방법이다.The non-uniformity correction method for the image sensor 130 is roughly classified into calibration-based nonuniformity correction and scene-based nonuniformity correction. The calibration-based nonuniformity correction is a method of correcting an image using a reference input such as a black body or an integral sphere, and the scene-based nonuniformity correction is a method of correcting an uncorrected image input to the image correction system 100 using an image processing process to be.

장면기반 불균일 보정 방법에는 다시 통계적 방법과 정합을 이용하는 방법이 있다. 본 발명에서는 정합을 이용한 장면 기반 불균일 보정법을 이용한 광학 시스템의 개선 방안을 개시한다.The scene-based non-uniformity correction method is again a statistical method and a matching method. The present invention discloses an improvement of an optical system using scene-based non-uniformity correction using registration.

특히, 본 발명에서는 영상의 불균일 정도를 영상의 거칠기 값으로 환산하고, 거칠기 값이 임계치 이상인 경우 기존의 영상처리기반 영상정합이 불가능하기 때문에 선택적으로 다중 센서를 사용하여 영상보정을 실행함으로써, 정합이 불가능했던 경우에도 줌 센서와 자이로 센서 정보를 바탕으로 정합 장면기반 불균일 보정 수행이 가능한 것을 특징으로 한다.In particular, in the present invention, if the degree of unevenness of the image is converted into the roughness value of the image, and if the roughness value is equal to or higher than the threshold value, the conventional image processing based image matching is impossible. Therefore, Based non-uniformity correction can be performed based on the zoom sensor and the gyro sensor information.

영상 프로세서(170)는 영상 획득부(171), 영상 보정부(172), 보정영상 출력부(173), 영상 불균일 판단부(174) 및 선택적 보정 테이블 업데이트부(175)를 포함하여 구성된다.The image processor 170 includes an image acquisition unit 171, an image correction unit 172, a corrected image output unit 173, an image unevenness determination unit 174, and a selective correction table update unit 175.

영상 획득부(171)에서 영상을 획득하여 현재 프레임과 이전 프레임으로 구분한다. 영상 보정부(172)는 현재 프레임과 이전 프레임에 대해 현재 보정 테이블을 기준으로 보정을 수행한다. 보정 테이블은 매번 입력되는 영상의 프레임에 대하여 업데이트되는데, 이러한 보정 테이블의 업데이트 방법에 대해서는 하기의 서술을 참고하기로 한다.The image acquiring unit 171 acquires an image and divides it into a current frame and a previous frame. The image correction unit 172 performs correction based on the current correction table for the current frame and the previous frame. The correction table is updated with respect to the frame of the input image every time. The method of updating the correction table will be described later.

영상 불균일 판단부(174)는 영상을 보정하기 위한 과정에서 다중센서를 선택적으로 사용하기 위해 영상의 불균일 정도를 임계치를 기준으로 판단한다. The image non-uniformity determination unit 174 determines the degree of non-uniformity of the image based on the threshold value to selectively use multiple sensors in the process of correcting the image.

이는 영상센서(130)의 불균일이 심한 경우 영상정보를 이용한 프레임 모션 추정이 거의 불가능하게 되기 때문이다. 이러한 이유로 영상 불균일 판단부(174)는 영상의 거칠기 정도를 판단하여 영상처리기반으로 영상보정을 실행할지 다중센서 기반으로 영상보정을 실행할지 결정한다. 영상센서(130)의 불균일이 클 경우 영상 거칠기 값도 비례하여 큰 값을 나타낸다.  This is because frame motion estimation using image information is almost impossible when the image sensor 130 is unevenly distributed. For this reason, the image non-uniformity determination unit 174 determines the degree of roughness of the image and determines whether to perform image correction based on image processing or image correction based on multiple sensors. When the image sensor 130 has a large unevenness, the image roughness value is proportionally large.

도 5는 본 발명의 일실시 예에 따라 영상의 불균일 정도를 판단하는데 이용되는 수평 차이 필터 및 수직 차이 필터를 도시하고, 도 6은 영상 거칠기를 설명하기 위한 사진 자료이다.FIG. 5 illustrates a horizontal difference filter and a vertical difference filter used to determine a degree of image unevenness according to an exemplary embodiment of the present invention, and FIG. 6 illustrates photographs illustrating image roughness.

구체적으로, 영상 불균일 판단부(174)는 한 영상에 대해 도 5에 도시된 바와 같이 수평 차이 필터 및 수직 차이 필터를 적용한 결과의 합과 원영상과의 비율을 이용하여 영상의 거칠기를 산출한다. 상기 영상의 거칠기는 수학식 1과 같이 산출할 수 있다.Specifically, the image unevenness determiner 174 calculates the roughness of the image using the ratio of the sum of the result of applying the horizontal difference filter and the vertical difference filter to the original image as shown in FIG. 5 for one image. The roughness of the image can be calculated as shown in Equation (1).

[수학식 1][Equation 1]

Figure 112017099766537-pat00001
Figure 112017099766537-pat00001

여기서,

Figure 112017099766537-pat00002
는 영상 거칠기, h1는 수평차이필터, h2는 수직차이필터, I는 영상, *는 discrete convolution을 나타낸다.here,
Figure 112017099766537-pat00002
H 1 is the horizontal difference filter, h 2 is the vertical difference filter, I is the image, and * denotes the discrete convolution.

도 6에 도시된 사진과 같이 영상 거칠기 값이 임계치보다 높을수록 인접 픽셀 간 밝기 변화가 크기 때문에 거친 영상을 나타내며, 영상 거칠기 값이 임계치보다 낮은 경우 인접 픽셀 간 밝기 변화가 적기 때문에 부드러운 영상을 나타낸다.As shown in the photograph of FIG. 6, since the image roughness value is higher than the threshold value, a coarse image is displayed because of a large change in brightness between adjacent pixels. When the image roughness value is lower than the threshold value,

영상 불균일 판단부(174)는 이렇게 산출된 영상의 거칠기 값을 임계치를 기준으로 비교하여, 상기 거칠기 값이 임계치 미만인 경우 제1 영상으로 분류하고, 상기 거칠기 값이 임계치 이상인 경우 제2 영상으로 분류한다. The image unevenness determiner 174 compares the roughness values of the image thus calculated on the basis of the threshold values, classifies the roughness values into a first image when the roughness value is less than the threshold value, and classifies the second image if the roughness value is greater than the threshold value .

영상센서(130)의 불균일이 심할 경우 기존의 영상처리기반의 영상보정방법으로는 정합이 불가능하므로, 본 발명에서는 영상센서(130)의 불균일이 임계치 이상일 경우 다중 센서 기반의 영상보정방법을 실행하도록 한다. In the present invention, if the unevenness of the image sensor 130 is excessive, the image correction method based on the multi-sensor can be executed. do.

반면, 영상센서로 인한 영상의 불균일이 임계치 미만일 경우에는 일반적인 기술의 영상처리기반 영상 보정 기법을 이용하거나, 사용자의 선택 또는 설계자의 설정에 따라 다중센서 기반의 영상 보정방법을 이용할 수 있다.On the other hand, when the image unevenness due to the image sensor is less than the threshold value, a multi-sensor based image correction method can be used according to the user's selection or designer's setting by using the image processing based image correction technique of the general technology.

선택적 보정 테이블 업데이트부(175)는 상술한 영상 불균일 판단부(174)에서 판단된 영상의 불균일 정도에 따라 영상처리기반 또는 다중센서 기반으로 영상 변화량 추정을 실행하고, 상기 추정된 영상 변화량에 기초하여 보정 테이블을 업데이트한다.The selective correction table update unit 175 performs image change amount estimation based on image processing based or multi-sensor based on the degree of unevenness of the image determined by the image unevenness determination unit 174 described above, and based on the estimated image change amount Update the calibration table.

구체적으로, 도 3에 도시된 바와 같이, 선택적 보정 테이블 업데이트부(175)는 상기 제1 영상에 대해서 이전 프레임과 현재 프레임을 비교하는 연산을 이용하는 영상처리기반으로 영상 변화량을 추정하고 이에 기초하여 상기 보정 테이블을 업데이트하는 영상처리기반 보정 테이블 업데이트부(180)를 포함한다. 여기서, 영상처리기반 보정 테이블 업데이트부(180)는 기존의 영상처리기술과 동일한 기술이므로 상세한 설명은 생략하기로 한다.3, the selective correction table update unit 175 estimates an image change amount based on an image processing based on an operation of comparing a previous frame and a current frame with respect to the first image, Based correction table update unit 180 that updates the correction table. Here, since the image processing-based correction table update unit 180 is the same technology as the conventional image processing technology, a detailed description will be omitted.

그리고, 선택적 보정 테이블 업데이트부(175)는 상기 제2 영상 즉, 영상센서로 인한 영상의 불균일이 임계치 이상인 영상에 대해서 다중센서 기반으로 영상 변화량을 추정하고, 추정된 영상 변화량에 기초하여 보정 테이블을 업데이트하는 다중센서 기반 보정 테이블 업데이트부(190)를 포함한다. The selective correction table update unit 175 estimates the amount of image change based on the multiple sensor based on the second image, that is, the image having the image unevenness due to the image sensor being equal to or more than the threshold value, Sensor-based correction table update unit 190 that updates the multi-sensor-based correction table.

구체적으로, 다중센서 기반 보정 테이블 업데이트부(190)는 도 4에 도시된 바와 같이 영상 변화량 추정부(191), 이전 프레임 보정부(192), 정합부(193), 신호차이 에러 생성부(194) 및 보정 테이블 업데이트부(195)를 포함하여 구성된다.4, the multi-sensor-based correction table update unit 190 includes an image change amount estimation unit 191, a previous frame correction unit 192, a matching unit 193, a signal difference error generation unit 194 And a correction table updating unit 195. The correction table updating unit 195 may be configured to update the correction table.

영상 변화량 추정부(191)는 다중센서를 기반으로 프레임의 이동량과 배율 변화량을 추정하고자, 이를 위해 이전 프레임 대비 현재 프레임의 이동 변화량을 추정하기 위해 자이로 센서(A)를 이용하고, 이전 프레임 대비 현재 프레임의 배율 변화량을 추정하기 위해 줌 센서(B)를 이용한다.The image change amount estimating unit 191 uses the gyro sensor A to estimate the movement amount and magnification change amount of the frame based on the multiple sensors and uses the gyro sensor A to estimate the movement change amount of the current frame with respect to the previous frame, The zoom sensor B is used to estimate the magnification variation of the frame.

구체적으로, 영상 변화량 추정부(191)는 자이로 센서를 이용하여 yaw축 각속도 출력과 pitch축 각속도 출력을 영상센서 프레임 레이트를 기준으로 누적하여 yaw축 각이동량 및 pitch축 각이동량을 구한다.Specifically, the image change amount estimating unit 191 accumulates the yaw axis angular velocity output and the pitch axis angular velocity output based on the image sensor frame rate using a gyro sensor to obtain the yaw axis angular movement amount and the pitch axis angular movement amount.

그리고, 영상 변화량 추정부(191)는 yaw축 각이동량 및 pitch축 각이동량을 줌광학계 정보와 영상센서 정보를 기반으로 가로축 영상 이동량과 세로축 영상 이동량으로 변환한다.The image change amount estimating unit 191 converts the yaw axis angular movement amount and the pitch axis angular movement amount into the horizontal axis image movement amount and the vertical axis image movement amount based on the zoom optical system information and the image sensor information.

연이어, 영상 변화량 추정부(191)는 추정된 가로축 영상 이동량 및 세로축 영상 이동량을 이용하여 상기 이전 프레임의 이동량 변환을 수행함으로써, 상기 이전 프레임 대비 현재 프레임의 영상 이동 변화량을 추정한다.Subsequently, the image change amount estimation unit 191 estimates the image shift amount of the current frame with respect to the previous frame by performing the movement amount conversion of the previous frame using the estimated horizontal axis image movement amount and the vertical axis image movement amount.

그러면, 신호 차이 에러 생성부(194)는 상기 자이로 센서로부터 얻은 각속도 정보와 상기 영상 센서의 프레임 레이트, 영상 센서 정보 및 줌광학계 정보를 조합하여 영상 이동량을 추정한다. 그런 다음, 상기 추정된 영상 이동량을 이전 프레임에 적용하여 영상 이동량이 보정된 이전 프레임을 생성하고, 상기 영상 이동량이 보정된 이전 프레임과 현재 프레임과 차이를 구하여 상기 신호 차이 에러를 생성한다.Then, the signal difference error generator 194 estimates the image movement amount by combining the angular velocity information obtained from the gyro sensor, the frame rate of the image sensor, the image sensor information, and the zoom optical system information. Then, the estimated moving image amount is applied to the previous frame to generate a previous frame in which the image movement amount is corrected, and the difference between the previous frame and the current frame in which the image movement amount is corrected is calculated to generate the signal difference error.

한편, 영상 변화량 추정부(191)는 상기 줌 센서의 인코더 정보를 통해 현재 줌광학계의 줌 상태를 파악하고, 상기 줌광학계의 배율 정보와 상기 줌광학계의 초점거리 정보를 이용하여 상기 영상 센서의 FPA(Focal plane array)면에 맺어지는 영상배율을 실시간 추정한다. 그런 다음, 영상 변화량 추정부(191)는 상기 영상센서 픽셀피치와 상기 영상센서의 가로 및 세로의 픽셀수를 이용하여 실제 프레임 영상 기준으로 상기 이전 프레임 대비 영상배율을 추정함으로써, 상기 이전 프레임 대비 현재 프레임의 배율 변화량을 추정한다.On the other hand, the image change amount estimating unit 191 grasps the zoom state of the current zooming optical system through the encoder information of the zooming sensor, and uses the magnification information of the zooming optical system and the focal length information of the zooming optical system, (Focal plane array) plane of the image. Then, the image change amount estimating unit 191 estimates the image magnification of the previous frame based on the actual frame image using the pixel pitch of the image sensor and the number of pixels of the image sensor in the horizontal and vertical directions, And estimates the magnification variation of the frame.

그러면, 신호 차이 에러 생성부(194)는 영상 센서로부터 줌 확대된 이전 프레임과 줌 축소된 현재 프레임을 획득하고, 상기 줌센서와 줌 광학계의 배율과 초점거리 정보로 상기 이전 프레임 대비 상기 현재 프레임의 줌 배율을 획득한다. Then, the signal difference error generating unit 194 obtains the previous frame zoomed in and the current frame reduced in zoom from the image sensor, and obtains the magnification and focal length information of the zoom sensor and the zoom optical system, Obtain the zoom magnification.

그런 다음, 신호 차이 에러 생성부(194)는 상기 획득된 줌 배율을 영상 센서의 픽셀 피치와 가로 및 세로 픽셀 수 정보와 조합하여 현재 프레임 대비 이전 프레임의 영상배율을 추정한다. Then, the signal difference error generating unit 194 estimates the image magnification of the previous frame with respect to the current frame by combining the obtained zoom magnification with the pixel pitch of the image sensor and the information of the horizontal and vertical pixels.

그러면, 신호 차이 에러 생성부(194)는 추정된 영상 확대 축소량에 기반하여 이전 프레임을 변형해서 영상배율이 보정된 이전 프레임을 획득하고, 상기 영상배율이 보정된 이전 프레임과 상기 현재 프레임과의 차이를 구함으로써 신호 차이 에러를 생성한다.Then, the signal difference error generating unit 194 obtains a previous frame in which the image magnification is corrected by modifying the previous frame based on the estimated image enlargement / reduction amount, and outputs the difference between the previous frame and the current frame, The difference is then sought to produce a signal difference error.

보정 테이블 업데이트부(195)는 상기 신호 차이 에러를 이용하여 보정 테이블의 오프셋과 이득을 업데이트하여 영상 보정부(172)로 전달한다.The correction table update unit 195 updates the offset and gain of the correction table using the signal difference error and transmits the updated offset and gain to the image correction unit 172.

그리고, 보정 테이블 업데이트부(195)는 매번 입력되는 영상의 프레임에 대하여 상기 보정 테이블에 대한 업데이트 실행을 반복한다. 이와 같은 과정이 반복을 거치며 보정 테이블을 점차 업데이트함으로써 최종적으로 높은 품질의 불균일 보정 수행을 가능하게 하는 보정 테이블을 얻을 수 있다.Then, the correction table update unit 195 repeats the update of the correction table for the frame of the input image every time. Such a process is repeated to gradually update the correction table, thereby obtaining a correction table that enables the final high-quality nonuniform correction to be performed.

보정 영상 출력부(173)는 영상 보정부에 의해 보정된 현재 프레임을 보정영상으로서 외부로 출력한다.The corrected video output unit 173 externally outputs the current frame corrected by the video correction unit as a corrected video.

도 7은 본 발명의 실시 예에 따른 정합 장면기반 불균일 보정 방법을 설명하기 위한 알고리즘을 나타내는 도면이다. 7 is a diagram illustrating an algorithm for explaining a matching scene-based non-uniformity correction method according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 실시 예에 따른 정합 장면기반 불균일 보정 방법은 영상센서(130)에서 출력된 원영상(S201)을 버퍼에 저장하여(S202) 현재 프레임과 이전 프레임을 각각 현재 업데이트된 보정 테이블 정보를 기준으로 이득과 오프셋을 보정하는 불균일 보정을 수행한다(S203). Referring to FIG. 7, a matching scene-based non-uniformity correction method according to an embodiment of the present invention stores an original image S201 output from an image sensor 130 in a buffer (S202) And performs non-uniformity correction for correcting the gain and the offset based on the correction table information (S203).

보정된 현재 프레임은 보정영상으로서 외부로 출력된다(S207). The corrected current frame is outputted to the outside as a corrected image (S207).

보정된 이전 프레임과 현재 프레임은 정합을 위해 이전 프레임을 현재 프레임 영상을 기준으로 프레임 이동량과 확대 축소량(배율의 변화량)을 추정 후, 추정된 프레임 이동량과 배율 변화량을 이전 프레임에 적용하여 이전 프레임 영상을 현재 프레임 기준으로 영상을 변환하여, 현재 프레임과 정합한다(S204).The previous frame and the current frame, which have been calibrated, are estimated based on the frame movement amount and the amount of expansion / reduction (magnification variation) based on the current frame image, and then the estimated frame movement amount and magnification variation amount are applied to the previous frame, The image is converted based on the current frame, and is matched with the current frame (S204).

정합을 실행한 후 보정된 현재 프레임과 이전 프레임의 차를 구해서(S205) 신호 차이 에러로 이용한다. 이 신호 차이 에러를 기반으로 변수 업데이트를 실행하는데(S206), 이때 불균일 보정시 사용되는 보정 테이블의 이득과 오프셋을 업데이트한다. After performing the matching, the difference between the corrected current frame and the previous frame is obtained (S205) and used as a signal difference error. The variable update is executed based on this signal difference error (S206). At this time, the gain and the offset of the correction table used in the nonuniform correction are updated.

이러한 과정을 매번 입력되는 프레임에 대응하여 보정 테이블에 대한 업데이트를 반복하여 최종적으로 안정적인 보정 테이블을 획득하게 된다.The updating of the correction table is repeated in correspondence with the frame input every time this process is performed to finally obtain a stable correction table.

도 8은 본 발명의 실시 예에 따른 다중센서를 이용한 정합장면 기반 불균일 보정 광학 시스템의 신호 흐름도를 도시한다.FIG. 8 shows a signal flow diagram of a matching scene-based non-uniformity correction optical system using multiple sensors according to an embodiment of the present invention.

도 8을 참조하면, 다중센서를 이용한 정합장면기반 불균일 보정 광학 시스템의 신호 흐름은 다음과 같다. 영상센서에서 획득한 영상 신호(S301)를 영상 프로세서(170)에서 영상 신호 수신(S302)후 버퍼에 저장하고(S303), 버퍼에서 현재 프레임과 이전 프레임으로 구분되면(S304, S305), 이 두 개의 프레임에 대해 동일한 현재 보정 테이블을 기준으로 불균일 보정을 수행하게 된다(S306).Referring to FIG. 8, a signal flow of a matching scene-based non-uniformity correction optical system using multiple sensors is as follows. The image signal S301 obtained by the image sensor is stored in the buffer after receiving the image signal S302 in the image processor 170 in step S303 and if the buffer is divided into the current frame and the previous frame in steps S304 and S305, Non-uniformity correction is performed on the basis of the same current correction table for each frame (S306).

보정된 현재 프레임은 보정영상으로서 외부로 출력된다(S311). The corrected current frame is output to the outside as a corrected image (S311).

이후, 보정된 이전 프레임은 이전 프레임의 이동량 및 배율 변화량에 대해 보정을 수행하게 된다(S307). 이때, 기존에는 영상처리기반으로 프레임 이동량과 배율 변화량을 추정하였으나, 본 발명에서는 줌광학계(S312)의 줌센서 정보를 처리하여(S313) 줌량 추정을 수행하고(S314), 자이로 센서 정보를 처리하여(S315) 광학 시스템의 회전 속도 및 회전방향에 대해 추정을 수행하여(S316) 얻은 정보를 영상센서 사양(S317)과 줌광학계 사양(S318) 정보를 바탕으로 이전 프레임 대비 현재 프레임의 프레임 이동량과 배율 변화량을 추정한다(S319).Thereafter, the corrected previous frame is corrected for the movement amount and magnification change amount of the previous frame (S307). However, in the present invention, the zoom sensor information of the zoom optical system (S312) is processed (S313), the zoom amount is estimated (S314), and the gyro sensor information is processed (S315), the rotation speed and the rotation direction of the optical system are estimated (S316). Based on the information of the image sensor specification (S317) and the zoom optical system specification (S318) The variation is estimated (S319).

영상 변화량 추정정보를 기준으로 보정된 이전 프레임을 현재 프레임영상을 기준으로 영상 변환하고, 이전 프레임과 현재 프레임을 정합한다(S308). 정합 후 이전 프레임과 현재 프레임의 영상 차이 값을 이용하여 신호 차이 에러를 생성한다(S309). 이 신호 차이 에러를 바탕으로 보정 테이블 업데이트를 수행한다(S310). 위의 과정을 반복하며 보정 테이블을 점차 업데이트하여, 최종적으로 높은 품질의 불균일 보정 수행이 가능한 보정 테이블을 획득할 수 있다.The previous frame corrected based on the image change amount estimation information is converted into an image based on the current frame image, and the previous frame and the current frame are matched (S308). After the matching, a signal difference error is generated using the image difference value between the previous frame and the current frame (S309). The correction table update is performed based on the signal difference error (S310). By repeating the above process and gradually updating the correction table, it is possible to obtain a correction table capable of finally performing high quality nonuniform correction.

도 9는 본 발명의 실시 예에 따른 자이로 센서를 이용한 프레임 이동량 추정 방법을 설명하기 위한 순서도이고, 도 10은 본 발명의 실시 예에 따라 자이로 센서를 사용하여 프레임의 이동 방향 및 이동량을 추정하여 신호 차이 에러를 생성하는 일 예를 도시하는 도면이다.FIG. 9 is a flowchart illustrating a frame movement amount estimation method using a gyro sensor according to an embodiment of the present invention. FIG. 10 is a flowchart illustrating a method of estimating a frame movement amount using a gyro sensor according to an embodiment of the present invention. And generates a difference error.

도 9 및 도 10을 참조하면, 자이로 센서를 이용한 프레임 이동량 추정 방법은 먼저, 자이로 yaw축 각속도 출력(S401)과 자이로 pitch축 각속도 출력(S402)을 영상센서(130)의 프레임레이트를 기준으로 누적하여(S405) 자이로 yaw축 각이동량을 구하고(S403) 자이로 pitch축 각이동량을 구한다(S404). 구해진 각이동량을 줌광학계 정보(S408)와 영상센서 정보(S409)를 기반으로 영상 가로축 이동량으로 변환하고(S406), 영상 세로축 이동량으로 변환한다(S407). 그리고, 상기 추정된 가로축 및 세로축 프레임 이동량을 이용하여 이전 프레임의 이동량 변환을 수행한다.Referring to FIGS. 9 and 10, a method of estimating a frame movement amount using a gyro sensor includes the steps of: outputting a gyro yaw axis angular velocity output S401 and a gyro pitch axis angular velocity output S402 based on a frame rate of the image sensor 130; (Step S405), the gyro yaw axis angular movement amount is obtained (S403), and the gyro pitch angular movement amount is obtained (S404). The obtained angular displacement is converted into an image horizontal axis movement amount based on the zoom optical system information S408 and the image sensor information S409 (S406), and converted into the image vertical axis movement amount (S407). Then, the movement amount conversion of the previous frame is performed using the estimated horizontal axis and vertical axis frame movement amounts.

자이로 센서를 이용한 프레임 이동량을 추정하여 신호 차이 에러를 생성하는 방법은 다음과 같다. 영상센서(130)로부터 이전 프레임과 현재 프레임를 획득한다(S501, S502). 자이로 센서로부터 얻은 각속도 정보와 영상센서(130)의 프레임 레이트, 영상센서의 사양정보, 줌광학계의 사양정보를 조합하여 프레임 이동량을 추정한 후 이를 이전 프레임에 적용하여 프레임 이동량 보정된 이전 프레임을 생성한다(S503). 그리고, 프레임 이동량 보정된 이전 프레임과 현재 프레임과의 차이를 구하여(S504), 신호 차이 에러를 획득한다(S505).A method of generating a signal difference error by estimating a frame movement amount using a gyro sensor is as follows. The previous frame and the current frame are acquired from the image sensor 130 (S501, S502). The frame movement amount is estimated by combining the angular velocity information obtained from the gyro sensor, the frame rate of the image sensor 130, the specification information of the image sensor, and the specification information of the zoom optical system, and then applied to the previous frame to generate a previous frame (S503). The difference between the previous frame and the current frame is corrected (S504), and a signal difference error is obtained (S505).

도 11은 본 발명의 실시 예에 따른 줌센서를 이용하여 프레임의 확대 축소량 즉 배율 변화량을 추정하는 방법을 설명하기 위한 흐름도이고, 도 12는 본 발명의 실시 예에 따른 줌센서를 이용하여 프레임의 배율 변화량을 추정하여 신호 차이 에러를 생성하는 방법을 설명하기 위한 예시도이다.FIG. 11 is a flowchart for explaining a method of estimating an amount of enlargement / reduction of a frame, that is, a magnification variation using a zoom sensor according to an embodiment of the present invention. FIG. And a signal difference error is generated.

도 11 및 도 12를 참조하면, 줌센서를 이용한 프레임 확대 축소량 추정 방법은 다음과 같다. 줌광학계의 줌 센서에 대한 인코더 정보를 이용하여(S601) 현재 줌광학계의 줌 상태를 파악한다. 줌 상태를 파악한 후 줌광학계 배율 정보와 줌광학계 초점거리 정보를 이용하여(S602, S603) 영상센서의 FPA면에 맺어지는 영상의 배율을 실시간 추정한다. 영상센서 픽셀피치와 영상센서의 가로 및 세로 픽셀수를 이용하여(S604, S605) 실제 프레임 영상을 기준으로 이전 프레임 대비 얼마나 영상이 확대 혹은 축소되었는지 영상 확대 축소량(배율) 추정을 수행한다(S606).Referring to FIGS. 11 and 12, a frame enlargement / reduction amount estimation method using a zoom sensor is as follows. The zoom state of the current zoom optical system is grasped by using the encoder information for the zoom sensor of the zoom optical system (S601). After the zoom state is grasped, the magnification of the image on the FPA plane of the image sensor is estimated in real time (S602, S603) using the zoom optical system magnification information and the zoom optical system focal length information. (S604 and S605) using the pixel pitch of the image sensor and the horizontal and vertical pixels of the image sensor to estimate how much the image is enlarged or reduced with respect to the previous frame based on the actual frame image (S606 ).

도 12를 참조하면, 줌센서를 사용하여 프레임의 확대 축소량에 대해 추정하여 신호 차이 에러를 생성하는 과정의 예시는 다음과 같다. 영상센서로부터 줌 확대된 이전 프레임과 줌 축소된 현재 프레임을 획득한다(S701, S702).12, an example of a process of generating a signal difference error by estimating an amount of enlargement / reduction of a frame using a zoom sensor is as follows. The previous frame zoomed in and the current frame zoomed in are obtained from the image sensor (S701, S702).

줌센서와 줌광학계 배율과 초점거리 정보로 이전 프레임 대비 현재 프레임의 줌 배율을 얻고 이를 영상센서의 픽셀피치와 가로 및 세로 픽셀 수 정보를 조합하여 현재 프레임 대비 이전 프레임의 영상 확대 축소량을 추정하여 이전 프레임을 변경해서 영상확대 축소량이 보정된 이전 프레임을 획득한다(S703). 이와 현재 프레임과의 차이를 구하여(S704), 신호 차이 에러를 획득한다(S705).The zoom magnification of the current frame with respect to the previous frame is obtained from the zoom sensor and the zoom optical system magnification and the focal length information, and the pixel pitch of the image sensor and the information of the number of pixels in the horizontal and vertical directions are combined to estimate the amount of enlargement / The previous frame in which the image enlargement / reduction amount is corrected is obtained by changing the previous frame (S703). A difference between the current frame and the current frame is obtained (S704), and a signal difference error is obtained (S705).

도 13은 본 발명의 실시 예에 따른 다중센서 기반의 영상보정 방법을 설명하기 위한 개략적인 순서도이다. 앞서 도 1 내지 도 12를 참조하여 개시한 동일한 구성 및 역할에 대한 상세한 설명은 중복되므로 생략하기로 한다. 13 is a schematic flowchart for explaining an image correction method based on multiple sensors according to an embodiment of the present invention. The detailed description of the same configurations and functions as those described above with reference to Figs. 1 to 12 will be omitted since they are duplicated.

도 13을 참조하면, 본 발명의 실시 예에 따른 다중센서 기반의 영상보정 방법은 먼저, 영상 획득부에서 영상을 획득하고(S110), 불균일 보정부에서 획득된 영상의 현재 프레임과 이전 프레임에 대해 보정 테이블을 기준으로 불균일 보정을 수행한다(S120).Referring to FIG. 13, in the multi-sensor based image correction method according to the embodiment of the present invention, an image is acquired in an image acquisition unit (S110), and a current frame and a previous frame Non-uniformity correction is performed based on the correction table (S120).

다음으로, 영상 변화량 추정부에서 다중 센서를 이용하여 상기 이전 프레임 대비 현재 프레임의 영상 이동 및 배율 변화량을 추정한다(S130).Next, the image change estimating unit estimates the image shift and magnification change amount of the current frame with respect to the previous frame using multiple sensors (S130).

다음으로, 이전 프레임 보정부에서 상기 추정된 영상 이동 및 배율 변화량을 기준으로 상기 이전 프레임을 보정한다(S140). Next, the previous frame correcting unit corrects the previous frame based on the estimated image shift and magnification change amount (S140).

다음으로, 영상 정합부에서 보정된 이전 프레임을 현재 프레임 영상을 기준으로 영상 변환하여 상기 현재 프레임과 정합한다(S150).Next, the previous frame corrected by the image matching unit is converted into an image based on the current frame image and matched with the current frame (S150).

다음으로, 보정 테이블 업데이트부에서 상기 정합 후 상기 이전 프레임과 현재 프레임의 영상 차이값에 의한 신호 차이 에러를 이용하여 상기 보정 테이블을 업데이트한다(S160). Next, the correction table updating unit updates the correction table using the signal difference error based on the image difference value between the previous frame and the current frame after the matching (S160).

도 14는 본 발명의 다른 실시 예에 따른 영상 불균일의 정도에 따라 다중센서를 선택적으로 이용하여 영상을 보정하는 방법을 설명하기 위한 개략적인 순서도이다. 14 is a schematic flowchart for explaining a method of selectively correcting an image using multiple sensors according to the degree of image unevenness according to another embodiment of the present invention.

도 14를 참조하면, 본 발명의 다른 실시 예에 따른 영상 불균일의 정도에 따라 다중센서를 선택적으로 이용하기 위해, 앞서 도 13의 S130 단계 이후, 영상 불균일 판단부에서 영상의 불균일 정도를 거칠기 값으로 산출한다(S210).Referring to FIG. 14, in order to selectively use multiple sensors according to the degree of image unevenness according to another embodiment of the present invention, after the step of S130 in FIG. 13, the image non- (S210).

산출된 거칠기 값을 임계치를 기준으로 비교하여(S220), 상기 거칠기 값이 임계치 미만인 경우 제1 영상으로 분류하고, 상기 거칠기 값이 임계치 이상인 경우 제2 영상으로 분류한다.  If the roughness value is less than the threshold value, the roughness value is classified as the first image. If the roughness value is greater than the threshold value, the roughness value is classified as the second image.

영상센서의 불균일이 심할 경우 기존의 영상처리기반의 영상보정방법으로는 정합이 불가능하므로, 본 발명에서는 영상센서의 불균일이 임계치 이상일 경우 다중 센서 기반의 영상보정방법을 실행하도록 한다. In the case of unevenness of the image sensor, it is impossible to match the image correction method based on the conventional image processing. Therefore, in the present invention, the image correction method based on the multi-sensor is executed when the unevenness of the image sensor is equal to or more than the threshold value.

반면, 영상센서로 인한 영상의 불균일이 임계치 미만일 경우에는 일반적인 기술의 영상처리기반 영상 보정 기법을 이용(S225)하거나, 사용자의 선택 또는 설계자의 설정에 따라 다중센서 기반의 영상 보정방법을 이용할 수 있다.On the other hand, when the unevenness of the image due to the image sensor is less than the threshold value, the image processing based image correction technique of the general technology (S225) may be used or a multi-sensor based image correction method may be used according to the user's selection or designer's setting .

상기 제2 영상에 대해서는 즉, 영상센서로 인한 영상의 불균일이 임계치 이상인 영상에 대해서 다중센서 기반으로 영상 변화량을 추정하고(S230), 추정된 영상 변화량에 기초하여 보정 테이블을 업데이트한다(S240).In step S240, the image variation is estimated based on the multi-sensor for the second image, that is, the image having the image unevenness due to the image sensor is equal to or more than the threshold value, and the correction table is updated based on the estimated image variation amount in step S240.

즉, 다중센서를 기반으로 프레임의 이동량과 배율 변화량을 추정하고자, 이를 위해 이전 프레임 대비 현재 프레임의 이동 변화량을 추정하기 위해 자이로 센서(A)를 이용하고, 이전 프레임 대비 현재 프레임의 배율 변화량을 추정하기 위해 줌 센서(B)를 이용한다.That is, in order to estimate the movement amount and magnification change amount of the frame based on the multiple sensors, the gyro sensor A is used to estimate the movement change amount of the current frame with respect to the previous frame, The zoom sensor B is used.

구체적으로, 자이로 센서를 이용하여 yaw축 각속도 출력과 pitch축 각속도 출력을 영상센서 프레임 레이트를 기준으로 누적하여 yaw축 각이동량 및 pitch축 각이동량을 구한다. 그리고, yaw축 각이동량 및 pitch축 각이동량을 줌광학계 정보와 영상센서 정보를 기반으로 가로축 영상 이동량과 세로축 영상 이동량으로 변환한다. 연이어, 추정된 가로축 영상 이동량 및 세로축 영상 이동량을 이용하여 상기 이전 프레임의 이동량 변환을 수행함으로써, 상기 이전 프레임 대비 현재 프레임의 영상 이동 변화량을 추정한다.Specifically, the yaw axis angular velocity and the pitch axis angular velocity are obtained by accumulating the yaw axis angular velocity output and the pitch axis angular velocity output based on the image sensor frame rate using a gyro sensor. Then, the yaw axis angular movement amount and the pitch axis angular movement amount are converted into the horizontal axis image movement amount and the vertical axis image movement amount based on the zoom optical system information and the image sensor information. Subsequently, the amount of image movement change of the current frame is estimated by performing the movement amount conversion of the previous frame using the estimated horizontal axis image movement amount and vertical axis image movement amount.

그러면, 상기 자이로 센서로부터 얻은 각속도 정보와 상기 영상 센서의 프레임 레이트, 영상 센서 정보 및 줌광학계 정보를 조합하여 영상 이동량을 추정한다. 그런 다음, 상기 추정된 영상 이동량을 이전 프레임에 적용하여 영상 이동량이 보정된 이전 프레임을 생성하고, 상기 영상 이동량이 보정된 이전 프레임과 현재 프레임과 차이를 구하여 상기 신호 차이 에러를 생성한다.Then, the image movement amount is estimated by combining the angular velocity information obtained from the gyro sensor, the frame rate of the image sensor, the image sensor information, and the zoom optical system information. Then, the estimated moving image amount is applied to the previous frame to generate a previous frame in which the image movement amount is corrected, and the difference between the previous frame and the current frame in which the image movement amount is corrected is calculated to generate the signal difference error.

또한, 상기 줌 센서의 인코더 정보를 통해 현재 줌광학계의 줌 상태를 파악하고, 상기 줌광학계의 배율 정보와 상기 줌광학계의 초점거리 정보를 이용하여 상기 영상 센서의 FPA(Focal plane array)면에 맺어지는 영상배율을 실시간 추정한다. 그런 다음, 상기 영상센서 픽셀피치와 상기 영상센서의 가로 및 세로의 픽셀수를 이용하여 실제 프레임 영상 기준으로 상기 이전 프레임 대비 영상배율을 추정함으로써, 상기 이전 프레임 대비 현재 프레임의 배율 변화량을 추정한다.In addition, it is possible to grasp the zoom state of the current zoom optical system through the encoder information of the zoom sensor, to register the focal plane array (FPA) of the image sensor using the magnification information of the zoom optical system and the focal length information of the zoom optical system The image magnification is estimated in real time. Then, the magnification variation of the current frame with respect to the previous frame is estimated by estimating the magnification of the previous frame with reference to the actual frame image using the pixel pitch of the image sensor and the number of pixels of the image sensor in the horizontal and vertical directions.

그러면, 영상 센서로부터 줌 확대된 이전 프레임과 줌 축소된 현재 프레임을 획득하고, 상기 줌센서와 줌 광학계의 배율과 초점거리 정보로 상기 이전 프레임 대비 상기 현재 프레임의 줌 배율을 획득한다. Then, a previous zoom magnified frame and a zoom reduced current frame are obtained from the image sensor, and the zoom magnification of the current frame is obtained from the magnification and focal length information of the zoom sensor and the zoom optical system with respect to the previous frame.

그런 다음, 상기 획득된 줌 배율을 영상 센서의 픽셀 피치와 가로 및 세로 픽셀 수 정보와 조합하여 현재 프레임 대비 이전 프레임의 영상배율을 추정한다. Then, the obtained zoom magnification is combined with the pixel pitch of the image sensor and the horizontal and vertical pixel count information to estimate the image magnification of the previous frame with respect to the current frame.

그러면, 추정된 영상 확대 축소량에 기반하여 이전 프레임을 변형해서 영상배율이 보정된 이전 프레임을 획득하고, 상기 영상배율이 보정된 이전 프레임과 상기 현재 프레임과의 차이를 구함으로써 신호 차이 에러를 생성한다.Then, based on the estimated image enlargement / reduction amount, a previous frame having the corrected image magnification is obtained by modifying the previous frame, and a signal difference error is generated by obtaining the difference between the previous frame and the current frame in which the image magnification is corrected do.

그 다음, 상기 신호 차이 에러를 이용하여 보정 테이블의 오프셋과 이득을 업데이트하여 영상 보정을 실행하는 단계(S130)로 회귀한다.Then, by using the signal difference error, the offset and gain of the correction table are updated and the image correction is executed (S130).

이때, 매번 입력되는 영상의 프레임에 대하여 상기 보정 테이블에 대한 업데이트 실행이 반복된다. 이와 같은 과정이 반복을 거치며 보정 테이블을 점차 업데이트함으로써 최종적으로 높은 품질의 불균일 보정 수행을 가능하게 하는 보정 테이블을 얻을 수 있다. 보정된 영상 프레임은 보정영상으로서 외부로 출력된다.At this time, the update execution of the correction table is repeated for the frame of the input image every time. Such a process is repeated to gradually update the correction table, thereby obtaining a correction table that enables the final high-quality nonuniform correction to be performed. The corrected image frame is output to the outside as a corrected image.

상술한 바와 같이, 본 발명의 실시 예에 따른 다중센서를 선택적으로 이용하는 영상보정 장치는 영상의 불균일 정도를 영상의 거칠기 값으로 환산하고, 거칠기 값이 임계치 이상인 경우 기존의 영상처리기반 영상정합이 불가능하기 때문에 선택적으로 다중 센서를 사용하여 영상보정을 실행함으로써, 정합이 불가능했던 경우에도 줌 센서와 자이로 센서 정보를 바탕으로 정합 장면기반 불균일 보정 수행이 가능하다. As described above, the image correction apparatus that selectively uses multiple sensors according to the embodiment of the present invention converts the degree of unevenness of the image into the roughness value of the image, and if the roughness value is equal to or larger than the threshold value, Therefore, by performing image correction using multiple sensors selectively, registration-based non-uniformity correction can be performed based on the zoom sensor and gyro sensor information even when matching is impossible.

또한, 본 발명은 다중센서 기반으로 영상 정합을 수행하므로 정합 정밀도를 높일 수 있으며, 정합 장면기반 불균일 보정 실행의 속도를 최적화할 수 있다.In addition, since the present invention performs image matching based on multiple sensors, it is possible to improve the matching precision and optimize the speed of execution of the matching-based non-uniformity correction.

이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 기록매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 기록매체로서는 자기 기록매체, 광 기록매체 등이 포함될 수 있다.It is to be understood that the present invention is not limited to these embodiments, and all elements constituting the embodiment of the present invention described above are described as being combined or operated in one operation. That is, within the scope of the present invention, all of the components may be selectively coupled to one or more of them. In addition, although all of the components may be implemented as one independent hardware, some or all of the components may be selectively combined to perform a part or all of the functions in one or a plurality of hardware. As shown in FIG. In addition, such a computer program may be stored in a computer readable medium such as a USB memory, a CD disk, a flash memory, etc., and read and executed by a computer to implement an embodiment of the present invention. As the recording medium of the computer program, a magnetic recording medium, an optical recording medium, or the like can be included.

또한, 기술적이거나 과학적인 용어를 포함한 모든 용어들은, 상세한 설명에서 다르게 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 갖는다. 사전에 정의된 용어와 같이 일반적으로 사용되는 용어들은 관련 기술의 문맥상의 의미와 일치하는 것으로 해석되어야 하며, 본 발명에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Furthermore, all terms including technical or scientific terms have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs, unless otherwise defined in the Detailed Description. Commonly used terms, such as predefined terms, should be interpreted to be consistent with the contextual meanings of the related art, and are not to be construed as ideal or overly formal, unless expressly defined to the contrary.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위 내에서 다양한 수정, 변경 및 치환이 가능할 것이다. 따라서, 본 발명에 개시된 실시예 및 첨부된 도면들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예 및 첨부된 도면에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구 범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리 범위에 포함되는 것으로 해석되어야 할 것이다.It will be apparent to those skilled in the art that various modifications, substitutions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims. will be. Therefore, the embodiments disclosed in the present invention and the accompanying drawings are intended to illustrate and not to limit the technical spirit of the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments and the accompanying drawings . The scope of protection of the present invention should be construed according to the following claims, and all technical ideas within the scope of equivalents should be construed as falling within the scope of the present invention.

Claims (9)

영상의 현재 프레임과 이전 프레임에 대해 보정 테이블을 기준으로 불균일 보정을 수행하는 단계;
다중 센서를 이용하여 상기 이전 프레임 대비 현재 프레임의 영상 이동 및 배율 변화량을 추정하는 단계;
상기 추정된 영상 이동 및 배율 변화량을 기준으로 상기 이전 프레임을 보정하는 단계;
상기 보정된 이전 프레임을 현재 프레임 영상을 기준으로 영상 변환하여 상기 현재 프레임과 정합하는 단계; 및
상기 정합 후 상기 이전 프레임과 현재 프레임의 영상 차이값에 의한 신호 차이 에러를 이용하여 상기 보정 테이블을 업데이트하는 단계;를 포함하며,
상기 다중 센서를 이용하여 상기 이전 프레임 대비 현재 프레임의 영상 이동 변화량을 추정하는 단계는,
자이로 센서를 이용하여 yaw축 각속도 출력과 pitch축 각속도 출력을 영상센서 프레임 레이트를 기준으로 누적하여 yaw축 각이동량 및 pitch축 각이동량을 구하는 단계;
상기 yaw축 각이동량 및 pitch축 각이동량을 줌광학계 정보와 영상센서 정보를 기반으로 가로축 영상 이동량과 세로축 영상 이동량으로 변환하는 단계; 및
상기 추정된 가로축 영상 이동량 및 세로축 영상 이동량을 이용하여 상기 이전 프레임의 이동량 변환을 수행하는 단계;를 포함하는 것을 특징으로 하는 다중 센서 기반 영상보정 방법.
Performing non-uniformity correction on the basis of a correction table for a current frame and a previous frame of the image;
Estimating an image shift and magnification change amount of a current frame with respect to the previous frame using multiple sensors;
Correcting the previous frame based on the estimated image movement and magnification change amount;
Converting the corrected previous frame to a current frame image and matching the current frame with the current frame image; And
And updating the correction table using a signal difference error due to an image difference value between the previous frame and the current frame after the matching,
Wherein the step of estimating the image movement variation of the current frame with respect to the previous frame using the multiple sensors comprises:
Accumulating the yaw axis angular velocity output and the pitch axis angular velocity output based on the image sensor frame rate using a gyro sensor to obtain a yaw axis angular movement amount and a pitch axis angular movement amount;
Converting the yaw axis angular movement amount and the pitch axis angular movement amount into a horizontal axis image movement amount and a vertical axis image movement amount based on the zoom optical system information and the image sensor information; And
And performing a movement amount conversion of the previous frame using the estimated horizontal axis image movement amount and vertical axis image movement amount.
삭제delete 제 1 항에 있어서,
상기 신호 차이 에러를 이용하는 단계는,
자이로 센서로부터 얻은 각속도 정보와 상기 영상 센서의 프레임 레이트, 영상 센서 정보 및 줌광학계 정보를 조합하여 영상 이동량을 추정하는 단계;
상기 추정된 영상 이동량을 이전 프레임에 적용하여 영상 이동량이 보정된 이전 프레임을 생성하는 단계; 및
상기 영상 이동량이 보정된 이전 프레임과 현재 프레임과 차이를 구하여 상기 신호 차이 에러를 생성하는 단계;를 더 포함하는 것을 특징으로 하는 다중 센서 기반 영상보정 방법.
The method according to claim 1,
Wherein the step of using the signal difference error comprises:
Estimating an image movement amount by combining angular velocity information obtained from a gyro sensor and frame rate, image sensor information, and zoom optical system information of the image sensor;
Generating a previous frame in which the image movement amount is corrected by applying the estimated image movement amount to a previous frame; And
And generating the signal difference error by obtaining a difference between a previous frame and a current frame in which the image movement amount is corrected, and generating the signal difference error.
제 1 항에 있어서,
상기 다중 센서를 이용하여 상기 이전 프레임 대비 현재 프레임의 배율 변화량을 추정하는 단계는,
줌 센서의 인코더 정보를 통해 현재 줌광학계의 줌 상태를 파악하는 단계;
상기 줌광학계의 배율 정보와 상기 줌광학계의 초점거리 정보를 이용하여 상기 영상 센서의 FPA(Focal plane array)면에 맺어지는 영상배율을 실시간 추정하는 단계; 및
상기 영상센서 픽셀피치와 상기 영상센서의 가로 및 세로의 픽셀수를 이용하여 실제 프레임 영상 기준으로 상기 이전 프레임 대비 영상배율을 추정하는 단계;를 포함하는 것을 특징으로 하는 다중 센서 기반 영상보정 방법.
The method according to claim 1,
Estimating a magnification change amount of a current frame with respect to the previous frame using the multiple sensors,
Grasping the zoom state of the current zoom optical system through the encoder information of the zoom sensor;
Estimating an image magnification of a focal plane array (FPA) of the image sensor in real time using magnification information of the zoom optical system and focal length information of the zoom optical system; And
And estimating an image magnification of the previous frame based on the actual frame image using the pixel pitch of the image sensor and the number of pixels of the image sensor in the horizontal and vertical directions.
제 4 항에 있어서,
상기 신호 차이 에러를 생성하는 단계는,
영상 센서로부터 줌 확대된 이전 프레임과 줌 축소된 현재 프레임을 획득하는 단계;
상기 줌센서와 줌 광학계의 배율과 초점거리 정보로 상기 이전 프레임 대비 상기 현재 프레임의 줌 배율을 획득하는 단계;
상기 획득된 줌 배율을 상기 영상 센서의 픽셀 피치와 가로 및 세로 픽셀 수 정보와 조합하여 상기 현재 프레임 대비 상기 이전 프레임의 영상배율을 추정하는 단계;
상기 추정된 영상 확대 축소량에 기반하여 상기 이전 프레임을 변형하여 영상배율이 보정된 이전 프레임을 획득하는 단계; 및
상기 영상배율이 보정된 이전 프레임과 상기 현재 프레임과의 차이를 구하여 상기 신호 차이 에러를 생성하는 단계;를 포함하는 것을 특징으로 하는 다중 센서 기반 영상보정 방법.
5. The method of claim 4,
Wherein generating the signal difference error comprises:
Obtaining a previous frame zoomed in and a current frame zoomed in from the image sensor;
Acquiring a zoom magnification of the current frame with respect to the previous frame using magnification and focal length information of the zoom sensor and the zoom optical system;
Estimating an image magnification of the previous frame with respect to the current frame by combining the obtained zoom magnification with pixel pitch of the image sensor and information of horizontal and vertical pixel numbers;
Obtaining a previous frame in which the image magnification is corrected by modifying the previous frame based on the estimated image enlargement / reduction amount; And
And generating the signal difference error by obtaining a difference between the current frame and a previous frame in which the image magnification is corrected.
제 1 항에 있어서,
매번 입력되는 영상의 프레임에 대하여 상기 신호 차이 에러를 생성하는 단계 및 상기 보정 테이블을 업데이트하는 단계를 반복하는 것을 특징으로 하는 다중 센서 기반 영상보정 방법.
The method according to claim 1,
Wherein the step of generating the signal difference error for each frame of the input image and the step of updating the correction table are repeated.
제 1 항에 있어서,
상기 보정 테이블을 업데이트 하는 단계는,
상기 신호 차이 에러를 이용하여 상기 보정 테이블의 이득과 오프셋을 업데이트하는 것을 특징으로 하는 다중 센서 기반 영상보정 방법.
The method according to claim 1,
Wherein updating the correction table comprises:
And the gain and offset of the correction table are updated using the signal difference error.
제 1 항에 있어서,
상기 영상의 현재 프레임과 이전 프레임에 대해 보정 테이블을 기준으로 불균일 보정을 수행하는 단계 이후에,
상기 보정된 현재 프레임을 보정영상으로서 외부로 출력하는 단계를 더 포함하는 것을 특징으로 하는 다중 센서 기반 영상보정 방법.
The method according to claim 1,
After performing the non-uniformity correction on the basis of the correction table for the current frame and the previous frame of the image,
And outputting the corrected current frame to the outside as a corrected image.
제 1 항 또는 제 3항 내지 제 8 항 중 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium storing a program for causing a computer to execute the method according to any one of claims 1 to 9.
KR1020170131677A 2017-10-11 2017-10-11 Method for Image correction based on using multi-sensor KR101854354B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170131677A KR101854354B1 (en) 2017-10-11 2017-10-11 Method for Image correction based on using multi-sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170131677A KR101854354B1 (en) 2017-10-11 2017-10-11 Method for Image correction based on using multi-sensor

Publications (1)

Publication Number Publication Date
KR101854354B1 true KR101854354B1 (en) 2018-06-08

Family

ID=62599920

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170131677A KR101854354B1 (en) 2017-10-11 2017-10-11 Method for Image correction based on using multi-sensor

Country Status (1)

Country Link
KR (1) KR101854354B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080021646A (en) * 2005-05-09 2008-03-07 록히드 마틴 코포레이션 Continuous extended range image processing
KR101282567B1 (en) * 2013-04-25 2013-07-04 주식회사 콕스 Apparatus and method for amending non-uniformity of handheld thermal imaging camera
KR101404654B1 (en) * 2013-04-04 2014-06-09 국방과학연구소 Correction method of the scene-based non-uniformity for the focal-plane arrays infrared camera
KR101780714B1 (en) * 2016-05-18 2017-09-21 엘아이지넥스원 주식회사 Apparatus and method for matching multi sensor images

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080021646A (en) * 2005-05-09 2008-03-07 록히드 마틴 코포레이션 Continuous extended range image processing
KR101404654B1 (en) * 2013-04-04 2014-06-09 국방과학연구소 Correction method of the scene-based non-uniformity for the focal-plane arrays infrared camera
KR101282567B1 (en) * 2013-04-25 2013-07-04 주식회사 콕스 Apparatus and method for amending non-uniformity of handheld thermal imaging camera
KR101780714B1 (en) * 2016-05-18 2017-09-21 엘아이지넥스원 주식회사 Apparatus and method for matching multi sensor images

Similar Documents

Publication Publication Date Title
EP2544445B1 (en) Image processing device, image processing method, image processing program and storage medium
JP5980294B2 (en) Data processing apparatus, imaging apparatus, and data processing method
WO2014068779A1 (en) Image processing device, image processing method, image processing program, and storage medium
US9117271B2 (en) Apparatus, method and recording medium for image processing
WO2016089823A1 (en) Image adjustment based on locally flat scenes
US10931901B2 (en) Method and apparatus for selectively correcting fixed pattern noise based on pixel difference values of infrared images
US11895403B2 (en) Imaging support device that performs registration control for setting a detected subject image position, imaging support system, imaging system, imaging support method, and program
US20080278613A1 (en) Methods, apparatuses and systems providing pixel value adjustment for images produced with varying focal length lenses
US20180276803A1 (en) Image adjustment based on locally flat scenes
KR101854355B1 (en) Image correction apparatus selectively using multi-sensor
JP2017097767A (en) Movement information acquisition device, movement information acquisition method, and program
JP5424068B2 (en) Image processing apparatus, image processing method, image processing program, and storage medium
JP6532328B2 (en) Image processing apparatus, control method therefor, and control program
KR101854354B1 (en) Method for Image correction based on using multi-sensor
JP2007300360A (en) Shading correction circuit, shading correction method, and camera system
US8331722B2 (en) Methods, apparatuses and systems providing pixel value adjustment for images produced by a camera having multiple optical states
JP2017059998A (en) Image processing apparatus and method, and imaging device
US20220286611A1 (en) Electrical image stabilization (eis)-assisted digital image stabilization (dis)
JP6604783B2 (en) Image processing apparatus, imaging apparatus, and image processing program
CN111246108B (en) Hall sensor calibration method and device and anti-shake method and device
JP5279453B2 (en) Image shake correction apparatus, imaging apparatus, and image shake correction method
JP5351200B2 (en) Image processing apparatus, image processing system, and image processing method
JP6332982B2 (en) Image processing apparatus and method
WO2016194576A1 (en) Information processing device and method
JP6516574B2 (en) Image blur correction device, imaging device, image blur correction method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant