KR20200010527A - Apparatus and method for stabilizing image - Google Patents

Apparatus and method for stabilizing image Download PDF

Info

Publication number
KR20200010527A
KR20200010527A KR1020200005606A KR20200005606A KR20200010527A KR 20200010527 A KR20200010527 A KR 20200010527A KR 1020200005606 A KR1020200005606 A KR 1020200005606A KR 20200005606 A KR20200005606 A KR 20200005606A KR 20200010527 A KR20200010527 A KR 20200010527A
Authority
KR
South Korea
Prior art keywords
image
feature points
foreground
motion
feature
Prior art date
Application number
KR1020200005606A
Other languages
Korean (ko)
Other versions
KR102213201B1 (en
Inventor
유연걸
박상지
이활석
윤석민
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020200005606A priority Critical patent/KR102213201B1/en
Publication of KR20200010527A publication Critical patent/KR20200010527A/en
Application granted granted Critical
Publication of KR102213201B1 publication Critical patent/KR102213201B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a device for stabilizing an image which robustly operates in a dynamic environment and a method thereof. The device for stabilizing an image comprises: a foreground image generation part for generating a foreground image including a background and a dynamic object from a predetermined reference image and a difference image of a current image; a feature point selection part which removes the feature points corresponding to the dynamic object in the foreground image from the feature points of the reference image and selects the feature points corresponding to the background; a motion calculation part which tracks the selected feature point of the reference image from an inputted next image and calculates a motion between the reference image and the next image by finding and using a corresponding point; and an image correction part for generating a stabilized image by converting the next image using the motion.

Description

영상 안정화 장치 및 방법{Apparatus and method for stabilizing image}Apparatus and method for stabilizing image}

본 발명은 동적 환경에서 강인하게 동작하는 영상 안정화 장치 및 방법에 관한 것이다.The present invention relates to an image stabilization apparatus and method that robustly operates in a dynamic environment.

최근 멀티미디어 기기의 사용이 증가함에 따라 다양한 환경에서 촬영된 디지털 영상에 대한 화질개선(image enhancement) 기술에 대한 수요도 증가하고 있다. 화질개선 기술에는 영상의 번짐 제거, 잡음 제거 및 영상 안정화 기술 등이 있으며, 디지털 카메라, 스마트폰, 가정용 카메라나 캠코더, 산업용 감시 카메라, 방송용 카메라 및 군사용 영상 촬영 장치와 같은 촬영장치에 이르기까지 광범위하게 적용된다. 초기 촬영장치는 기존의 아날로그 영상을 디지털화하여 영상을 만들어 내는 데 그쳤다. 그러나 최근 사용되는 촬영장치는 각종 선처리 및 후처리 보정 기술이 적용되어 기존의 아날로그 영상보다 더욱 깨끗하고 선명한 화질의 디지털 영상을 얻을 수 있게 되었다.Recently, as the use of multimedia devices increases, the demand for image enhancement techniques for digital images photographed in various environments is increasing. Image quality improvement techniques include image blur, noise reduction, and image stabilization technology, and are widely used in digital cameras, smartphones, home cameras or camcorders, industrial surveillance cameras, broadcast cameras, and military imaging equipment. Apply. Early photographic devices only produced images by digitizing existing analog images. However, recently used photographing apparatus has been applied a variety of pre-processing and post-processing correction technology it is possible to obtain a digital image of clearer and clearer picture than the conventional analog image.

디지털 영상 보정 기술 중에서 가장 보편적으로 사용되는 기술이 영상 안정화(image stabilization) 기술이다. 사용자가 촬영장치를 들고 촬영할 경우 또는 이동 중 촬영할 경우에 흔들림이 발생하게 되며, 자동차, 비행기 또는 헬기와 같은 이동수단에 설치된 카메라의 경우에는 기계적 진동이나 지면과의 마찰 등 여러 환경적 요인에 의해 원치 않는 흔들림이 생기게 된다. 또한 줌 렌즈(zoom lens)의 배율이 올라가면서 약간의 움직임에도 화면 흔들림이 심해지는 문제가 있다. 영상 안정화 기술은 이와 같이 촬영시 촬영장치가 흔들릴 때 깨끗하고 선명한 영상을 얻을 수 있는 기술로서, 촬영된 영상에서 발생하는 원치 않은 흔들림을 제거하기 위해 적용된다.The most commonly used technique of digital image correction is image stabilization. When the user takes a picture with the shooting device or shoots while moving, camera shake is generated.In the case of a camera installed on a vehicle such as a car, airplane or helicopter, it may be caused by various environmental factors such as mechanical vibration or friction with the ground. Shake will occur. In addition, as the magnification of the zoom lens is increased, there is a problem that the screen shake is severe even with slight movement. Image stabilization technology is a technology that can obtain a clear and clear image when the image pickup device shakes when shooting, it is applied to remove the unwanted shake occurring in the captured image.

기존의 영상 안정화 기술은 기준영상에서 특징점을 추출하고, 현재영상에서 특징점 추적을 이용하여 대응점을 찾고, 기준영상 및 현재영상 사이의 움직임을 계산하고, 계산된 움직임으로 현재영상을 변환하여 안정된 영상을 생성한다. 이러한 영상 안정화 기술에서는 배경영상의 움직임을 이용하여 영상을 안정화 하므로, 배경영상에서 추출된 특징점을 이용하여 영상의 움직임을 계산하게 된다. 그러나 동적 물체 위에서 추출된 특징점이 영상의 움직임 계산에 이용되는 경우에는 영상의 움직임 계산에 무시할 수 없는 오차를 발생시킬 수 있고, 결과적으로 영상 안정화에 실패하는 요인이 된다.Conventional image stabilization technology extracts feature points from reference video, finds corresponding points using feature point tracking from current video, calculates motion between reference video and current video, converts current video to calculated motion, and generates stable video. Create In the image stabilization technology, the image is stabilized using the motion of the background image, and thus the motion of the image is calculated using the feature points extracted from the background image. However, when a feature point extracted on a dynamic object is used to calculate the motion of an image, an error that cannot be ignored can be generated when calculating the motion of the image, and as a result, image stabilization fails.

일본 공개특허공보 제2011-003057호Japanese Unexamined Patent Publication No. 2011-003057

본 발명이 해결하고자 하는 기술적인 과제는 전경영상을 이용하여 동적 물체 위의 특징점을 제거하여 동적 환경에서도 강인하게 동작하는 영상 안정화 장치 및 방법을 제공하는데 있다.The technical problem to be solved by the present invention is to provide an image stabilization apparatus and method that robustly operates in a dynamic environment by removing feature points on a dynamic object using a foreground image.

본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 일 실시 예에 따른 영상 안정화 장치는 기설정된 기준영상 및 현재영상의 차영상으로부터 배경 및 동적물체를 포함하는 전경영상을 생성하는 전경영상 생성부; 상기 기준영상의 특징점들로부터 상기 전경영상 중 동적물체에 해당하는 특징점들을 제거하고, 상기 배경에 해당하는 특징점들을 선택하는 특징점 선택부; 입력된 다음영상에서 상기 기준영상의 선택된 특징점을 추적하여 대응점을 찾고 상기 대응점을 이용하여 상기 기준영상 및 상기 다음영상 사이의 움직임량을 산출하는 움직임 산출부; 및 상기 움직임량을 이용하여 상기 다음영상을 변환시켜 안정화된 영상을 생성하는 영상 보정부;를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an apparatus for stabilizing an image, comprising: a foreground image generation unit generating a foreground image including a background and a dynamic object from a preset reference image and a difference image of a current image; A feature point selector which removes feature points corresponding to a dynamic object of the foreground image from feature points of the reference image and selects feature points corresponding to the background; A motion calculation unit for tracking a selected feature point of the reference image from the input next image and calculating a motion amount between the reference image and the next image using the corresponding point; And an image corrector configured to generate the stabilized image by converting the next image using the motion amount.

본 발명에 있어서, 상기 전경영상 생성부는, 상기 차영상에 블랍 필터(blob filter)를 적용하여 노이즈를 제거하는 것을 특징으로 한다.In the present invention, the foreground image generating unit, characterized in that to remove the noise by applying a blob filter (blob filter) to the difference image.

본 발명에 있어서, 상기 전경영상과 상기 다음영상의 동기를 일치시키기 위해 상기 전경영상을 한 프레임 지연시키는 지연부;를 더 포함하는 것을 특징으로 한다.In the present invention, the delay unit for delaying the foreground image by one frame to match the synchronization of the foreground image and the next image; characterized in that it further comprises.

본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 일 실시 예에 따른 영상 안정화 방법은 기설정된 기준영상 및 현재영상의 차영상으로부터 배경 및 동적물체를 포함하는 전경영상을 생성하는 전경영상 생성단계; 상기 기준영상의 특징점들로부터 상기 전경영상 중 동적물체에 해당하는 특징점들을 제거하고, 상기 배경에 해당하는 특징점들을 선택하는 특징점 선택단계; 입력된 다음영상에서 상기 기준영상의 선택된 특징점을 추적하여 대응점을 찾고 상기 대응점을 이용하여 상기 기준영상 및 상기 다음영상 사이의 움직임량을 산출하는 움직임 산출단계; 및 상기 움직임량을 이용하여 상기 다음영상을 변환시켜 안정화된 영상을 생성하는 영상 보정단계;를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided a method of stabilizing an image, comprising: a foreground image generation step of generating a foreground image including a background and a dynamic object from a preset reference image and a difference image of a current image; A feature point selecting step of removing feature points corresponding to a dynamic object of the foreground image from feature points of the reference image and selecting feature points corresponding to the background; A motion calculating step of tracking a selected feature point of the reference image from an input next image to find a corresponding point, and calculating a motion amount between the reference image and the next image using the corresponding point; And an image correction step of generating a stabilized image by converting the next image by using the motion amount.

본 발명에 있어서, 상기 전경영상 생성단계는, 상기 차영상에 블랍 필터링(blob filtering)을 적용하여 노이즈를 제거하는 단계;를 포함하는 것을 특징으로 한다.In the present disclosure, the generating of the foreground image may include removing noise by applying blob filtering to the difference image.

본 발명에 있어서, 상기 전경영상과 상기 다음영상의 동기를 일치시키기 위해 상기 전경영상을 한 프레임 지연시키는 지연단계;를 더 포함하는 것을 특징으로 한다.In the present invention, the delay step of delaying the foreground image by one frame to match the synchronization of the foreground image and the next image; characterized in that it further comprises.

상술한 바와 같이 본 발명에 따르면, 기존의 영상 안정화 기술은 영상에 동적 물체가 차지하는 비중이 커지면 영상 안정화에 실패 하였지만, 본 실시 예에 따른 영상 안정화 기술은 영상에 동적 물체가 차지하는 비중이 큰 경우에도 영상을 안정화 시킬 수 있다. 예를 들어, 사람 또는 자동차 등과 같이 영상에 동적 물체가 많은 환경에서의 영상 안정화에 활용할 수 있다.As described above, according to the present invention, the existing image stabilization technique fails to stabilize the image when the dynamic object occupies a large portion of the image. You can stabilize the image. For example, it can be used for image stabilization in an environment where there are many dynamic objects in the image, such as a person or a car.

또한 전경영상을 생성하는 종래의 방법은 계산량이 많은 배경 모델링 기법을 이용하였기 때문에 처리 속도가 느리지만, 본 실시 예에 따른 영상 안정화 기술에서는 기준영상과 안정화된 현재영상의 차영상을 이용하기 때문에 빠르게 전경영상을 생성할 수 있다. 이 전경영상은 다른 영상분석 알고리즘에 적용할 수 있다.In addition, the conventional method for generating the foreground image is slow because of the computational background modeling method, but the image stabilization technique according to the present embodiment uses the difference between the reference image and the stabilized current image. You can create a foreground image. This foreground image can be applied to other image analysis algorithms.

또한 본 실시 예에 따른 영상 안정화 기술을 이용하여, 고정된 카메라, 이동하는 카메라, PTZ 카메라에서의 영상 정합에 활용할 수 있고, 이는 움직임 검출, 물체 추적, 물체 검출, 물체 인식 등에 이용할 수 있다.In addition, by using the image stabilization technology according to the present embodiment, it can be used for image registration in a fixed camera, a moving camera, a PTZ camera, which can be used for motion detection, object tracking, object detection, object recognition, and the like.

더 나아가 본 실시 예에 따른 영상 안정화 기술을 이용하여 동적 환경에서 두 영상의 대응점을 강인하게 찾을 수 있다.Furthermore, by using the image stabilization technique according to the present embodiment, it is possible to robustly find the corresponding point of the two images in the dynamic environment.

도 1은 본 발명의 일 실시 예에 따른 영상 안정화 장치의 구성을 보이는 블록도 이다.
도 2는 본 발명의 일 실시 예에 따른 특징점 추출을 설명하는 도면이다.
도 3은 본 발명의 일 실시 예에 따른 임의의 영상을 이용하여 영상 안정화를 설명하는 도면이다.
도 4는 본 발명의 일 실시 예에 따른 영상 안정화 방법의 동작을 보이는 흐름도 이다.
1 is a block diagram showing the configuration of an image stabilization apparatus according to an embodiment of the present invention.
2 is a diagram illustrating feature point extraction according to an embodiment of the present invention.
3 is a diagram illustrating image stabilization using an arbitrary image according to an embodiment of the present invention.
4 is a flowchart illustrating an operation of an image stabilization method according to an exemplary embodiment.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 설명되는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 아래에서 제시되는 실시 예들로 한정되는 것이 아니라, 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 아래에 제시되는 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Advantages and features of the present invention, and methods for achieving them will be apparent with reference to the embodiments described in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments set forth below, but may be embodied in many different forms and should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention. . The embodiments set forth below are provided to make the disclosure of the present invention complete, and to fully inform the scope of the invention to those skilled in the art. In the following description of the present invention, if it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

이하, 본 발명에 따른 실시 예들을 첨부된 도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, and in the following description with reference to the accompanying drawings, the same or corresponding components will be given the same reference numerals and redundant description thereof will be omitted. Let's do it.

도 1은 본 발명의 일 실시 예에 따른 영상 안정화 장치의 구성을 보이는 블록도 이다.1 is a block diagram showing the configuration of an image stabilization apparatus according to an embodiment of the present invention.

도 1을 참조하면, 영상 안정화 장치(10)는 카메라(100), 영상 처리부(110), 특징점 추출부(120), 전경영상 생성부(130), 지연부(140), 특징점 선택부(150), 움직임 산출부(160) 및 영상 보정부(170)를 포함한다.Referring to FIG. 1, the image stabilization apparatus 10 may include a camera 100, an image processor 110, a feature point extractor 120, a foreground image generator 130, a delay unit 140, and a feature point selector 150. ), A motion calculator 160, and an image corrector 170.

카메라(100)는, 예컨대 COMS(complementary metal-oxide semiconductor) 모듈 또는 CCD(charge coupled device) 모듈 등을 이용하여 피사체를 촬영하는 카메라를 의미하는 것으로, 동일한 피사체에 대하여 입력되는 이미지(또는 동영상)는 렌즈를 통해 COMS 모듈 또는 CCD 모듈로 제공되고, COMS 모듈 또는 CCD 모듈은 렌즈를 통과한 피사체의 광신호를 전기적 신호(촬영 신호)로 변환하여 출력한다. 더 나아가 카메라(100)는 열상 카메라 일 수도 있다. 열상 카메라는 각 물체로부터 방출되는 복사 에너지에 의해 물체와 그 물체의 주변 배경 간의 온도 차이를 검출하고 이를 전기 신호로 변환하여 영상화하는 카메라를 말한다.The camera 100 refers to a camera photographing a subject using, for example, a complementary metal-oxide semiconductor (COMS) module or a charge coupled device (CCD) module. An image (or video) input to the same subject may be used. It is provided to the COMS module or CCD module through the lens, the COMS module or CCD module converts the optical signal of the subject passing through the lens into an electrical signal (shooting signal) and outputs. Furthermore, the camera 100 may be a thermal camera. A thermal camera is a camera that detects a temperature difference between an object and its surrounding background by radiant energy emitted from each object, and converts it into an electrical signal to image it.

영상 처리부(110)은 카메라(100)로부터 출력되는 영상 신호에 대해 노이즈를 저감하고, 감마 보정(Gamma Correction), 색필터 배열보간(color filter array interpolation), 색 매트릭스(color matrix), 색보정(color correction), 색 향상(color enhancement) 등의 화질 개선을 위한 영상 신호 처리를 수행한다. 또한, 영상 처리부(110)은 화질 개선을 위한 영상 신호 처리를 하여 생성한 영상 데이터를 압축 처리하여 영상 파일을 생성할 수 있으며, 또는 상기 영상 파일로부터 영상 데이터를 복원할 수 있다. 영상의 압축형식은 가역 형식 또는 비가역 형식을 포함한다. 또한, 영상 처리부(110)에서는 기능적으로 색채 처리, 블러 처리, 에지 강조 처리, 영상 해석 처리, 영상 인식 처리, 영상 이펙트 처리 등도 행할 수 있다. 영상 인식 처리로 얼굴 인식, 장면 인식 처리 등을 행할 수 있다. 예를 들어, 휘도 레벨 조정, 색 보정, 콘트라스트 조정, 윤곽 강조 조정, 화면 분할 처리, 캐릭터 영상 등 생성 및 영상의 합성 처리 등을 행할 수 있다.The image processor 110 may reduce noise with respect to an image signal output from the camera 100, perform gamma correction, color filter array interpolation, color matrix, and color correction ( Image signal processing for image quality improvement such as color correction and color enhancement is performed. In addition, the image processor 110 may generate an image file by compressing the image data generated by the image signal processing to improve the image quality, or may restore the image data from the image file. The compressed format of the image includes a reversible format or an irreversible format. In addition, the image processing unit 110 may also perform color processing, blur processing, edge enhancement processing, image analysis processing, image recognition processing, image effect processing, and the like. Face recognition, scene recognition processing, and the like can be performed by the image recognition processing. For example, luminance level adjustment, color correction, contrast adjustment, outline enhancement adjustment, screen division processing, character image generation and the like, and image synthesis processing can be performed.

특징점 추출부(120)는 영상 처리부(110)로부터 영상 처리되어 출력되는 기준영상, 현재영상(피드백된 안정화된 현재영상) 및 다음영상으로부터 특징점들을 검출한다. 이러한 특징점들은 각각 좌표로써 표시될 수 있다. 영상은 다양한 특징 요소를 구비하고 있으며, 사용자의 필요에 따라 이들 다양한 특징 요소들 중 일부가 특징점들로써 추출될 수 있다. 영상으로부터 특징점들을 검출하기 위하여 해리스(harris)의 코너 검출 방법, SIFT(scale invariant feature transform) 알고리즘, SURF(speeded up robust feature) 알고리즘 등을 이용할 수 있다.The feature point extractor 120 detects feature points from the reference image, the current image (the feedback stabilized current image), and the next image, which are processed and output from the image processor 110. These feature points may be represented by coordinates, respectively. The image has various feature elements, and some of these various feature elements may be extracted as feature points according to a user's needs. In order to detect feature points from an image, a Harris corner detection method, a scale invariant feature transform (SIFT) algorithm, a speeded up robust feature (SURF) algorithm, or the like may be used.

이러한 특징점 추출부(120)는 안정화된 현재영상으로부터 특징점을 추출하는 제1 특징점 추출부(121), 기준영상으로부터 특징점을 추출하는 제2 특징점 추출부(122) 및 다음영상으로부터 특징점을 추출하는 제3 특징점 추출부(123)를 포함할 수 있다. 여기서, 기준영상은, 물체를 촬영하여 생성된 영상 데이터에 포함되는 영상들 중에서 흔들림이 가장 적은 영상을 나타내며, 흔들림이 가장 적은 영상을 기준영상으로 설정할 수 있다.The feature point extractor 120 may include a first feature point extractor 121 for extracting feature points from a stabilized current image, a second feature point extractor 122 for extracting feature points from a reference image, and a feature point for extracting feature points from a next image. Three feature point extractor 123 may be included. Here, the reference image may represent an image having the least shaking among images included in the image data generated by photographing an object, and an image having the least shaking may be set as the reference image.

도 2는 본 발명의 일 실시 예에 따른 특징점 추출을 설명하는 도면이다. 도 2를 참조하면, 도 2a는 임의의 영상(현재영상, 기준영상, 다음영상)을 나타내고, 도 2b는 축소 영상을 나타내고, 도 2c는 축소된 영상에 대한 엣지 영상을 나타낸다. 특징점 추출부(120)는 엣지 영상 내의 임의의 블록(예를 들어, 3×3 블록) 내에 존재하는 엣지의 개수가 임계값을 초과하는 경우, 해당 블록을 특징점으로 추출할 수 있다. 여기서, 특징점 추적에 실패할 확률이 높은 엣지 위에 존재하는 특징점을 제거하고, 엣지가 교차하거나 코너에 위치하는 특징점을 선택하기 위해서, 블록의 폭과 너비를 조정하여 임계값의 변경이 가능하다. 도 2d는 엣지 영상 내의 블록 내에 존재하는 엣지의 개수가 임계값을 초과하여 추출된 특징점들을 보이고 있다.2 is a diagram illustrating feature point extraction according to an embodiment of the present invention. Referring to FIG. 2, FIG. 2A shows an arbitrary image (current image, reference image, next image), FIG. 2B shows a reduced image, and FIG. 2C shows an edge image for the reduced image. The feature point extractor 120 may extract the block as a feature point when the number of edges existing in an arbitrary block (eg, 3 × 3 block) in the edge image exceeds a threshold. Here, in order to remove a feature point existing on an edge having a high probability of failing feature point tracking and to select a feature point at which an edge intersects or is located at a corner, a threshold value may be changed by adjusting a width and a width of a block. 2D illustrates feature points extracted because the number of edges present in a block in the edge image exceeds a threshold.

전경영상 생성부(130)는 기준영상 및 현재영상의 차영상으로부터 배경 및 동적 물체를 포함하는 전경영상을 생성한다. 전경영상 생성부(130)는 기준영상 및 현재영상을 각각 그레이 스케일 영상으로 변환하고, 리사이즈 한 후 차영상으로부터 배경 및 동적 물체를 포함하는 전경영상을 생성한다. 도 3a에는 임의의 기준영상이 도시되어 있고, 도 3b에는 임의의 안정화된 현재영상이 도시되어 있고, 도 3c에는 기준영상 및 안정화된 현재영상의 차영상인, 배경 및 동적 물체를 포함하는 전경영상이 도시되어 있다. 여기서 차영상에 미디언 필터(median filter) 등과 같은 블랍(blob) 필터를 적용하여 노이즈를 제거할 수 있다. 여기서, 차영상을 기준영상과 안정화된 현재영상을 이용하여 구하는 이유는, 첫째, 성공적을 안정된 영상이 획득되었다면, 기준영상과 안정화된 현재영상은 서로 정합(alignment) 되어 있기 때문에 차영상은 이론적으로 동적 물체를 나타낸다. 둘째, 기존의 배경 모델링 기법(background modeling technique)을 이용할 수도 있지만, 처리 속도가 느리기 때문에 본 실시 예에서는 고속 처리를 고려하여 기준영상 및 안정화된 현재영상의 차영상을 이용한다.The foreground image generator 130 generates a foreground image including a background and a dynamic object from the difference image between the reference image and the current image. The foreground image generating unit 130 converts the reference image and the current image into a gray scale image, respectively, and resizes and generates a foreground image including a background and a dynamic object from the difference image. 3A shows an arbitrary reference image, FIG. 3B shows an arbitrary stabilized current image, and FIG. 3C shows a foreground image including a background and a dynamic object, which is a difference image between the reference image and the stabilized current image. Is shown. The noise may be removed by applying a blob filter such as a median filter to the difference image. Here, the reason for obtaining the difference image using the reference image and the stabilized current image is that, first, if a stable image is successfully obtained, the difference image is theoretically aligned because the reference image and the stabilized current image are aligned with each other. Represents a dynamic object. Second, although a conventional background modeling technique may be used, since the processing speed is slow, the present embodiment uses the difference image of the reference image and the stabilized current image in consideration of the high speed processing.

지연부(140)는 생성된 전경영상과 다음영상의 동기를 일치시키기 위해 전경영상을 한 프레임 지연시킨다.The delay unit 140 delays the foreground image by one frame in order to synchronize the generated foreground image with the next image.

특징점 선택부(150)는 기준영상의 특징점들로부터, 한 프레임 지연된 전경영상 중 동적물체에 해당하는 특징점들을 제거하고, 배경에 해당하는 특징점들을 선택한다. 도 3d에는 특징점들을 포함하는 기준영상이 도시되어 있고, 도 3e에는 전경영상의 동적물체 상에 해당하는 특징점들을 기준영상으로부터 제거하고, 전경영상의 배경 상에 해당하는 특징점들을 기준영상에서 선택하는 도면이 도시되어 있다. 이와 같이 특징점 선택부(150)는 기준영상의 특징점들로부터 전경영상 중 동적물체에 해당하는 특징점들을 제거하고, 배경에 해당하는 특징점들을 선택한다.The feature point selector 150 removes the feature points corresponding to the dynamic object from the foreground image delayed by one frame from the feature points of the reference image, and selects the feature points corresponding to the background. FIG. 3D illustrates a reference image including feature points, and FIG. 3E illustrates removing feature points corresponding to a dynamic object of the foreground image from the reference image and selecting feature points corresponding to the background of the foreground image from the reference image. Is shown. As such, the feature point selector 150 removes the feature points corresponding to the dynamic object from the foreground image from the feature points of the reference image and selects the feature points corresponding to the background.

움직임 산출부(160)는 입력된 다음영상에서 기준영상의 선택된 특징점을 추적하여 대응점을 찾고 대응점을 이용하여 기준영상 및 다음영상 사이의 움직임을 산출한다. 도 3e에는 선택된 특징점을 포함하는 기준영상이 도시되어 있고, 도 3f에는 특징점을 포함하는 다음영상이 도시되어 있다. 움직임 산출부(160)는 입력된 다음영상에서 기준영상의 선택된 특징점을 추적하여 대응점을 획득한다. 여기서 대응점 획득이라 함은, 기준영상에서 선택된 특징점들이 다음영상의 어디에 위치하는지 찾는 작업이라고 할 수 있다. 대응점 획득 방법은 공지된 KLT(kanade-lucas-tomasi) 추적기 알고리즘, 테일러 시리즈(taylor expansion) 및 헤시안 매트릭스(hessian matrix)를 이용할 수 있다. 이와 같이 대응점이 획득되면, 움직임 산출부(160)는 대응점을 이용하여 기준영상 대비 다음영상이 얼만큼 움직였는지를 나타내는 움직임량을 산출한다.The motion calculator 160 tracks selected feature points of the reference image from the inputted next image to find a corresponding point, and calculates a motion between the reference image and the next image using the corresponding point. FIG. 3E shows a reference image including the selected feature point, and FIG. 3F shows a next image including the feature point. The motion calculator 160 obtains a corresponding point by tracking a selected feature point of the reference image from the input next image. Herein, acquiring a corresponding point may refer to a task of finding where the feature points selected in the reference image are located in the next image. The correspondence point acquisition method may use a known kanade-lucas-tomasi (KLT) tracker algorithm, a taylor expansion, and a hessian matrix. When the corresponding point is obtained as described above, the motion calculator 160 calculates a motion amount indicating how much the next image moves relative to the reference image using the corresponding point.

영상 보정부(170)는 산출된 움직임량을 이용하여 다음영상을 변환시켜 안정화된 영상을 생성한다.The image corrector 170 converts the next image using the calculated motion amount to generate a stabilized image.

이어서, 도 4를 참조하여 본 발명의 일 실시 예에 따른 영상 안정화 방법의 동작을 보이는 흐름도 이다. 본 발명에 따른 영상 안정화 방법은 도 1에 도시된 바와 같이 주변 구성요소들의 도움을 받아 영상 안정화 장치에서 수행될 수 있다. 이하의 설명에서 도 1 내지 도 3에 대한 설명과 중복되는 부분은 그 설명을 생략하기로 한다.Next, referring to FIG. 4, it is a flowchart illustrating the operation of an image stabilization method according to an exemplary embodiment. The image stabilization method according to the present invention may be performed in the image stabilization apparatus with the help of peripheral components as shown in FIG. 1. In the following description, portions overlapping with the description of FIGS. 1 to 3 will be omitted.

영상 안정화 장치는 기준영상 및 현재영상의 차영상으로부터 배경 및 동적 물체를 포함하는 전경영상을 생성한다(S100). 영상 안정화 장치는 기준영상 및 현재영상을 각각 그레이 스케일 영상으로 변환하고, 리사이즈 한 후 차영상으로부터 배경 및 동적 물체를 포함하는 전경영상을 생성한다. 여기서, 차영상을 기준영상과 안정화된 현재영상을 이용하여 구하는 이유는, 첫째, 성공적을 안정된 영상이 획득되었다면, 기준영상과 안정화된 현재영상은 서로 정합(alignment) 되어 있기 때문에 차영상은 이론적으로 동적 물체를 나타낸다. 둘째, 기존의 배경 모델링 기법(background modeling technique)을 이용할 수도 있지만, 처리 속도가 느리기 때문에 본 실시 예에서는 고속 처리를 고려하여 기준영상 및 안정화된 현재영상의 차영상을 이용한다.The image stabilization apparatus generates a foreground image including a background and a dynamic object from the difference image of the reference image and the current image (S100). The image stabilization apparatus converts the reference image and the current image into a gray scale image, respectively, and resizes and generates a foreground image including a background and a dynamic object from the difference image. Here, the reason for obtaining the difference image using the reference image and the stabilized current image is that, first, if a stable image is successfully obtained, the difference image is theoretically aligned because the reference image and the stabilized current image are aligned with each other. Represents a dynamic object. Second, although an existing background modeling technique may be used, since the processing speed is slow, the present embodiment uses the difference image of the reference image and the stabilized current image in consideration of high-speed processing.

영상 안정화 장치는 전경영상이 생성되면, 생성된 전경영상과 다음영상의 동기를 일치시키기 위해 전경영상을 한 프레임 지연시킨다(S200).When the foreground image is generated, the image stabilization apparatus delays the foreground image by one frame to match the synchronization of the generated foreground image with the next image (S200).

그리고 나서 영상 안정화 장치는 기준영상의 특징점들로부터, 한 프레임 지연된 전경영상 중 동적물체에 해당하는 특징점들을 제거하고, 배경에 해당하는 특징점들을 선택한다(S300).Then, the image stabilization apparatus removes the feature points corresponding to the dynamic object from the foreground image delayed by one frame from the feature points of the reference image, and selects the feature points corresponding to the background (S300).

영상 안정화 장치는 입력된 다음영상에서 기준영상의 선택된 특징점을 추적하여 대응점을 찾고 대응점을 이용하여 기준영상 및 다음영상 사이의 움직임을 산출한다(S400). 여기서 대응점 찾는다는 것은, 기준영상에서 선택된 특징점들이 다음영상의 어디에 위치하는지 찾는 작업이라고 할 수 있다. 이와 같이 대응점이 획득되면, 움직임 산출부(160)는 대응점을 이용하여 기준영상 대비 다음영상이 얼만큼 움직였는지를 나타내는 움직임량을 산출한다.The image stabilization apparatus tracks selected feature points of the reference image from the input next image, finds a corresponding point, and calculates a motion between the reference image and the next image using the corresponding point (S400). In this case, searching for a corresponding point may be an operation of finding where the selected feature points in the reference image are located in the next image. When the corresponding point is obtained as described above, the motion calculator 160 calculates a motion amount indicating how much the next image moves relative to the reference image using the corresponding point.

영상 안정화 장치는 산출된 움직임량을 이용하여 다음영상을 변환시켜 안정화된 영상을 생성한다(S500).The image stabilization apparatus generates the stabilized image by converting the next image using the calculated motion amount (S500).

본 발명의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. In the specification (particularly in the claims) of the present invention, the use of the term “above” and similar indicating terminology may correspond to both the singular and the plural. In addition, in the present invention, when the range is described, it includes the invention to which the individual values belonging to the range are applied (when there is no description thereof), and each individual value constituting the range is described in the detailed description of the invention. Same as

본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.If the steps constituting the method according to the invention are not explicitly stated or contrary to the steps, the steps may be performed in a suitable order. The present invention is not necessarily limited to the description order of the above steps. The use of all examples or exemplary terms (eg, etc.) in the present invention is merely for describing the present invention in detail and is not limited by the claims, and thus the scope of the present invention is limited by the examples or exemplary terms. It doesn't happen. Also, one of ordinary skill in the art appreciates that various modifications, combinations and changes can be made in accordance with design conditions and factors within the scope of the appended claims or their equivalents.

따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Accordingly, the spirit of the present invention should not be limited to the above-described embodiments, and all the scope equivalent to or equivalent to the scope of the claims as well as the claims to be described below are within the scope of the spirit of the present invention. Will belong to.

100: 카메라 110: 영상 처리부
120: 특징점 추출부 130: 전경영상 생성부
140: 지연부 150: 특징점 선택부
160: 움직임 산출부 170: 영상 보정부
100: camera 110: image processing unit
120: feature point extractor 130: foreground image generator
140: delay unit 150: feature point selector
160: motion calculation unit 170: image correction unit

Claims (5)

제1영상의 특징점을 추출하는 특징점 추출부;
상기 제1영상의 특징점들 중 동적물체에 대응하는 특징점들은 제거하고, 배경에 대응하는 특징점들을 선택하는 특징점 선택부;
제2영상에서, 상기 제1영상에서 선택된 특징점들을 추적하여, 상기 제2영상에서 상기 제1영상의 선택된 특징점들에 대응하는 대응점들을 획득하고, 상기 제2영상의 대응점들을 이용하여 상기 제2영상의 움직임을 산출하는 움직임 산출부; 및
상기 제2영상의 움직임을 보정한 안정화된 영상을 생성하는 영상 보정부;를 포함하는 것을 특징으로 하는 영상 안정화 장치.
A feature point extracting unit extracting feature points of the first image;
A feature point selector that removes feature points corresponding to a dynamic object among the feature points of the first image and selects feature points corresponding to a background;
In the second image, the feature points selected in the first image are traced to obtain corresponding points corresponding to the selected feature points of the first image in the second image, and the second image is obtained using the corresponding points in the second image. A motion calculator configured to calculate a motion of the motion controller; And
And an image corrector configured to generate a stabilized image correcting the movement of the second image.
제1항에 있어서,
상기 제1영상과 상기 제2영상의 이전영상인 제3영상의 차영상으로부터 전경영상을 생성하는 전경영상 생성부;를 더 포함하고,
상기 특징점 선택부는 상기 제1영상의 특징점들 중 상기 전경영상의 동적물체에 대응하는 특징점들을 제거하는, 영상 안정화 장치.
The method of claim 1,
And a foreground image generator which generates a foreground image from a difference image of a third image that is a previous image of the first image and the second image.
The feature point selector removes feature points corresponding to the dynamic object of the foreground image among the feature points of the first image.
제2항에 있어서,
상기 전경영상 생성부는, 상기 제1영상과 상기 제3영상을 각각 그레이 스케일 영상으로 변환 및 리사이즈한 후의 차영상으로부터 상기 전경영상을 생성하는, 영상 안정화 장치.
The method of claim 2,
The foreground image generating unit generates the foreground image from the difference image after converting and resizing the first image and the third image into a gray scale image, respectively.
제1항에 있어서,
상기 제1영상 및 상기 제2영상을 획득하는 카메라;를 더 포함하는 영상 안정화 장치.
The method of claim 1,
And a camera for acquiring the first image and the second image.
제1항 내지 제4항 중 어느 한 항의 영상 안정화 장치를 포함하는 스마트폰.
Smartphone comprising the image stabilization device of any one of claims 1 to 4.
KR1020200005606A 2020-01-15 2020-01-15 Apparatus and method for stabilizing image KR102213201B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200005606A KR102213201B1 (en) 2020-01-15 2020-01-15 Apparatus and method for stabilizing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200005606A KR102213201B1 (en) 2020-01-15 2020-01-15 Apparatus and method for stabilizing image

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020140007467A Division KR102069269B1 (en) 2013-07-12 2014-01-21 Apparatus and method for stabilizing image

Publications (2)

Publication Number Publication Date
KR20200010527A true KR20200010527A (en) 2020-01-30
KR102213201B1 KR102213201B1 (en) 2021-02-05

Family

ID=69322138

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200005606A KR102213201B1 (en) 2020-01-15 2020-01-15 Apparatus and method for stabilizing image

Country Status (1)

Country Link
KR (1) KR102213201B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090034836A (en) * 2006-06-27 2009-04-08 마벨 월드 트레이드 리미티드 Systems and methods for a motion compensated picture rate converter
US20100074531A1 (en) * 2008-09-24 2010-03-25 Fujifilm Corporation Image processing apparatus, method and computer program product
JP2011003057A (en) 2009-06-19 2011-01-06 Casio Computer Co Ltd Image composition device, image specifying method, image composition method, and program
KR101202642B1 (en) * 2011-09-30 2012-11-19 고려대학교 산학협력단 Method and apparatus for estimating global motion using the background feature points
KR20140002401A (en) * 2012-06-29 2014-01-08 삼성전자주식회사 Cameara apparatus and method for tracking object of the camera apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090034836A (en) * 2006-06-27 2009-04-08 마벨 월드 트레이드 리미티드 Systems and methods for a motion compensated picture rate converter
US20100074531A1 (en) * 2008-09-24 2010-03-25 Fujifilm Corporation Image processing apparatus, method and computer program product
JP2011003057A (en) 2009-06-19 2011-01-06 Casio Computer Co Ltd Image composition device, image specifying method, image composition method, and program
KR101202642B1 (en) * 2011-09-30 2012-11-19 고려대학교 산학협력단 Method and apparatus for estimating global motion using the background feature points
KR20140002401A (en) * 2012-06-29 2014-01-08 삼성전자주식회사 Cameara apparatus and method for tracking object of the camera apparatus

Also Published As

Publication number Publication date
KR102213201B1 (en) 2021-02-05

Similar Documents

Publication Publication Date Title
KR102069269B1 (en) Apparatus and method for stabilizing image
US8189960B2 (en) Image processing apparatus, image processing method, program and recording medium
US8077214B2 (en) Signal processing apparatus, signal processing method, program and recording medium
KR101883481B1 (en) Apparatus and method for stabilizing image
US10764496B2 (en) Fast scan-type panoramic image synthesis method and device
JP4500875B2 (en) Method and apparatus for removing motion blur effect
KR101524548B1 (en) Apparatus and method for alignment of images
CN110796041B (en) Principal identification method and apparatus, electronic device, and computer-readable storage medium
JP2016038415A (en) Imaging apparatus, control method thereof, program, and storage medium
JP2016009998A (en) Imaging apparatus, imaging method and program
JP4947576B2 (en) Imaging apparatus, blur correction method, and imaging method
JP6282133B2 (en) Imaging device, control method thereof, and control program
JP2019101997A (en) Image processing apparatus and image processing method reducing noise by composing plural captured images
JP2006325274A (en) Imaging device
JP2006049949A (en) Image processing apparatus, image processing method and program thereof
JP2019047336A (en) Image processing apparatus, imaging device, image processing method, and program
KR101603876B1 (en) Method for fabricating a panorama
KR102213201B1 (en) Apparatus and method for stabilizing image
JP2015080157A (en) Image processing device, image processing method and program
JP2019075716A (en) Image processing device, image processing method, and program
JP6029464B2 (en) Imaging device, control method thereof, and control program
JP2021005798A (en) Imaging apparatus, control method of imaging apparatus, and program
JP2014153517A (en) Image processing device, image processing method, program, and storage medium
JP2014039105A (en) Image processor, image processing method, and computer program
JP2019083407A (en) Image blur correction device and control method therefor, and imaging device

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant