KR102213201B1 - Apparatus and method for stabilizing image - Google Patents

Apparatus and method for stabilizing image Download PDF

Info

Publication number
KR102213201B1
KR102213201B1 KR1020200005606A KR20200005606A KR102213201B1 KR 102213201 B1 KR102213201 B1 KR 102213201B1 KR 1020200005606 A KR1020200005606 A KR 1020200005606A KR 20200005606 A KR20200005606 A KR 20200005606A KR 102213201 B1 KR102213201 B1 KR 102213201B1
Authority
KR
South Korea
Prior art keywords
image
feature points
foreground
motion
feature
Prior art date
Application number
KR1020200005606A
Other languages
Korean (ko)
Other versions
KR20200010527A (en
Inventor
유연걸
박상지
이활석
윤석민
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020200005606A priority Critical patent/KR102213201B1/en
Publication of KR20200010527A publication Critical patent/KR20200010527A/en
Application granted granted Critical
Publication of KR102213201B1 publication Critical patent/KR102213201B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 동적 환경에서 강인하게 동작하는 영상 안정화 장치 및 방법에 관한 것이다. 영상 안정화 장치는, 기설정된 기준영상 및 현재영상의 차영상으로부터 배경 및 동적물체를 포함하는 전경영상을 생성하는 전경영상 생성부, 기준영상의 특징점들로부터 전경영상 중 동적물체에 해당하는 특징점들을 제거하고, 배경에 해당하는 특징점들을 선택하는 특징점 선택부, 입력된 다음영상에서 기준영상의 선택된 특징점을 추적하여 대응점을 찾고 대응점을 이용하여 기준영상 및 다음영상 사이의 움직임을 산출하는 움직임 산출부 및 움직임을 이용하여 다음영상을 변환시켜 안정화된 영상을 생성하는 영상 보정부를 포함한다.The present invention relates to an image stabilization apparatus and method that operates robustly in a dynamic environment. The image stabilization device includes a foreground image generator that generates a foreground image including a background and a dynamic object from a difference image between a preset reference image and a current image, and removes feature points corresponding to the dynamic object among the foreground images from the feature points of the reference image. And, a feature point selector that selects feature points corresponding to the background, a motion calculator that tracks the selected feature point of the reference image from the input next image to find a corresponding point, and calculates a motion between the reference image and the next image using the corresponding point, and motion It includes an image correction unit for generating a stabilized image by converting the next image by using.

Figure R1020200005606
Figure R1020200005606

Description

영상 안정화 장치 및 방법{Apparatus and method for stabilizing image}Apparatus and method for stabilizing image}

본 발명은 동적 환경에서 강인하게 동작하는 영상 안정화 장치 및 방법에 관한 것이다.The present invention relates to an image stabilization apparatus and method that operates robustly in a dynamic environment.

최근 멀티미디어 기기의 사용이 증가함에 따라 다양한 환경에서 촬영된 디지털 영상에 대한 화질개선(image enhancement) 기술에 대한 수요도 증가하고 있다. 화질개선 기술에는 영상의 번짐 제거, 잡음 제거 및 영상 안정화 기술 등이 있으며, 디지털 카메라, 스마트폰, 가정용 카메라나 캠코더, 산업용 감시 카메라, 방송용 카메라 및 군사용 영상 촬영 장치와 같은 촬영장치에 이르기까지 광범위하게 적용된다. 초기 촬영장치는 기존의 아날로그 영상을 디지털화하여 영상을 만들어 내는 데 그쳤다. 그러나 최근 사용되는 촬영장치는 각종 선처리 및 후처리 보정 기술이 적용되어 기존의 아날로그 영상보다 더욱 깨끗하고 선명한 화질의 디지털 영상을 얻을 수 있게 되었다.Recently, as the use of multimedia devices increases, the demand for image enhancement technology for digital images photographed in various environments is also increasing. Image quality improvement technologies include image blur removal, noise removal, and image stabilization technologies, and are widely used in shooting devices such as digital cameras, smartphones, home cameras or camcorders, industrial surveillance cameras, broadcasting cameras, and military video recording devices. Apply. Early photographing devices only digitized existing analog images to create images. However, recently used photographing apparatuses have applied various pre-processing and post-processing correction technologies to obtain digital images with clearer and clearer quality than conventional analog images.

디지털 영상 보정 기술 중에서 가장 보편적으로 사용되는 기술이 영상 안정화(image stabilization) 기술이다. 사용자가 촬영장치를 들고 촬영할 경우 또는 이동 중 촬영할 경우에 흔들림이 발생하게 되며, 자동차, 비행기 또는 헬기와 같은 이동수단에 설치된 카메라의 경우에는 기계적 진동이나 지면과의 마찰 등 여러 환경적 요인에 의해 원치 않는 흔들림이 생기게 된다. 또한 줌 렌즈(zoom lens)의 배율이 올라가면서 약간의 움직임에도 화면 흔들림이 심해지는 문제가 있다. 영상 안정화 기술은 이와 같이 촬영시 촬영장치가 흔들릴 때 깨끗하고 선명한 영상을 얻을 수 있는 기술로서, 촬영된 영상에서 발생하는 원치 않은 흔들림을 제거하기 위해 적용된다.Among the digital image correction technologies, the most commonly used technology is image stabilization. Shaking occurs when a user takes a picture with a photographic device or when filming while moving, and in the case of a camera installed in a vehicle, such as a car, airplane, or helicopter, it is caused by various environmental factors such as mechanical vibration or friction with the ground. There is no shaking. In addition, as the magnification of the zoom lens increases, there is a problem that the screen shake becomes severe even with slight movement. The image stabilization technology is a technology capable of obtaining a clear and clear image when the photographing device shakes during photographing, and is applied to remove unwanted shake that occurs in the photographed image.

기존의 영상 안정화 기술은 기준영상에서 특징점을 추출하고, 현재영상에서 특징점 추적을 이용하여 대응점을 찾고, 기준영상 및 현재영상 사이의 움직임을 계산하고, 계산된 움직임으로 현재영상을 변환하여 안정된 영상을 생성한다. 이러한 영상 안정화 기술에서는 배경영상의 움직임을 이용하여 영상을 안정화 하므로, 배경영상에서 추출된 특징점을 이용하여 영상의 움직임을 계산하게 된다. 그러나 동적 물체 위에서 추출된 특징점이 영상의 움직임 계산에 이용되는 경우에는 영상의 움직임 계산에 무시할 수 없는 오차를 발생시킬 수 있고, 결과적으로 영상 안정화에 실패하는 요인이 된다.Existing image stabilization technology extracts a feature point from a reference image, finds a corresponding point using feature point tracking in the current image, calculates the motion between the reference image and the current image, and converts the current image into the calculated motion to obtain a stable image. Generate. In this image stabilization technique, since the image is stabilized by using the motion of the background image, the motion of the image is calculated using the feature points extracted from the background image. However, when a feature point extracted on a dynamic object is used for motion calculation of an image, an error that cannot be ignored may occur in the motion calculation of an image, and as a result, it becomes a factor in which image stabilization fails.

일본 공개특허공보 제2011-003057호Japanese Laid-Open Patent Publication No. 2011-003057

본 발명이 해결하고자 하는 기술적인 과제는 전경영상을 이용하여 동적 물체 위의 특징점을 제거하여 동적 환경에서도 강인하게 동작하는 영상 안정화 장치 및 방법을 제공하는데 있다.A technical problem to be solved by the present invention is to provide an image stabilization apparatus and method that operates robustly even in a dynamic environment by removing feature points on a dynamic object using a foreground image.

본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 일 실시 예에 따른 영상 안정화 장치는 기설정된 기준영상 및 현재영상의 차영상으로부터 배경 및 동적물체를 포함하는 전경영상을 생성하는 전경영상 생성부; 상기 기준영상의 특징점들로부터 상기 전경영상 중 동적물체에 해당하는 특징점들을 제거하고, 상기 배경에 해당하는 특징점들을 선택하는 특징점 선택부; 입력된 다음영상에서 상기 기준영상의 선택된 특징점을 추적하여 대응점을 찾고 상기 대응점을 이용하여 상기 기준영상 및 상기 다음영상 사이의 움직임량을 산출하는 움직임 산출부; 및 상기 움직임량을 이용하여 상기 다음영상을 변환시켜 안정화된 영상을 생성하는 영상 보정부;를 포함하는 것을 특징으로 한다.An image stabilization apparatus according to an embodiment for solving a technical problem to be achieved by the present invention includes: a foreground image generator configured to generate a foreground image including a background and a dynamic object from a difference image between a preset reference image and a current image; A feature point selection unit for removing feature points corresponding to the dynamic object in the foreground image from feature points of the reference image and selecting feature points corresponding to the background; A motion calculator configured to find a corresponding point by tracking the selected feature point of the reference image from the input next image, and calculate a motion amount between the reference image and the next image using the corresponding point; And an image correction unit for generating a stabilized image by converting the next image using the amount of motion.

본 발명에 있어서, 상기 전경영상 생성부는, 상기 차영상에 블랍 필터(blob filter)를 적용하여 노이즈를 제거하는 것을 특징으로 한다.In the present invention, the foreground image generator is characterized in that noise is removed by applying a blob filter to the difference image.

본 발명에 있어서, 상기 전경영상과 상기 다음영상의 동기를 일치시키기 위해 상기 전경영상을 한 프레임 지연시키는 지연부;를 더 포함하는 것을 특징으로 한다.In the present invention, it characterized in that it further comprises a delay unit for delaying the foreground image by one frame in order to match the synchronization between the foreground image and the next image.

본 발명이 이루고자 하는 기술적인 과제를 해결하기 위한 일 실시 예에 따른 영상 안정화 방법은 기설정된 기준영상 및 현재영상의 차영상으로부터 배경 및 동적물체를 포함하는 전경영상을 생성하는 전경영상 생성단계; 상기 기준영상의 특징점들로부터 상기 전경영상 중 동적물체에 해당하는 특징점들을 제거하고, 상기 배경에 해당하는 특징점들을 선택하는 특징점 선택단계; 입력된 다음영상에서 상기 기준영상의 선택된 특징점을 추적하여 대응점을 찾고 상기 대응점을 이용하여 상기 기준영상 및 상기 다음영상 사이의 움직임량을 산출하는 움직임 산출단계; 및 상기 움직임량을 이용하여 상기 다음영상을 변환시켜 안정화된 영상을 생성하는 영상 보정단계;를 포함하는 것을 특징으로 한다.An image stabilization method according to an embodiment for solving a technical problem to be achieved by the present invention includes a foreground image generation step of generating a foreground image including a background and a dynamic object from a difference image between a preset reference image and a current image; A feature point selection step of removing feature points corresponding to the dynamic object in the foreground image from feature points of the reference image and selecting feature points corresponding to the background; A motion calculation step of tracking a selected feature point of the reference image in the input next image to find a corresponding point, and calculating a motion amount between the reference image and the next image using the corresponding point; And an image correction step of generating a stabilized image by converting the next image using the amount of motion.

본 발명에 있어서, 상기 전경영상 생성단계는, 상기 차영상에 블랍 필터링(blob filtering)을 적용하여 노이즈를 제거하는 단계;를 포함하는 것을 특징으로 한다.In the present invention, the foreground image generation step includes removing noise by applying blob filtering to the difference image.

본 발명에 있어서, 상기 전경영상과 상기 다음영상의 동기를 일치시키기 위해 상기 전경영상을 한 프레임 지연시키는 지연단계;를 더 포함하는 것을 특징으로 한다.In the present invention, it characterized in that it further comprises a delay step of delaying the foreground image by one frame in order to match the synchronization between the foreground image and the next image.

상술한 바와 같이 본 발명에 따르면, 기존의 영상 안정화 기술은 영상에 동적 물체가 차지하는 비중이 커지면 영상 안정화에 실패 하였지만, 본 실시 예에 따른 영상 안정화 기술은 영상에 동적 물체가 차지하는 비중이 큰 경우에도 영상을 안정화 시킬 수 있다. 예를 들어, 사람 또는 자동차 등과 같이 영상에 동적 물체가 많은 환경에서의 영상 안정화에 활용할 수 있다.As described above, according to the present invention, the existing image stabilization technology fails to stabilize the image when the proportion occupied by the dynamic object in the image increases, but the image stabilization technology according to the present embodiment fails even when the proportion occupied by the dynamic object in the image is large. You can stabilize the video. For example, it can be used for image stabilization in an environment where there are many dynamic objects in the image, such as a person or a car.

또한 전경영상을 생성하는 종래의 방법은 계산량이 많은 배경 모델링 기법을 이용하였기 때문에 처리 속도가 느리지만, 본 실시 예에 따른 영상 안정화 기술에서는 기준영상과 안정화된 현재영상의 차영상을 이용하기 때문에 빠르게 전경영상을 생성할 수 있다. 이 전경영상은 다른 영상분석 알고리즘에 적용할 수 있다.In addition, the conventional method of generating the foreground image is slow because the background modeling technique with a large amount of computation is used, but the image stabilization technology according to the present embodiment uses the difference image between the reference image and the stabilized current image. You can create a foreground image. This foreground image can be applied to other image analysis algorithms.

또한 본 실시 예에 따른 영상 안정화 기술을 이용하여, 고정된 카메라, 이동하는 카메라, PTZ 카메라에서의 영상 정합에 활용할 수 있고, 이는 움직임 검출, 물체 추적, 물체 검출, 물체 인식 등에 이용할 수 있다.In addition, the image stabilization technology according to the present embodiment can be used for image matching in a fixed camera, a moving camera, and a PTZ camera, which can be used for motion detection, object tracking, object detection, and object recognition.

더 나아가 본 실시 예에 따른 영상 안정화 기술을 이용하여 동적 환경에서 두 영상의 대응점을 강인하게 찾을 수 있다.Furthermore, by using the image stabilization technology according to the present embodiment, it is possible to find a correspondence point between two images in a dynamic environment.

도 1은 본 발명의 일 실시 예에 따른 영상 안정화 장치의 구성을 보이는 블록도 이다.
도 2는 본 발명의 일 실시 예에 따른 특징점 추출을 설명하는 도면이다.
도 3은 본 발명의 일 실시 예에 따른 임의의 영상을 이용하여 영상 안정화를 설명하는 도면이다.
도 4는 본 발명의 일 실시 예에 따른 영상 안정화 방법의 동작을 보이는 흐름도 이다.
1 is a block diagram showing the configuration of an image stabilization apparatus according to an embodiment of the present invention.
2 is a diagram illustrating feature point extraction according to an embodiment of the present invention.
3 is a diagram illustrating image stabilization using an arbitrary image according to an embodiment of the present invention.
4 is a flowchart showing an operation of an image stabilization method according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 설명되는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 아래에서 제시되는 실시 예들로 한정되는 것이 아니라, 서로 다른 다양한 형태로 구현될 수 있고, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 아래에 제시되는 실시 예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to embodiments described in detail together with the accompanying drawings. However, it should be understood that the present invention is not limited to the embodiments presented below, but may be implemented in a variety of different forms, and includes all transformations, equivalents, or substitutes included in the spirit and scope of the present invention. . The embodiments presented below are provided to complete the disclosure of the present invention, and to fully inform a person of ordinary skill in the art to which the present invention belongs. In describing the present invention, when it is determined that a detailed description of a related known technology may obscure the subject matter of the present invention, a detailed description thereof will be omitted.

본 출원에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.The terms used in the present application are used only to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present application, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance. Terms such as first and second may be used to describe various elements, but the elements should not be limited by the terms. These terms are used only for the purpose of distinguishing one component from another component.

이하, 본 발명에 따른 실시 예들을 첨부된 도면을 참조하여 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어, 동일하거나 대응하는 구성 요소는 동일한 도면번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings, and in the description with reference to the accompanying drawings, identical or corresponding components are assigned the same reference numbers, and redundant descriptions thereof are omitted. I will do it.

도 1은 본 발명의 일 실시 예에 따른 영상 안정화 장치의 구성을 보이는 블록도 이다.1 is a block diagram showing the configuration of an image stabilization apparatus according to an embodiment of the present invention.

도 1을 참조하면, 영상 안정화 장치(10)는 카메라(100), 영상 처리부(110), 특징점 추출부(120), 전경영상 생성부(130), 지연부(140), 특징점 선택부(150), 움직임 산출부(160) 및 영상 보정부(170)를 포함한다.Referring to FIG. 1, the image stabilization apparatus 10 includes a camera 100, an image processing unit 110, a feature point extraction unit 120, a foreground image generation unit 130, a delay unit 140, and a feature point selection unit 150. ), a motion calculation unit 160 and an image correction unit 170.

카메라(100)는, 예컨대 COMS(complementary metal-oxide semiconductor) 모듈 또는 CCD(charge coupled device) 모듈 등을 이용하여 피사체를 촬영하는 카메라를 의미하는 것으로, 동일한 피사체에 대하여 입력되는 이미지(또는 동영상)는 렌즈를 통해 COMS 모듈 또는 CCD 모듈로 제공되고, COMS 모듈 또는 CCD 모듈은 렌즈를 통과한 피사체의 광신호를 전기적 신호(촬영 신호)로 변환하여 출력한다. 더 나아가 카메라(100)는 열상 카메라 일 수도 있다. 열상 카메라는 각 물체로부터 방출되는 복사 에너지에 의해 물체와 그 물체의 주변 배경 간의 온도 차이를 검출하고 이를 전기 신호로 변환하여 영상화하는 카메라를 말한다.The camera 100 refers to a camera that photographs a subject using, for example, a complementary metal-oxide semiconductor (COMS) module or a charge coupled device (CCD) module, and an image (or video) input to the same subject is It is provided as a COMS module or a CCD module through a lens, and the COMS module or CCD module converts an optical signal of a subject passing through the lens into an electrical signal (photographing signal) and outputs it. Furthermore, the camera 100 may be a thermal camera. A thermal camera refers to a camera that detects a temperature difference between an object and its surrounding background by radiant energy emitted from each object, converts it into an electrical signal, and image.

영상 처리부(110)은 카메라(100)로부터 출력되는 영상 신호에 대해 노이즈를 저감하고, 감마 보정(Gamma Correction), 색필터 배열보간(color filter array interpolation), 색 매트릭스(color matrix), 색보정(color correction), 색 향상(color enhancement) 등의 화질 개선을 위한 영상 신호 처리를 수행한다. 또한, 영상 처리부(110)은 화질 개선을 위한 영상 신호 처리를 하여 생성한 영상 데이터를 압축 처리하여 영상 파일을 생성할 수 있으며, 또는 상기 영상 파일로부터 영상 데이터를 복원할 수 있다. 영상의 압축형식은 가역 형식 또는 비가역 형식을 포함한다. 또한, 영상 처리부(110)에서는 기능적으로 색채 처리, 블러 처리, 에지 강조 처리, 영상 해석 처리, 영상 인식 처리, 영상 이펙트 처리 등도 행할 수 있다. 영상 인식 처리로 얼굴 인식, 장면 인식 처리 등을 행할 수 있다. 예를 들어, 휘도 레벨 조정, 색 보정, 콘트라스트 조정, 윤곽 강조 조정, 화면 분할 처리, 캐릭터 영상 등 생성 및 영상의 합성 처리 등을 행할 수 있다.The image processing unit 110 reduces noise with respect to the image signal output from the camera 100, gamma correction, color filter array interpolation, color matrix, color correction ( Image signal processing for image quality improvement, such as color correction and color enhancement, is performed. In addition, the image processing unit 110 may generate an image file by compressing image data generated by processing an image signal for image quality improvement, or may restore image data from the image file. The video compression format includes a reversible format or an irreversible format. In addition, the image processing unit 110 may functionally perform color processing, blur processing, edge enhancement processing, image analysis processing, image recognition processing, and image effect processing. Face recognition, scene recognition processing, and the like can be performed by image recognition processing. For example, luminance level adjustment, color correction, contrast adjustment, outline enhancement adjustment, screen division processing, character image generation and image synthesis processing, and the like can be performed.

특징점 추출부(120)는 영상 처리부(110)로부터 영상 처리되어 출력되는 기준영상, 현재영상(피드백된 안정화된 현재영상) 및 다음영상으로부터 특징점들을 검출한다. 이러한 특징점들은 각각 좌표로써 표시될 수 있다. 영상은 다양한 특징 요소를 구비하고 있으며, 사용자의 필요에 따라 이들 다양한 특징 요소들 중 일부가 특징점들로써 추출될 수 있다. 영상으로부터 특징점들을 검출하기 위하여 해리스(harris)의 코너 검출 방법, SIFT(scale invariant feature transform) 알고리즘, SURF(speeded up robust feature) 알고리즘 등을 이용할 수 있다.The feature point extracting unit 120 detects feature points from a reference image, a current image (feedback stabilized current image) and a next image that are image-processed and output from the image processing unit 110. Each of these feature points can be displayed as coordinates. The image includes various feature elements, and some of these various feature elements may be extracted as feature points according to the needs of the user. To detect feature points from an image, a Harris corner detection method, a scale invariant feature transform (SIFT) algorithm, a speeded up robust feature (SURF) algorithm, and the like can be used.

이러한 특징점 추출부(120)는 안정화된 현재영상으로부터 특징점을 추출하는 제1 특징점 추출부(121), 기준영상으로부터 특징점을 추출하는 제2 특징점 추출부(122) 및 다음영상으로부터 특징점을 추출하는 제3 특징점 추출부(123)를 포함할 수 있다. 여기서, 기준영상은, 물체를 촬영하여 생성된 영상 데이터에 포함되는 영상들 중에서 흔들림이 가장 적은 영상을 나타내며, 흔들림이 가장 적은 영상을 기준영상으로 설정할 수 있다.The feature point extracting unit 120 includes a first feature point extracting unit 121 for extracting feature points from the stabilized current image, a second feature point extracting unit 122 for extracting feature points from a reference image, and a second feature point extracting unit 122 for extracting feature points from the next image. 3 may include a feature point extraction unit 123. Here, the reference image represents an image having the least shaking among images included in image data generated by photographing an object, and an image having the least shaking may be set as the reference image.

도 2는 본 발명의 일 실시 예에 따른 특징점 추출을 설명하는 도면이다. 도 2를 참조하면, 도 2a는 임의의 영상(현재영상, 기준영상, 다음영상)을 나타내고, 도 2b는 축소 영상을 나타내고, 도 2c는 축소된 영상에 대한 엣지 영상을 나타낸다. 특징점 추출부(120)는 엣지 영상 내의 임의의 블록(예를 들어, 3×3 블록) 내에 존재하는 엣지의 개수가 임계값을 초과하는 경우, 해당 블록을 특징점으로 추출할 수 있다. 여기서, 특징점 추적에 실패할 확률이 높은 엣지 위에 존재하는 특징점을 제거하고, 엣지가 교차하거나 코너에 위치하는 특징점을 선택하기 위해서, 블록의 폭과 너비를 조정하여 임계값의 변경이 가능하다. 도 2d는 엣지 영상 내의 블록 내에 존재하는 엣지의 개수가 임계값을 초과하여 추출된 특징점들을 보이고 있다.2 is a diagram illustrating feature point extraction according to an embodiment of the present invention. Referring to FIG. 2, FIG. 2A shows an arbitrary image (current image, reference image, and next image), FIG. 2B shows a reduced image, and FIG. 2C shows an edge image for a reduced image. The feature point extracting unit 120 may extract the corresponding block as a feature point when the number of edges existing in an arbitrary block (eg, 3×3 block) in the edge image exceeds a threshold value. Here, in order to remove a feature point existing on an edge with a high probability of failing to track the feature point, and select a feature point at which the edge intersects or at a corner, the threshold value can be changed by adjusting the width and width of the block. FIG. 2D shows feature points extracted because the number of edges in a block in the edge image exceeds a threshold value.

전경영상 생성부(130)는 기준영상 및 현재영상의 차영상으로부터 배경 및 동적 물체를 포함하는 전경영상을 생성한다. 전경영상 생성부(130)는 기준영상 및 현재영상을 각각 그레이 스케일 영상으로 변환하고, 리사이즈 한 후 차영상으로부터 배경 및 동적 물체를 포함하는 전경영상을 생성한다. 도 3a에는 임의의 기준영상이 도시되어 있고, 도 3b에는 임의의 안정화된 현재영상이 도시되어 있고, 도 3c에는 기준영상 및 안정화된 현재영상의 차영상인, 배경 및 동적 물체를 포함하는 전경영상이 도시되어 있다. 여기서 차영상에 미디언 필터(median filter) 등과 같은 블랍(blob) 필터를 적용하여 노이즈를 제거할 수 있다. 여기서, 차영상을 기준영상과 안정화된 현재영상을 이용하여 구하는 이유는, 첫째, 성공적을 안정된 영상이 획득되었다면, 기준영상과 안정화된 현재영상은 서로 정합(alignment) 되어 있기 때문에 차영상은 이론적으로 동적 물체를 나타낸다. 둘째, 기존의 배경 모델링 기법(background modeling technique)을 이용할 수도 있지만, 처리 속도가 느리기 때문에 본 실시 예에서는 고속 처리를 고려하여 기준영상 및 안정화된 현재영상의 차영상을 이용한다.The foreground image generator 130 generates a foreground image including a background and a dynamic object from a difference image between the reference image and the current image. The foreground image generation unit 130 converts the reference image and the current image into gray scale images, respectively, resizes, and then generates a foreground image including a background and a dynamic object from the difference image. 3A shows a random reference image, FIG. 3B shows a random stabilized current image, and FIG. 3C shows a foreground image including a background and a dynamic object, which is a difference between the reference image and the stabilized current image. Is shown. Here, noise may be removed by applying a blob filter such as a median filter to the difference image. Here, the reason for obtaining the difference image using the reference image and the stabilized current image is: First, if a successful and stable image is obtained, the difference image is theoretically because the reference image and the stabilized current image are aligned with each other. Represents a dynamic object. Second, although an existing background modeling technique may be used, since the processing speed is slow, the present embodiment uses the difference image between the reference image and the stabilized current image in consideration of high-speed processing.

지연부(140)는 생성된 전경영상과 다음영상의 동기를 일치시키기 위해 전경영상을 한 프레임 지연시킨다.The delay unit 140 delays the foreground image by one frame in order to synchronize the generated foreground image with the next image.

특징점 선택부(150)는 기준영상의 특징점들로부터, 한 프레임 지연된 전경영상 중 동적물체에 해당하는 특징점들을 제거하고, 배경에 해당하는 특징점들을 선택한다. 도 3d에는 특징점들을 포함하는 기준영상이 도시되어 있고, 도 3e에는 전경영상의 동적물체 상에 해당하는 특징점들을 기준영상으로부터 제거하고, 전경영상의 배경 상에 해당하는 특징점들을 기준영상에서 선택하는 도면이 도시되어 있다. 이와 같이 특징점 선택부(150)는 기준영상의 특징점들로부터 전경영상 중 동적물체에 해당하는 특징점들을 제거하고, 배경에 해당하는 특징점들을 선택한다.The feature point selection unit 150 removes feature points corresponding to the dynamic object among the foreground image delayed by one frame from the feature points of the reference image, and selects feature points corresponding to the background. Fig. 3D shows a reference image including feature points, and Fig. 3E is a diagram in which feature points corresponding to the dynamic object of the foreground image are removed from the reference image, and feature points corresponding to the background of the foreground image are selected from the reference image. Is shown. In this way, the feature point selection unit 150 removes feature points corresponding to the dynamic object among the foreground image from the feature points of the reference image, and selects feature points corresponding to the background.

움직임 산출부(160)는 입력된 다음영상에서 기준영상의 선택된 특징점을 추적하여 대응점을 찾고 대응점을 이용하여 기준영상 및 다음영상 사이의 움직임을 산출한다. 도 3e에는 선택된 특징점을 포함하는 기준영상이 도시되어 있고, 도 3f에는 특징점을 포함하는 다음영상이 도시되어 있다. 움직임 산출부(160)는 입력된 다음영상에서 기준영상의 선택된 특징점을 추적하여 대응점을 획득한다. 여기서 대응점 획득이라 함은, 기준영상에서 선택된 특징점들이 다음영상의 어디에 위치하는지 찾는 작업이라고 할 수 있다. 대응점 획득 방법은 공지된 KLT(kanade-lucas-tomasi) 추적기 알고리즘, 테일러 시리즈(taylor expansion) 및 헤시안 매트릭스(hessian matrix)를 이용할 수 있다. 이와 같이 대응점이 획득되면, 움직임 산출부(160)는 대응점을 이용하여 기준영상 대비 다음영상이 얼만큼 움직였는지를 나타내는 움직임량을 산출한다.The motion calculator 160 finds a corresponding point by tracking the selected feature point of the reference image from the input next image, and calculates a motion between the reference image and the next image using the corresponding point. FIG. 3E shows a reference image including the selected feature point, and FIG. 3F shows a next image including the feature point. The motion calculator 160 acquires a corresponding point by tracking the selected feature point of the reference image from the input next image. Here, the acquisition of the corresponding point may be referred to as an operation of finding where the feature points selected from the reference image are located in the next image. A method of obtaining a corresponding point may use a known Kanade-lucas-tomasi (KLT) tracker algorithm, a taylor expansion, and a Hessian matrix. When the corresponding point is obtained in this way, the motion calculation unit 160 calculates a motion amount indicating how much of the next image relative to the reference image has moved using the corresponding point.

영상 보정부(170)는 산출된 움직임량을 이용하여 다음영상을 변환시켜 안정화된 영상을 생성한다.The image correction unit 170 generates a stabilized image by converting the next image using the calculated amount of motion.

이어서, 도 4를 참조하여 본 발명의 일 실시 예에 따른 영상 안정화 방법의 동작을 보이는 흐름도 이다. 본 발명에 따른 영상 안정화 방법은 도 1에 도시된 바와 같이 주변 구성요소들의 도움을 받아 영상 안정화 장치에서 수행될 수 있다. 이하의 설명에서 도 1 내지 도 3에 대한 설명과 중복되는 부분은 그 설명을 생략하기로 한다.Next, referring to FIG. 4 is a flowchart showing an operation of an image stabilization method according to an exemplary embodiment of the present invention. The image stabilization method according to the present invention may be performed in an image stabilization apparatus with the help of surrounding elements as shown in FIG. 1. In the following description, portions overlapping with the descriptions of FIGS. 1 to 3 will be omitted.

영상 안정화 장치는 기준영상 및 현재영상의 차영상으로부터 배경 및 동적 물체를 포함하는 전경영상을 생성한다(S100). 영상 안정화 장치는 기준영상 및 현재영상을 각각 그레이 스케일 영상으로 변환하고, 리사이즈 한 후 차영상으로부터 배경 및 동적 물체를 포함하는 전경영상을 생성한다. 여기서, 차영상을 기준영상과 안정화된 현재영상을 이용하여 구하는 이유는, 첫째, 성공적을 안정된 영상이 획득되었다면, 기준영상과 안정화된 현재영상은 서로 정합(alignment) 되어 있기 때문에 차영상은 이론적으로 동적 물체를 나타낸다. 둘째, 기존의 배경 모델링 기법(background modeling technique)을 이용할 수도 있지만, 처리 속도가 느리기 때문에 본 실시 예에서는 고속 처리를 고려하여 기준영상 및 안정화된 현재영상의 차영상을 이용한다.The image stabilization apparatus generates a foreground image including a background and a dynamic object from the difference image between the reference image and the current image (S100). The image stabilization apparatus converts the reference image and the current image into gray scale images, respectively, resizes, and then generates a foreground image including a background and a dynamic object from the difference image. Here, the reason for obtaining the difference image using the reference image and the stabilized current image is: First, if a successful and stable image is obtained, the difference image is theoretically because the reference image and the stabilized current image are aligned with each other. Represents a dynamic object. Second, although an existing background modeling technique may be used, since the processing speed is slow, the present embodiment uses the difference image between the reference image and the stabilized current image in consideration of high-speed processing.

영상 안정화 장치는 전경영상이 생성되면, 생성된 전경영상과 다음영상의 동기를 일치시키기 위해 전경영상을 한 프레임 지연시킨다(S200).When the foreground image is generated, the image stabilization apparatus delays the foreground image by one frame in order to synchronize the generated foreground image with the next image (S200).

그리고 나서 영상 안정화 장치는 기준영상의 특징점들로부터, 한 프레임 지연된 전경영상 중 동적물체에 해당하는 특징점들을 제거하고, 배경에 해당하는 특징점들을 선택한다(S300).Then, the image stabilization apparatus removes the feature points corresponding to the dynamic object among the foreground image delayed by one frame from the feature points of the reference image, and selects the feature points corresponding to the background (S300).

영상 안정화 장치는 입력된 다음영상에서 기준영상의 선택된 특징점을 추적하여 대응점을 찾고 대응점을 이용하여 기준영상 및 다음영상 사이의 움직임을 산출한다(S400). 여기서 대응점 찾는다는 것은, 기준영상에서 선택된 특징점들이 다음영상의 어디에 위치하는지 찾는 작업이라고 할 수 있다. 이와 같이 대응점이 획득되면, 움직임 산출부(160)는 대응점을 이용하여 기준영상 대비 다음영상이 얼만큼 움직였는지를 나타내는 움직임량을 산출한다.The image stabilization apparatus finds a corresponding point by tracking the selected feature point of the reference image from the input next image, and calculates a motion between the reference image and the next image using the corresponding point (S400). Here, finding the corresponding point can be said to be an operation of finding where the feature points selected in the reference image are located in the next image. When the corresponding point is obtained in this way, the motion calculation unit 160 calculates a motion amount indicating how much of the next image relative to the reference image has moved using the corresponding point.

영상 안정화 장치는 산출된 움직임량을 이용하여 다음영상을 변환시켜 안정화된 영상을 생성한다(S500).The image stabilization apparatus generates a stabilized image by converting the next image using the calculated motion amount (S500).

본 발명의 명세서(특히 특허청구범위에서)에서 "상기"의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. In the specification of the present invention (especially in the claims), the use of the term "above" and a reference term similar thereto may correspond to both the singular and the plural. In addition, when a range is described in the present invention, the invention to which an individual value falling within the range is applied (unless otherwise stated), and each individual value constituting the range is described in the detailed description of the invention. Same as

본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.If there is no explicit order or contrary to the steps constituting the method according to the present invention, the steps may be performed in a suitable order. The present invention is not necessarily limited according to the order of description of the steps. The use of all examples or illustrative terms (for example, etc.) in the present invention is merely for describing the present invention in detail, and the scope of the present invention is limited by the above examples or illustrative terms unless limited by the claims. It does not become. In addition, those skilled in the art can recognize that various modifications, combinations, and changes may be configured according to design conditions and factors within the scope of the appended claims or their equivalents.

따라서, 본 발명의 사상은 상기 설명된 실시 예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 또는 이로부터 등가적으로 변경된 모든 범위는 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention is limited to the above-described embodiments and should not be determined, and all ranges equivalent to or equivalently changed from the claims to be described later as well as the claims to be described later are the scope of the spirit of the present invention. It will be said to belong to.

100: 카메라 110: 영상 처리부
120: 특징점 추출부 130: 전경영상 생성부
140: 지연부 150: 특징점 선택부
160: 움직임 산출부 170: 영상 보정부
100: camera 110: image processing unit
120: feature point extraction unit 130: foreground image generation unit
140: delay unit 150: feature point selection unit
160: motion calculation unit 170: image correction unit

Claims (6)

삭제delete 제1영상의 특징점들을 추출하는 특징점 추출부;
상기 제1영상의 특징점들 중 동적물체에 대응하는 특징점들은 제거하고, 배경에 대응하는 특징점들을 선택하는 특징점 선택부;
제2영상에서 상기 제1영상의 선택된 특징점들을 추적하여, 상기 제2영상에서 상기 제1영상의 선택된 특징점들에 대응하는 대응점들을 획득하고, 상기 제2영상의 대응점들을 이용하여 상기 제2영상의 움직임을 산출하는 움직임 산출부;
상기 제2영상의 움직임을 보정한 안정화된 영상을 생성하는 영상 보정부; 및
상기 제1영상과 상기 제2영상의 이전영상인 제3영상의 차영상으로부터 전경영상을 생성하는 전경영상 생성부;를 더 포함하고,
상기 특징점 선택부는 상기 제1영상의 특징점들 중 상기 전경영상의 동적물체에 대응하는 특징점들을 제거하는, 영상 안정화 장치.
A feature point extraction unit for extracting feature points of the first image;
A feature point selection unit for removing feature points corresponding to the dynamic object among feature points of the first image and selecting feature points corresponding to the background;
By tracking selected feature points of the first image in a second image, corresponding points corresponding to the selected feature points of the first image are obtained in the second image, and corresponding points of the second image are A motion calculator for calculating a motion;
An image correction unit generating a stabilized image obtained by correcting the motion of the second image; And
A foreground image generator for generating a foreground image from a difference image between the first image and a third image that is a previous image of the second image; further comprising,
The feature point selector removes feature points corresponding to the dynamic object of the foreground image among feature points of the first image.
제2항에 있어서,
상기 전경영상 생성부는, 상기 제1영상과 상기 제3영상을 각각 그레이 스케일 영상으로 변환 및 리사이즈한 후의 차영상으로부터 상기 전경영상을 생성하는, 영상 안정화 장치.
The method of claim 2,
The foreground image generating unit generates the foreground image from a difference image after converting and resizing the first image and the third image into a gray scale image, respectively.
제2항에 있어서,
상기 제1영상 및 상기 제2영상을 획득하는 카메라;를 더 포함하는 영상 안정화 장치.
The method of claim 2,
An image stabilization apparatus further comprising a camera that acquires the first image and the second image.
제2항 내지 제4항 중 어느 한 항의 영상 안정화 장치를 포함하는 스마트폰.
A smartphone comprising the image stabilization device of any one of claims 2 to 4.
제1영상의 특징점들을 추출하는 단계;
상기 제1영상의 특징점들 중 전경영상을 기초로 동적물체에 대응하는 특징점들은 제거하고, 배경에 대응하는 특징점들을 선택하는 단계;
제2영상에서 상기 제1영상의 선택된 특징점들을 추적하여, 상기 제2영상에서 상기 제1영상의 선택된 특징점들에 대응하는 대응점들을 획득하고, 상기 제2영상의 대응점들을 이용하여 상기 제2영상의 움직임을 산출하는 단계; 및
상기 제2영상의 움직임을 보정한 안정화된 영상을 생성하는 단계;를 포함하고,
상기 전경영상은 상기 제1영상과 상기 제2영상의 이전영상인 제3영상의 차영상으로부터 생성된, 것을 특징으로 하는 영상 안정화 방법.
Extracting feature points of the first image;
Removing feature points corresponding to the dynamic object based on the foreground image among the feature points of the first image and selecting feature points corresponding to the background;
By tracking selected feature points of the first image in a second image, corresponding points corresponding to the selected feature points of the first image are obtained in the second image, and corresponding points of the second image are Calculating motion; And
Generating a stabilized image obtained by correcting the motion of the second image; including,
The foreground image is generated from a difference image between the first image and a third image that is a previous image of the second image.
KR1020200005606A 2020-01-15 2020-01-15 Apparatus and method for stabilizing image KR102213201B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200005606A KR102213201B1 (en) 2020-01-15 2020-01-15 Apparatus and method for stabilizing image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200005606A KR102213201B1 (en) 2020-01-15 2020-01-15 Apparatus and method for stabilizing image

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020140007467A Division KR102069269B1 (en) 2013-07-12 2014-01-21 Apparatus and method for stabilizing image

Publications (2)

Publication Number Publication Date
KR20200010527A KR20200010527A (en) 2020-01-30
KR102213201B1 true KR102213201B1 (en) 2021-02-05

Family

ID=69322138

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200005606A KR102213201B1 (en) 2020-01-15 2020-01-15 Apparatus and method for stabilizing image

Country Status (1)

Country Link
KR (1) KR102213201B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100074531A1 (en) 2008-09-24 2010-03-25 Fujifilm Corporation Image processing apparatus, method and computer program product
KR101202642B1 (en) * 2011-09-30 2012-11-19 고려대학교 산학협력단 Method and apparatus for estimating global motion using the background feature points

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8340185B2 (en) * 2006-06-27 2012-12-25 Marvell World Trade Ltd. Systems and methods for a motion compensated picture rate converter
JP2011003057A (en) 2009-06-19 2011-01-06 Casio Computer Co Ltd Image composition device, image specifying method, image composition method, and program
KR101964861B1 (en) * 2012-06-29 2019-04-02 삼성전자주식회사 Cameara apparatus and method for tracking object of the camera apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100074531A1 (en) 2008-09-24 2010-03-25 Fujifilm Corporation Image processing apparatus, method and computer program product
KR101202642B1 (en) * 2011-09-30 2012-11-19 고려대학교 산학협력단 Method and apparatus for estimating global motion using the background feature points

Also Published As

Publication number Publication date
KR20200010527A (en) 2020-01-30

Similar Documents

Publication Publication Date Title
KR102069269B1 (en) Apparatus and method for stabilizing image
US11665427B2 (en) Still image stabilization/optical image stabilization synchronization in multi-camera image capture
US8189960B2 (en) Image processing apparatus, image processing method, program and recording medium
KR101803712B1 (en) Image processing apparatus, control method, program, and recording medium
US8077214B2 (en) Signal processing apparatus, signal processing method, program and recording medium
US10764496B2 (en) Fast scan-type panoramic image synthesis method and device
KR101883481B1 (en) Apparatus and method for stabilizing image
KR101603791B1 (en) Method for fabricating a panorama
KR101524548B1 (en) Apparatus and method for alignment of images
JP2009193421A (en) Image processing device, camera device, image processing method, and program
JP5499050B2 (en) Image processing apparatus, imaging apparatus, and image processing method
JP6656035B2 (en) Image processing apparatus, imaging apparatus, and control method for image processing apparatus
JP2012114520A (en) Image processing device, image processing method, and image processing program
KR101860310B1 (en) Method and apparatus for generating a panoramic image by using a video shot by an unmanned aerial vehicle
JP4947576B2 (en) Imaging apparatus, blur correction method, and imaging method
JP2006049949A (en) Image processing apparatus, image processing method and program thereof
KR101603876B1 (en) Method for fabricating a panorama
JP2019101997A (en) Image processing apparatus and image processing method reducing noise by composing plural captured images
JP2019047336A (en) Image processing apparatus, imaging device, image processing method, and program
KR102213201B1 (en) Apparatus and method for stabilizing image
JP2015154334A (en) Imaging apparatus, control method thereof and control program
JP2015080157A (en) Image processing device, image processing method and program
EP3605450B1 (en) Image processing apparatus, image pickup apparatus, control method of image processing apparatus, and computer-program
JP6245847B2 (en) Image processing apparatus and image processing method
JP2017229025A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant