KR101396838B1 - Video stabilization method and system by selection one of various motion models - Google Patents

Video stabilization method and system by selection one of various motion models Download PDF

Info

Publication number
KR101396838B1
KR101396838B1 KR1020130007885A KR20130007885A KR101396838B1 KR 101396838 B1 KR101396838 B1 KR 101396838B1 KR 1020130007885 A KR1020130007885 A KR 1020130007885A KR 20130007885 A KR20130007885 A KR 20130007885A KR 101396838 B1 KR101396838 B1 KR 101396838B1
Authority
KR
South Korea
Prior art keywords
image
motion
motion models
stabilized
models
Prior art date
Application number
KR1020130007885A
Other languages
Korean (ko)
Inventor
배주한
최병호
송혁
황영배
김정호
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020130007885A priority Critical patent/KR101396838B1/en
Application granted granted Critical
Publication of KR101396838B1 publication Critical patent/KR101396838B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • G06T3/18
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Abstract

Provided are a method and a system for stabilizing an image by selectively using multiple motion models. A method for stabilizing an image according to an embodiment of the present invention comprises creating stabilization images, of which the shaking cause by a photographing device is corrected, by using multiple motion models, by unit of motion model; comparing a key frame with the stabilization images to select one of the motion models; and outputting an stabilization image by using the selected motion model. Therefore, the distortion which can occur in the signal model estimation can be minimized by selecting the best motion model among motion models in an image with shaking phenomenon due to a camera and correcting the shaking.

Description

다수의 모션 모델을 선택적으로 이용하는 영상 안정화 방법 및 시스템{Video Stabilization Method and System by Selection One of Various Motion Models}TECHNICAL FIELD [0001] The present invention relates to a video stabilization method and system for selectively using a plurality of motion models,

본 발명은 영상처리에 관한 것으로, 더욱 상세하게는 카메라의 흔들림으로부터 영상을 안정화시키기 위한 방법 및 시스템에 관한 것이다.
The present invention relates to image processing, and more particularly, to a method and system for stabilizing an image from camera shake.

기존 영상 안정화 방법에서는 현재 프레임과 최근접 프레임간의 특징점 대응관계를 이용하여 카메라 모션을 추정한다. 하지만, 이 과정에서 이동체의 움직임이 크지 않은 경우에는 배경으로 포함되어 영상 안정화가 비정상적으로 수행될 여지가 있다In the conventional image stabilization method, the camera motion is estimated using the correspondence relation between the current frame and the nearest neighboring frame. However, if the movement of the moving object is not large in this process, there is a possibility that the image stabilization is performed abnormally by being included as the background

또한, 영상 안정화에 이용되는 낮은 복잡도의 모션 모델은 영상의 시점 왜곡이나 비틀어짐을 제대로 표현할 수 없고, 높은 복잡도의 모션 모델은 특징점이 화면에 고르게 분포되지 않을 경우 부분적으로 왜곡된 안정화 영상을 보여준다.In addition, the low-complexity motion model used for image stabilization can not accurately represent the viewpoint distortion or twist of the image, and the high-complexity motion model shows the partially distorted stabilized image if the feature points are not uniformly distributed on the screen.

이에 따라, 입력 영상의 내용과 상태를 불문한 최적의 안정화 방안에 대한 모색이 요청된다.
Accordingly, it is required to search for an optimal stabilization scheme regardless of the content and state of the input image.

본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, visual sickness를 줄이기 위한 방안으로, 카메라의 흔들림이 발생한 영상에 대해 다수의 모션 모델들 중 최선의 모션 모델을 선정하여 흔들림을 보상하는 영상 안정화 방법 및 장치를 제공함에 있다.
SUMMARY OF THE INVENTION It is an object of the present invention to reduce visual sickness by selecting a best motion model among a plurality of motion models for an image in which camera shake occurs, And to provide an image stabilization method and apparatus for compensating for shaking.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 영상 안정화 방법은, 다수의 모션 모델들을 이용하여, 촬영장치에 의한 흔들림이 보상된 안정화 영상들을 상기 모션 모델들 별로 생성하는 단계; 키 프레임과 상기 안정화 영상들을 비교하여, 상기 다수의 모션 모델들 중 하나를 선정하는 단계; 및 상기 선정 단계에서 선정된 모션 모델을 이용한 안정화 영상을 출력하는 단계;를 포함한다.According to an aspect of the present invention, there is provided an image stabilization method comprising: generating stabilized images compensated for shaking by a photographing apparatus for each motion model using a plurality of motion models; Comparing the key frames with the stabilized images, and selecting one of the plurality of motion models; And outputting the stabilized image using the motion model selected in the selecting step.

그리고, 상기 다수의 모션 모델들은, 서로 다른 복잡도를 갖는 모션 모델들일 수 있다.The plurality of motion models may be motion models having different complexities.

또한, 상기 선정 단계는, 상기 안정화 영상들을 상기 키 프레임에 워핑시키는 단계; 및 워핑된 안정화 영상들과 상기 키 프레임의 색상차가 최소인 안정화 영상을 생성한 모션 모델을 선정하는 단계;를 포함할 수 있다.The selecting may further include: warping the stabilized images to the key frame; And selecting a motion model that generates a stabilized image having a minimum color difference between the warped stabilized images and the key frame.

그리고, 본 발명의 일 실시예에 따른 영상 안정화 방법은, 다수의 모션 모델들을 최적화시키는 단계;를 더 포함하고, 상기 생성 단계는, 상기 최적화 단계에서 최적화된 상기 다수의 모션 모델들을 이용할 수 있다.The image stabilization method according to an embodiment of the present invention further includes optimizing a plurality of motion models, and the generation step may use the plurality of motion models optimized in the optimization step.

또한, 본 발명의 일 실시예에 따른, 영상 안정화 방법은, 영상에서 배경 부분의 특징점들을 추적하는 단계; 및 상기 추적 단계에서 추적된 배경 부분의 특징점들로부터, 특징점 궤적을 예측하는 단계;를 더 포함하고, 상기 최적화 단계는, 상기 예측 단계에서 예측된 상기 특징점 궤적에 상기 다수의 모션 모델들을 최적화시킬 수 있다.According to another aspect of the present invention, there is provided an image stabilization method comprising: tracking feature points of a background portion in an image; And predicting a feature point trajectory from the feature points of the background portion traced in the tracing step, wherein the optimizing step optimizes the plurality of motion models to the feature point trajectory predicted in the predicting step have.

그리고, 상기 추적 단계는, 특징점 대응으로 영상에서 추출된 특징점들을 추적하되, 이동체로 판단되는 부분들의 특징점들은 제거할 수 있다.The tracking step may track feature points extracted from the image corresponding to the feature points, and may remove feature points of the parts determined to be the mobile object.

또한, 본 발명의 일 실시예에 따른, 영상 안정화 방법은, 과거 프레임들 중에서 카메라의 흔들림이 가장 많이 반영된 프레임을 키 프레임으로 선택하는 단계;를 더 포함하고, 상시 선정 단계는, 상기 선택 단계에서 선택된 키 프레임을 이용할 수 있다.According to another aspect of the present invention, there is provided a method of stabilizing an image, the method comprising: selecting a frame in which a camera shake is most reflected among past frames as a key frame; The selected key frame can be used.

한편, 본 발명의 다른 실시예에 따른, 영상 안정화 장치는, 촬영장치에 의해 생성된 영상을 입력받는 영상 입력부; 및 다수의 모션 모델들을 이용하여, 상기 촬영장치에 의한 흔들림이 보상된 안정화 영상들을 상기 모션 모델들 별로 생성하고, 키 프레임과 상기 안정화 영상들을 비교하여 상기 다수의 모션 모델들 중 하나를 선정하는 프로세서고, 선정된 모션 모델을 이용한 안정화 영상을 출력하는 프로세서;를 포함한다.
According to another aspect of the present invention, there is provided an image stabilization apparatus including: an image input unit receiving an image generated by a photographing apparatus; And a processor for generating stabilized images compensated for shaking by the photographing apparatus for each of the motion models using the plurality of motion models and comparing the key frames and the stabilized images to select one of the plurality of motion models, And a processor for outputting a stabilized image using the selected motion model.

이상 설명한 바와 같이, 본 발명의 실시예에 따르면, 카메라의 흔들림이 발생한 영상에 대해 다수의 모션 모델들 중 최선의 모션 모델을 선정하여 흔들림을 보상할 수 있어, 영상에서의 visual sickness를 효과적으로 줄일 수 있게 된다. 즉, 본 발명의 실시예에 따르면, 다양한 모션 모델을 사용함으로써 단일 모델 추정에서 생길 수 있는 왜곡을 최소화할 수 있게 되는 것이다.As described above, according to the embodiment of the present invention, it is possible to compensate for the shaking by selecting the best motion model among a plurality of motion models for an image in which camera shake occurs, thereby effectively reducing visual sickness in the image . That is, according to the embodiment of the present invention, by using various motion models, it is possible to minimize the distortion that may occur in single model estimation.

또한, 일정 길이의 특징점 궤적정보를 이용함으로써 프레임간 특징점 대응보다 신뢰성 있는 특징점 대응 정보를 추출할 수 있다. 아울러, 특징점 궤적 예측을 통하여 사용자의 눈이 편안한 안정화 영상을 생성한다.Further, by using the feature point locus information of a predetermined length, it is possible to extract reliable feature point correspondence information corresponding to inter-frame feature point correspondence. In addition, the stabilized image of the user's eye is generated through the feature point trajectory prediction.

뿐만 아니라, 영상에서 이동체를 제거한 후에 안정화 영상들을 생성하기 때문에 카메라의 흔들림에 대한 정확한 보상이 가능해진다.In addition, since the stabilized images are generated after removing the moving object from the image, it is possible to accurately compensate the camera shake.

아울러, 과거 프레임들 중에서 카메라의 흔들림이 가장 많이 반영된 프레임을 키 프레임으로 이용하기 때문에, 안정화 과정에서의 왜곡 발생을 최소화할 수 있게 된다.
In addition, since the frame in which the camera shake is most reflected in the past frames is used as the key frame, the occurrence of distortion in the stabilization process can be minimized.

도 1은 본 발명이 적용가능한 감시 시스템을 도시한 도면,
도 2는, 도 1에 도시된 영상 분석 서버의 상세 블럭도,
도 3은 본 발명의 바람직한 실시예에 따른 영상 안정화 방법의 설명에 제공되는 흐름도,
도 4는 본 발명의 실시예에서 사용가능한 모션 모델들을 예시한 도면,
도 5는 특징점 궤적 예측의 부연 설명에 제공되는 도면, 그리고,
도 6은 모션 모델 최적화 과정의 부연 설명에 제공되는 도면이다.
1 shows a monitoring system to which the present invention is applicable,
FIG. 2 is a detailed block diagram of the image analysis server shown in FIG. 1,
FIG. 3 is a flow chart for explaining an image stabilization method according to a preferred embodiment of the present invention,
4 is a diagram illustrating motion models that can be used in an embodiment of the present invention,
FIG. 5 is a diagram provided for a further description of the feature point trajectory prediction,
6 is a diagram provided in a side view of the motion model optimization process.

이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

이하, 첨부 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정하여 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms, and the inventor should appropriately interpret the concept of the term appropriately in order to describe its own invention in the best way. The present invention should be construed in accordance with the meaning and concept consistent with the technical idea of the present invention.

따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
Therefore, the embodiments described in this specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and do not represent all the technical ideas of the present invention. Therefore, It is to be understood that equivalents and modifications are possible.

1. 본 발명이 적용가능한 시스템1. System to which the present invention is applicable

도 1은 본 발명이 적용가능한 감시 시스템을 도시한 도면이다. 본 발명이 적용가능한 감시 시스템은 영상을 촬영하여 관제, 분석 및 검색을 수행하기 위한 시스템이다.1 is a diagram showing a monitoring system to which the present invention is applicable. A surveillance system to which the present invention can be applied is a system for photographing an image to perform monitoring, analysis and search.

이와 같은 기능을 수행하는 감시 시스템은, 도 1에 도시된 바와 같이, CCTV 카메라(110), 관제 서버(120), 영상 분석 서버(130), 영상 DB(140), 메타 데이터 DB(150) 및 영상 검색 서버(160)를 포함한다.As shown in FIG. 1, the surveillance system that performs the above functions includes a CCTV camera 110, a control server 120, an image analysis server 130, an image DB 140, a metadata DB 150, And an image search server 160.

CCTV 카메라(110)는 옥내 또는 옥외에 설치되어 해당 구역을 촬영하여 영상을 생성하고, 생성된 영상을 관제 서버(120)와 영상 분석 서버(130)로 전송한다.The CCTV camera 110 is installed indoors or outdoors, captures an image of the corresponding area and generates an image, and transmits the generated image to the control server 120 and the image analysis server 130.

관제 서버(120)는 CCTV 카메라(110)로부터 전달받은 영상에 타임 스탬프를 부가하여 영상 DB(140)에 저장한다. 또한, 관제 서버(120)는 관리자가 모니터링할 수 있도록 CCTV 카메라(110)로부터 전달받은 영상을 실시간으로 디스플레이할 수 있다.The control server 120 adds a time stamp to the image received from the CCTV camera 110 and stores the time stamp in the image DB 140. In addition, the control server 120 can display an image received from the CCTV camera 110 in real time so that an administrator can monitor it.

영상 분석 서버(130)는 CCTV 카메라(110)로부터 전달받은 영상을 안정화시킨 후 분석하여 메타 데이터를 생성하고, 생성된 메타 데이터를 해당 영상에 부여된 타임 스탬프와 함께 메타 데이터 DB(150)에 저장한다. 영상 분석 서버(130)에 대해서는, 도 2를 참조하여 상세히 후술한다.The image analysis server 130 stabilizes the image received from the CCTV camera 110, analyzes the image to generate metadata, and stores the generated metadata in a metadata DB 150 together with a time stamp assigned to the image do. The image analysis server 130 will be described later in detail with reference to FIG.

메타 데이터는, 영상에 나타난 객체의 특징 정보로, 객체가 사람인 경우 얼굴 특징, 옷 색상 등이 메타 데이터로 생성되고, 객체가 차량인 경우 차량의 색상, 크기 및 번호 등이 메타 데이터로 생성된다.The meta data is feature information of the object displayed on the image. When the object is a person, the face feature, clothes color, and the like are generated as metadata. When the object is a vehicle, the color, size, and number of the vehicle are generated as metadata.

영상 검색 서버(160)는 메타 데이터 DB(150)에서 찾고자 하는 메타 데이터를 검색하고, 검색된 메타 데이터에 매칭된 타임 스탬프가 부여된 영상을 영상 DB(140)에서 검색한다.
The image search server 160 searches the meta data DB 150 for the meta data to be searched and searches the image DB 140 for the image to which the timestamp matched to the searched meta data is attached.

2. 영상 분석 서버2. Image analysis server

이하에서, 전술한 영상 분석 서버(130)에 대해 도 2를 참조하여 상세히 설명한다. 도 2는, 도 1에 도시된 영상 분석 서버(130)의 상세 블럭도이다. 영상 분석 서버(130)는 도 2에 도시된 바와 같이, 영상 입력부(131), 프로세서(132), 저장부(137), DB 인터페이스(138) 및 서버 인터페이스(139)를 포함한다.Hereinafter, the above-described image analysis server 130 will be described in detail with reference to FIG. 2 is a detailed block diagram of the image analysis server 130 shown in FIG. The image analysis server 130 includes an image input unit 131, a processor 132, a storage unit 137, a DB interface 138, and a server interface 139, as shown in FIG.

영상 입력부(131)는 CCTV 카메라(110)로부터 영상을 수신하여 프로세서(132)로 전달하기 위한 인터페이스 및 버퍼링 수단이다.The image input unit 131 is an interface and buffering means for receiving an image from the CCTV camera 110 and delivering the image to the processor 132.

프로세서(132)는 영상 입력부(131)를 통해 전달받은 영상을 분석하기 위한 영상 처리 수단으로, 도 2에 도시된 바와 같이, 영상 안정화 모듈(133), 객체 추출/추적 모듈(134), 특징 추출 모듈(135) 및 이벤트 추출 모듈(136)을 포함한다.2, the processor 132 includes an image stabilization module 133, an object extraction / tracking module 134, a feature extraction module 134, Module 135 and an event extraction module 136. [

영상 안정화 모듈(133)은 영상 입력부(131)를 통해 전달받은 영상에서 CCTV 카메라(110)에 의한 흔들림을 보상하여 영상을 안정화시킨다. 영상 안정화 방법에 대해서는 도 3을 참조하여 상세히 후술한다.The image stabilization module 133 stabilizes the image by compensating for the shake caused by the CCTV camera 110 in the image received through the image input unit 131. [ The image stabilization method will be described later in detail with reference to FIG.

객체 추출/추적 모듈(134)은 영상 안정화 모듈(133)에서 안정화된 영상에서 객체를 실시간으로 추출하고, 추출된 객체를 실시간으로 추적한다.The object extraction / tracking module 134 extracts the object in real time from the stabilized image in the image stabilization module 133, and tracks the extracted object in real time.

특징 추출 모듈(135)은 추출/추적되는 객체에서 특징을 추출하고, 추출된 특징을 메타 데이터로 생성한다. 특징 추출 모듈(135)에 의해 생성된 메타 데이터는 DB 인터페이스(138)를 통해 메타 데이터 DB(150)에 저장된다.The feature extraction module 135 extracts features from extracted / tracked objects and generates extracted features as metadata. The metadata generated by the feature extraction module 135 is stored in the metadata DB 150 via the DB interface 138.

이벤트 추출 모듈(137)은 영상 내에서 발생하는 이벤트를 추출하여 이벤트 정보를 생성한다. 예를 들어, 사람이나 자동차가 위험 영역이나 보안 영역에 진입한 경우 이벤트가 발생한 것으로 취급할 수 있다.The event extraction module 137 extracts events occurring in the image and generates event information. For example, if a person or a car enters a danger zone or a security zone, it can be treated as an event.

이벤트 추출 모듈(137)에 의해 생성된 이벤트 정보는, 서버 인터페이스(139)를 통해 관제 서버(120)에 전달되어 관리자에게 알람 할 수 있다.The event information generated by the event extraction module 137 may be transmitted to the control server 120 via the server interface 139 to alert the administrator.

저장부(137)는 프로세서(132)의 모듈들(133 내지 136)이 영상 처리를 수행함에 있어 필요한 저장 공간을 제공한다.
The storage unit 137 provides necessary storage space for the modules 133 to 136 of the processor 132 to perform image processing.

3. 영상 안정화 방법3. Image stabilization method

이하에서, 전술한 영상 안정화 모듈(133)에 의한 영상 안정화 과정에 대해 도 3을 참조하여 상세히 설명한다. 도 3은 본 발명의 바람직한 실시예에 따른 영상 안정화 방법의 설명에 제공되는 흐름도이다.Hereinafter, the image stabilization process by the image stabilization module 133 will be described in detail with reference to FIG. FIG. 3 is a flowchart illustrating a method of stabilizing an image according to a preferred embodiment of the present invention.

본 실시예에 따른 영상 안정화 방법에서는 복잡도가 각기 다른 여러 가지 모션 모델들 중 최선의 모션 모델을 선정하여 영상을 안정화시키는데, 구체적인 과정은 아래와 같다.In the image stabilization method according to the present embodiment, the best motion model among various motion models with different complexities is selected to stabilize the image. The concrete procedure is as follows.

도 3에 도시된 바와 같이, 입력 영상에서 배경 부분의 특징점들을 추출하여 추적한다(S210). 구체적으로 S210단계에서는, 특징점 대응(Finding feature correspondences)으로 추출된 특징점을 추적하되, 이동체로 판단되는 부분들의 특징점들은 제거하는 방식으로 수행된다.As shown in FIG. 3, the feature points of the background portion are extracted and tracked in the input image (S210). Specifically, in step S210, feature points extracted by finding feature correspondences are tracked, and feature points of parts determined as a moving object are removed.

이동체 부분의 특징점들은 특징점 변화의 누적 정보를 이용하여, 기존의 프레임간 모션 변화를 이용한 방법 보다 효과적으로 제거시킬 수 있다.The feature points of the moving object portion can be effectively removed by using the cumulative information of the feature point change, compared with the conventional method using the inter-frame motion change.

다음, S210단계에서 추출/추적된 배경 부분의 특징점들로부터, 흔들림이 없는 경우에 대한 특징점 궤적을 예측(Feature trajectory prediction)을 수행한다(S220).Next, in step S220, feature trajectory prediction for a case where there is no shaking is performed from the feature points of the background part extracted / tracked (S220).

이후, 여러 가지 모션 모델들을 S220단계에서 예측된 궤적에 가장 유사하게 최적화(Optimization for motion model) 시킨다(S230). S230단계에서는, simple translation, similarity transform, affine transform, projective transform 등의 모델들이 적용될 수 있다.Thereafter, various motion models are optimized (Optimization for motion model) most similar to the predicted trajectory in step S220 (S230). In step S230, models such as simple translation, similarity transform, affine transform, and projective transform can be applied.

또한, 과거 프레임들 중에서 카메라의 흔들림이 가장 많이 반영된 프레임을 키 프레임으로 선택(Key frame selection)한다(S240).In addition, a key frame is selected as a key frame in which the camera shake is most reflected in past frames (S240).

그리고, S230단계에서 최적화된 모션 모델들을 이용하여 흔들림이 보상된 안정화 영상들을 모션 모델별로 생성하고, S240단계에서 선택된 키 프레임과의 비교 결과를 통해 최선의 모션 모델을 선정한다(S250).In step S230, the stabilized images compensated for the shake are generated for each motion model using the optimized motion models, and the best motion model is selected based on the comparison result with the key frame selected in step S240 (S250).

구체적으로 S250단계에서는, 안정화 영상들을 키 프레임에 워핑시키고, 워핑된 안정화 영상들과 키 프레임의 색상차가 최소인 안정화 영상을 생성한 모션 모델을 선정하게 된다.Specifically, in step S250, a stabilized image is warped to a key frame, and a motion model that generates a stabilized image having a minimum color difference between the warped stabilized images and the key frame is selected.

이후, S250단계에서 선정된 모션 모델을 이용하여 생성한 안정화 영상이, 영상 안정화 결과로 출력된다.Thereafter, the stabilized image generated using the motion model selected in step S250 is output as the image stabilization result.

이하에서, 도 2에 도시된 각 단계들에 구체적으로 설명한다.
Hereinafter, each of the steps shown in FIG. 2 will be described in detail.

4. 배경 부분의 특징점 추출/추적4. Extraction / tracking of feature points of the background part

기존의 영상 안정화 방법들은 대부분 최근접 프레임과의 특징점 대응을 구하여 모션 모델을 추정한다. 하지만, 카메라의 모션이 작을 경우 이동체를 효과적으로 분리하지 못하는 단점이 있다.Most of the conventional image stabilization methods estimate the motion model by obtaining the feature point correspondence with the nearest frame. However, if the motion of the camera is small, there is a disadvantage that the moving object can not be effectively separated.

따라서, 본 발명의 실시예에서는 일정 시구간(윈도우 크기 W: 관찰 프레임 길이) 내에서의 특징점 궤적을 이용하여 윈도우 내의 프레임과 현재 프레임 T와의 가중 재투영 에러(Reprojection Error : 모션 모델을 이용하여 이동한 특징점 위치와 실제 특징점 위치와의 누적 거리 차이) 합이 임계치를 넘는다면 이동체로 판단하는 방법을 이용하여 이동체를 분리한다.Therefore, in the embodiment of the present invention, a weighting re-projection error between a frame in a window and a current frame T using a feature point trajectory within a certain time period (window size W: observation frame length) The cumulative distance difference between a minutiae point and an actual minutiae position). If the sum exceeds the threshold value, the mobile device is separated using a method of determining the mobile device.

한편, 본 실시예에서 사용하는 모션 모델들을 도 4에 나타내었는데, 복잡도가 높을수록 화면의 다양한 움직임을 표현할 수 있지만 균등하게 특징점이 추출되지 않는다면 낮은 복잡도 모델에 비하여 더 많은 왜곡을 보일 수 있다.
The motion models used in the present embodiment are shown in FIG. 4. The higher the complexity is, the more various motions of the screen can be expressed. However, if the feature points are not extracted uniformly, more distortion can be shown compared with the low complexity model.

5. 특징점 궤적 예측5. Feature point trajectory prediction

본 발명의 실시예에서, 특징점은 코너 또는 다양한 불편 특징량 기반 특징점을 사용 가능하고, 특징점 추적은 optical flow 방식의 tracker를 사용 가능하다. 입력 영상으로부터 이동체가 제거된 배경의 특징점 대응은 아래와 같이 나타낼 수 있다.In the embodiment of the present invention, the feature point can be a corner or various unfavorable feature amount based feature points, and the feature point tracking can use an optical flow type tracker. The feature point correspondence of the background from which the moving object is removed from the input image can be expressed as follows.

Figure 112013006951593-pat00001
Figure 112013006951593-pat00001

한편, 기존의 영상 안정화 방법은 프레임간 특징점 대응을 이용하여 모션 smoothing(모션 모델의 파라미터들의 궤적을 부드럽게 만드는 과정)을 통하여 모션 모델을 추정한다. 하지만, 전제적으로 부드러운 카메라 모션을 만들기 위해서 영상 전체 모션에 대한 smoothing이 필요하기 때문에 실시간 영상 안정화가 필요한 어플리케이션에서는 사용할 수 없다.On the other hand, the conventional image stabilization method estimates the motion model through motion smoothing (process of softening the trajectory of the parameters of the motion model) using the inter-frame feature point correspondence. However, since it is necessary to smoothing the entire motion of the image to create a smooth camera motion, it can not be used in applications requiring real-time image stabilization.

따라서, 본 발명의 실시예에서는 주어진 특징점 궤적 정보를 이용하여 현재 프레임 T에 대한 특징점을 예측하고, 이와의 차이를 최소화하는 방법으로 모션 모델을 추정한다.Therefore, in the embodiment of the present invention, the motion model is estimated by using the given feature point trajectory information to predict the feature point for the current frame T and minimize the difference therebetween.

추정 방법으로는 궤적의 움직임을 주어진 함수 형태로 모델링하는 기법과 주어진 데이터를 바탕으로 변수들간의 관계를 예측하는 통계적 방법인 Regression 기법이 있다. 또한, 영화 촬영 관점에서 시청자가 느끼는 영상 안정화에 의한 시각적 피로도를 줄이고 자연스러운 안정화 영상을 생성하기 위해는 D를 미분 함수라 할 경우 특징점 궤적 RT는 다음과 같은 부분들의 조합으로 이루어진다. Estimation methods include the method of modeling the motion of a trajectory in a given function form and the regression technique, which is a statistical method for predicting the relationship between variables based on given data. Also, in order to reduce visual fatigue due to image stabilization and to generate a natural stabilized image, the feature trajectory R T is a combination of the following parts when D is a differential function.

1) 정지 카메라 (static camera) : D1T(t) = 01) static camera: D 1 T (t) = 0

2) 등속 카메라 모션 (camera motion with constant velocity) : D2T(t) = 02) Camera motion with constant velocity: D 2 T (t) = 0

3) 등가속 카메라 모션 (camera motion with constant acceleration) : D3T(t) = 03) camera motion with constant acceleration: D 3 T (t) = 0

이런 특성들의 가중합을 목적함수로 하는 Linear programming 기법을 이용하여 아래와 같이 궤적을 예측할 수 있으며, 이는 도 5에 도식화되어 있다.The following trajectory can be predicted using a linear programming technique with a weighted sum of these characteristics as an objective function, which is illustrated in FIG.

Figure 112013006951593-pat00002

Figure 112013006951593-pat00002

6. 6. 모션motion 모델 최적화 Model optimization

위에서 산출된 각 특징점 궤적의 예측점과의 차이를 최소화하는 모션 모델, 즉 도 6에서 흔들림이 없는 경우의 특징점 움직임(노란색 선)과 가장 비슷한 모션 모델로 최적화하는 방법으로 비선형 최적화 기법(Non-linear Optimization)을 사용한다.The nonlinear optimization method is a method of optimizing the motion model that minimizes the difference from the predicted point of each feature point trajectory calculated above, that is, the motion model most similar to the feature point motion (yellow line) Optimization).

비선형 최적화 기법은 모션 모델에 의해서 변환된 특징점과 예측된 위치 간의 평균 거리 차이(d)를 Cost 함수 Ct를 정하고 반복적으로 cost 함수를 최소화 하는 모션 모델 파라미터를 각 모델별로 찾는 기법이으로, 아래와 같이 표현될 수 있다.The nonlinear optimization technique is to find the average distance difference (d) between the feature points converted by the motion model and the predicted position as the cost function C t and repeatedly find the motion model parameters that minimize the cost function by each model. Can be expressed.

Figure 112013006951593-pat00003

Figure 112013006951593-pat00003

7. 키 프레임 선택7. Select the keyframe

본 발명의 실시예에서는, 카메라의 흔들림이 가장 많이 반영된 프레임을 키 프레임으로 선정하여 안정화 영상 생성시 고려되지 않는 영역을 최소화한다.In the embodiment of the present invention, a frame in which camera shake is most reflected is selected as a key frame, thereby minimizing an area not considered in generating a stabilized image.

이때, 흔들림 입력 영상을 얼마나 포함하는가를 판단하는 기준으로 특징점 개수 n, 특징점 추적 길이 Sk와 특징점 궤적 영역 Ak(직사각형)을 사용하게 된다. 따라서, W 내의 특징점들이 오래 추적될수록 신뢰성이 있다고 판단하며 그 영역 또한 키 프레임 선정의 기준으로 사용하며, 이는 아래와 같이 표현된다.In this case, the number of feature points n, the feature point tracking length S k, and the feature point locus area A k (rectangle) are used as a criterion for determining how much the shake input image is included. Therefore, it is determined that the feature points in W are more reliable as they are traced for a long time, and the region is also used as a reference of key frame selection.

Figure 112013006951593-pat00004
Figure 112013006951593-pat00004

고정형 카메라의 경우 사용자에 의한 PTZ 조작이 없을 경우 처음 키 프레임을 계속 사용하는데, 만약 카메라가 이동하였을 경우 다시 키 프레임을 선정한다.In the case of fixed cameras, if there is no PTZ operation by the user, the first key frame is used continuously. If the camera moves, the key frame is selected again.

이동형 카메라의 경우 현재 프레임에서 추적된 특징점 개수 n, 평균 추적 거리 변화가 임계치(nth, Ath)를 넘는 경우 화면이 변경되었다고 가정하며 위의 방법으로 다시 키 프레임을 선정한다.
In case of mobile camera, it is assumed that the number of feature points tracked in the current frame and the average track distance change exceeds the threshold value (n th , A th ), and the key frame is selected again by the above method.

8. 8. 모션motion 모델 선정 Model Selection

비선형 최적화 기법에 의해 최적화된 모션 모델들 중 최선의 모션 모델을 선택하기 위하여, 각 모션 모델에 의해 생성된 안정화 영상 I't로부터 키프레임 IK로의 호모그래피 Mt'를 구하여 워핑된 영상 It'"과 키 프레임 IK와의 색상차이(RGB mean color difference) Mt를 최소화 하는 모션 모델의 안정화 영상 I't를 안정화 결과로 선택한다.In order to select the best motion model among the motion models optimized by the nonlinear optimization technique, a homography M t 'from the stabilized image I' t generated by each motion model to the key frame I K is obtained and the warped image I t And the stabilized image I ' t of the motion model that minimizes the RGB mean color difference M t from the key frame I K is selected as the stabilization result.

P를 RGB영상의 원소 개수, 키 프레임 IK와 입력 영상 It의 i번째 픽셀을 IKi, Iti라고 할 경우 RGB 영상의 색상 차이 M는 다음과 같으며 M이 클수록 두 영상은 다르다고 판단한다.Let P be the number of elements of the RGB image, I k the key frame I K, and the ith pixel of the input image I t be I Ki , I ti . The color difference M of the RGB image is as follows. .

Figure 112013006951593-pat00005

Figure 112013006951593-pat00005

9. 9. 변형예Variation example

지금까지 본 발명의 바람직한 실시예에 대해 상세히 설명하였다.The preferred embodiments of the present invention have been described in detail above.

위 실시예에서 제시한 모션 모델들은 예시적인 것으로 다른 종류의 모션 모델들이 사용되는 경우도 본 발명의 기술적 사상이 적용가능하다. 또한, 사용되는 모션 모델의 개수 역시 4개로 한정되는 것은 아니며, 2개, 3개 또는 5개 이상이 사용되는 경우도, 본 발명의 기술적 사상이 적용가능하다.The motion models presented in the above embodiments are exemplary and the technical idea of the present invention is also applicable when other kinds of motion models are used. Also, the number of motion models to be used is not limited to four, and even if two, three, or five or more motion models are used, the technical idea of the present invention is applicable.

또한, 위 실시예에서 제시한 감시 시스템과 영상 분석 서버는 모두 예시적인 것으로, 본 발명의 실시예에서 제시한 영상 안정화 방법은 그 밖의 다른 종류의 시스템과 서버에도 적용될 수 있다.
In addition, the monitoring system and the image analysis server proposed in the above embodiment are all exemplary, and the image stabilization method proposed in the embodiment of the present invention can be applied to other kinds of systems and servers.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.

130 : 영상 분석 서버 131 : 영상 입력부
132 : 프로세서 133 : 영상 안정화 모듈
134 : 객체 추출/추적 모듈 135 : 특징 추출 모듈
136 : 이벤트 추출 모듈 137 : 저장부
130: image analysis server 131: image input unit
132: processor 133: image stabilization module
134: object extraction / tracking module 135: feature extraction module
136: Event extraction module 137:

Claims (8)

다수의 모션 모델들을 이용하여, 촬영장치에 의한 흔들림이 보상된 안정화 영상들을 상기 모션 모델들 별로 생성하는 단계;
키 프레임과 상기 안정화 영상들을 비교하여, 상기 다수의 모션 모델들 중 하나를 선정하는 단계; 및
상기 선정 단계에서 선정된 모션 모델을 이용한 안정화 영상을 출력하는 단계;를 포함하는 것을 특징으로 하는 영상 안정화 방법.
Generating stabilized images compensated for shaking by the image pickup apparatus for each of the motion models using a plurality of motion models;
Comparing the key frames with the stabilized images, and selecting one of the plurality of motion models; And
And outputting the stabilized image using the motion model selected in the selecting step.
제 1항에 있어서,
상기 다수의 모션 모델들은,
서로 다른 복잡도를 갖는 모션 모델들인 것을 특징으로 하는 영상 안정화 방법.
The method according to claim 1,
The plurality of motion models,
Wherein the motion vectors are motion models having different complexities.
제 1항에 있어서,
상기 선정 단계는,
상기 안정화 영상들을 상기 키 프레임에 워핑시키는 단계; 및
워핑된 안정화 영상들과 상기 키 프레임의 색상차가 최소인 안정화 영상을 생성한 모션 모델을 선정하는 단계;를 포함하는 것을 특징으로 하는 영상 안정화 방법.
The method according to claim 1,
Wherein the selecting step comprises:
Warping the stabilized images to the key frame; And
And selecting a motion model that generates a stabilized image having a minimum color difference between the warped stabilized images and the key frame.
제 1항에 있어서,
다수의 모션 모델들을 흔들림이 없는 경우의 움직임을 보이는 모션 모델들로 최적화시키는 단계;를 더 포함하고,
상기 생성 단계는,
상기 최적화 단계에서 최적화된 상기 다수의 모션 모델들을 이용하는 것을 특징으로 하는 영상 안정화 방법.
The method according to claim 1,
Optimizing the plurality of motion models to motion models that exhibit motion in the absence of shaking,
Wherein the generating comprises:
Wherein the plurality of motion models optimized in the optimizing step are used.
제 4항에 있어서,
영상에서 배경 부분의 특징점들을 추적하는 단계; 및
상기 추적 단계에서 추적된 배경 부분의 특징점들로부터, 특징점 궤적을 예측하는 단계;를 더 포함하고,
상기 최적화 단계는,
상기 예측 단계에서 예측된 상기 특징점 궤적에 상기 다수의 모션 모델들을 최적화시키는 것을 특징으로 하는 영상 안정화 방법.
5. The method of claim 4,
Tracking feature points of a background portion in an image; And
And predicting the feature point trajectory from the feature points of the background part traced in the tracing step,
Wherein the optimizing comprises:
And optimizing the plurality of motion models to the feature point trajectory predicted in the prediction step.
제 5항에 있어서,
상기 추적 단계는,
특징점 대응으로 영상에서 추출된 특징점들을 추적하되, 이동체로 판단되는 부분들의 특징점들은 제거하는 것을 특징으로 하는 영상 안정화 방법.
6. The method of claim 5,
Wherein the tracking step comprises:
Wherein the feature points corresponding to the feature points are tracked and the feature points of the parts determined as the moving object are removed.
제 1항에 있어서,
과거 프레임들 중에서 카메라의 흔들림이 가장 많이 반영된 프레임을 키 프레임으로 선택하는 단계;를 더 포함하고,
상기 선정 단계는,
상기 선택 단계에서 선택된 키 프레임을 이용하는 것을 특징으로 하는 영상 안정화 방법.
The method according to claim 1,
Selecting a frame in which a camera shake is most reflected among past frames as a key frame,
Wherein the selecting step comprises:
Wherein the key frame selected in the selecting step is used.
촬영장치에 의해 생성된 영상을 입력받는 영상 입력부; 및
다수의 모션 모델들을 이용하여, 상기 촬영장치에 의한 흔들림이 보상된 안정화 영상들을 상기 모션 모델들 별로 생성하고, 키 프레임과 상기 안정화 영상들을 비교하여 상기 다수의 모션 모델들 중 하나를 선정하며, 선정된 모션 모델을 이용한 안정화 영상을 출력하는 프로세서;를 포함하는 것을 특징으로 하는 영상 안정화 장치.
An image input unit receiving an image generated by a photographing apparatus; And
A plurality of motion models are used to generate stabilized images compensated for shaking by the photographing apparatus for each of the motion models, and one of the plurality of motion models is selected by comparing the key frames and the stabilized images, And a processor for outputting the stabilized image using the generated motion model.
KR1020130007885A 2013-01-24 2013-01-24 Video stabilization method and system by selection one of various motion models KR101396838B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130007885A KR101396838B1 (en) 2013-01-24 2013-01-24 Video stabilization method and system by selection one of various motion models

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130007885A KR101396838B1 (en) 2013-01-24 2013-01-24 Video stabilization method and system by selection one of various motion models

Publications (1)

Publication Number Publication Date
KR101396838B1 true KR101396838B1 (en) 2014-05-19

Family

ID=50894621

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130007885A KR101396838B1 (en) 2013-01-24 2013-01-24 Video stabilization method and system by selection one of various motion models

Country Status (1)

Country Link
KR (1) KR101396838B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101437920B1 (en) * 2014-07-04 2014-11-04 세안기술 주식회사 A correctopn method for the camera wobble when measuring the vibration displacement using camera image
KR20170082945A (en) * 2016-01-07 2017-07-17 에스케이텔레콤 주식회사 Method and Apparatus for Stabilizing Video
US9741393B2 (en) 2015-09-08 2017-08-22 Hanwha Techwin Co., Ltd. Method and method for shortening video with event preservation
US9950667B2 (en) 2014-12-19 2018-04-24 Hyundai Mobis Co., Ltd. Vehicle system for detecting object and operation method thereof
KR101865173B1 (en) 2017-02-03 2018-06-07 (주)플레이솔루션 Method for generating movement of motion simulator using image analysis of virtual reality contents

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09224252A (en) * 1996-02-16 1997-08-26 Nippon Telegr & Teleph Corp <Ntt> Motion compression predict coding method for dynamic image, decoding method, coder and decoder
KR20070010352A (en) * 2005-07-18 2007-01-24 삼성탈레스 주식회사 Apparatus for tracing a moving object by mixing the video signals from multi sensors
KR100951301B1 (en) 2007-12-17 2010-04-02 한국과학기술원 Method of inter-frame/intra block predictive coding in video coding
KR20100079361A (en) * 2008-12-31 2010-07-08 갤럭시아커뮤니케이션즈 주식회사 Block based motion-search area rate distortion optimization using motion blur/deblur post filter

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09224252A (en) * 1996-02-16 1997-08-26 Nippon Telegr & Teleph Corp <Ntt> Motion compression predict coding method for dynamic image, decoding method, coder and decoder
KR20070010352A (en) * 2005-07-18 2007-01-24 삼성탈레스 주식회사 Apparatus for tracing a moving object by mixing the video signals from multi sensors
KR100951301B1 (en) 2007-12-17 2010-04-02 한국과학기술원 Method of inter-frame/intra block predictive coding in video coding
KR20100079361A (en) * 2008-12-31 2010-07-08 갤럭시아커뮤니케이션즈 주식회사 Block based motion-search area rate distortion optimization using motion blur/deblur post filter

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101437920B1 (en) * 2014-07-04 2014-11-04 세안기술 주식회사 A correctopn method for the camera wobble when measuring the vibration displacement using camera image
US9950667B2 (en) 2014-12-19 2018-04-24 Hyundai Mobis Co., Ltd. Vehicle system for detecting object and operation method thereof
US9741393B2 (en) 2015-09-08 2017-08-22 Hanwha Techwin Co., Ltd. Method and method for shortening video with event preservation
KR20170082945A (en) * 2016-01-07 2017-07-17 에스케이텔레콤 주식회사 Method and Apparatus for Stabilizing Video
KR101945233B1 (en) * 2016-01-07 2019-02-07 에스케이 텔레콤주식회사 Method and Apparatus for Stabilizing Video
KR101865173B1 (en) 2017-02-03 2018-06-07 (주)플레이솔루션 Method for generating movement of motion simulator using image analysis of virtual reality contents

Similar Documents

Publication Publication Date Title
US10237483B2 (en) Image stabilization techniques for video surveillance systems
US10929680B2 (en) Automatic extraction of secondary video streams
KR100677913B1 (en) Apparatus for tracing a moving object by mixing the video signals from multi sensors
US10037599B2 (en) Automatic gain control filter in a video analysis system
US8848053B2 (en) Automatic extraction of secondary video streams
US9141866B2 (en) Summarizing salient events in unmanned aerial videos
US7982774B2 (en) Image processing apparatus and image processing method
US9805271B2 (en) Scene preset identification using quadtree decomposition analysis
KR101396838B1 (en) Video stabilization method and system by selection one of various motion models
EP1542153A1 (en) Object detection
US11288101B2 (en) Method and system for auto-setting of image acquisition and processing modules and of sharing resources in large scale video systems
EP1542152A1 (en) Object detection
CN115760912A (en) Moving object tracking method, device, equipment and computer readable storage medium
US20220004748A1 (en) Video display method, device and system, and video camera
US20190027004A1 (en) Method for performing multi-camera automatic patrol control with aid of statistics data in a surveillance system, and associated apparatus
JP2005346425A (en) Automatic tracking system and automatic tracking method
JP2014110020A (en) Image processor, image processing method and image processing program
KR101460317B1 (en) Detection apparatus of moving object in unstable camera environment and method thereof
WO2020095644A1 (en) State-change detection device, state-change detection method, and computer-readable recording medium
JP2007293559A (en) Device and method for detecting non-stationary image, and program mounted with the method
KR102430033B1 (en) Method for detecting object and apparatus thereof
JP2013246601A (en) Image process device
Rasti et al. Video Stabilization and Completion Using the Scale-Invariant Features and RANSAC Robust Estimator
JP6308612B2 (en) Image processing apparatus, image processing method, and image processing program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170928

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180223

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190225

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20200225

Year of fee payment: 7