KR101396838B1 - Video stabilization method and system by selection one of various motion models - Google Patents
Video stabilization method and system by selection one of various motion models Download PDFInfo
- Publication number
- KR101396838B1 KR101396838B1 KR1020130007885A KR20130007885A KR101396838B1 KR 101396838 B1 KR101396838 B1 KR 101396838B1 KR 1020130007885 A KR1020130007885 A KR 1020130007885A KR 20130007885 A KR20130007885 A KR 20130007885A KR 101396838 B1 KR101396838 B1 KR 101396838B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- motion
- motion models
- stabilized
- models
- Prior art date
Links
- 230000033001 locomotion Effects 0.000 title claims abstract description 88
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000006641 stabilisation Effects 0.000 title abstract description 31
- 238000011105 stabilization Methods 0.000 title abstract description 31
- 239000013598 vector Substances 0.000 claims 1
- 230000000087 stabilizing effect Effects 0.000 abstract description 5
- 238000000605 extraction Methods 0.000 description 12
- 238000010191 image analysis Methods 0.000 description 11
- 238000005457 optimization Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 3
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 206010025482 malaise Diseases 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 208000003464 asthenopia Diseases 0.000 description 1
- 230000003139 buffering effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/681—Motion detection
- H04N23/6811—Motion detection based on the image signal
-
- G06T3/18—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Abstract
Description
본 발명은 영상처리에 관한 것으로, 더욱 상세하게는 카메라의 흔들림으로부터 영상을 안정화시키기 위한 방법 및 시스템에 관한 것이다.
The present invention relates to image processing, and more particularly, to a method and system for stabilizing an image from camera shake.
기존 영상 안정화 방법에서는 현재 프레임과 최근접 프레임간의 특징점 대응관계를 이용하여 카메라 모션을 추정한다. 하지만, 이 과정에서 이동체의 움직임이 크지 않은 경우에는 배경으로 포함되어 영상 안정화가 비정상적으로 수행될 여지가 있다In the conventional image stabilization method, the camera motion is estimated using the correspondence relation between the current frame and the nearest neighboring frame. However, if the movement of the moving object is not large in this process, there is a possibility that the image stabilization is performed abnormally by being included as the background
또한, 영상 안정화에 이용되는 낮은 복잡도의 모션 모델은 영상의 시점 왜곡이나 비틀어짐을 제대로 표현할 수 없고, 높은 복잡도의 모션 모델은 특징점이 화면에 고르게 분포되지 않을 경우 부분적으로 왜곡된 안정화 영상을 보여준다.In addition, the low-complexity motion model used for image stabilization can not accurately represent the viewpoint distortion or twist of the image, and the high-complexity motion model shows the partially distorted stabilized image if the feature points are not uniformly distributed on the screen.
이에 따라, 입력 영상의 내용과 상태를 불문한 최적의 안정화 방안에 대한 모색이 요청된다.
Accordingly, it is required to search for an optimal stabilization scheme regardless of the content and state of the input image.
본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, visual sickness를 줄이기 위한 방안으로, 카메라의 흔들림이 발생한 영상에 대해 다수의 모션 모델들 중 최선의 모션 모델을 선정하여 흔들림을 보상하는 영상 안정화 방법 및 장치를 제공함에 있다.
SUMMARY OF THE INVENTION It is an object of the present invention to reduce visual sickness by selecting a best motion model among a plurality of motion models for an image in which camera shake occurs, And to provide an image stabilization method and apparatus for compensating for shaking.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 영상 안정화 방법은, 다수의 모션 모델들을 이용하여, 촬영장치에 의한 흔들림이 보상된 안정화 영상들을 상기 모션 모델들 별로 생성하는 단계; 키 프레임과 상기 안정화 영상들을 비교하여, 상기 다수의 모션 모델들 중 하나를 선정하는 단계; 및 상기 선정 단계에서 선정된 모션 모델을 이용한 안정화 영상을 출력하는 단계;를 포함한다.According to an aspect of the present invention, there is provided an image stabilization method comprising: generating stabilized images compensated for shaking by a photographing apparatus for each motion model using a plurality of motion models; Comparing the key frames with the stabilized images, and selecting one of the plurality of motion models; And outputting the stabilized image using the motion model selected in the selecting step.
그리고, 상기 다수의 모션 모델들은, 서로 다른 복잡도를 갖는 모션 모델들일 수 있다.The plurality of motion models may be motion models having different complexities.
또한, 상기 선정 단계는, 상기 안정화 영상들을 상기 키 프레임에 워핑시키는 단계; 및 워핑된 안정화 영상들과 상기 키 프레임의 색상차가 최소인 안정화 영상을 생성한 모션 모델을 선정하는 단계;를 포함할 수 있다.The selecting may further include: warping the stabilized images to the key frame; And selecting a motion model that generates a stabilized image having a minimum color difference between the warped stabilized images and the key frame.
그리고, 본 발명의 일 실시예에 따른 영상 안정화 방법은, 다수의 모션 모델들을 최적화시키는 단계;를 더 포함하고, 상기 생성 단계는, 상기 최적화 단계에서 최적화된 상기 다수의 모션 모델들을 이용할 수 있다.The image stabilization method according to an embodiment of the present invention further includes optimizing a plurality of motion models, and the generation step may use the plurality of motion models optimized in the optimization step.
또한, 본 발명의 일 실시예에 따른, 영상 안정화 방법은, 영상에서 배경 부분의 특징점들을 추적하는 단계; 및 상기 추적 단계에서 추적된 배경 부분의 특징점들로부터, 특징점 궤적을 예측하는 단계;를 더 포함하고, 상기 최적화 단계는, 상기 예측 단계에서 예측된 상기 특징점 궤적에 상기 다수의 모션 모델들을 최적화시킬 수 있다.According to another aspect of the present invention, there is provided an image stabilization method comprising: tracking feature points of a background portion in an image; And predicting a feature point trajectory from the feature points of the background portion traced in the tracing step, wherein the optimizing step optimizes the plurality of motion models to the feature point trajectory predicted in the predicting step have.
그리고, 상기 추적 단계는, 특징점 대응으로 영상에서 추출된 특징점들을 추적하되, 이동체로 판단되는 부분들의 특징점들은 제거할 수 있다.The tracking step may track feature points extracted from the image corresponding to the feature points, and may remove feature points of the parts determined to be the mobile object.
또한, 본 발명의 일 실시예에 따른, 영상 안정화 방법은, 과거 프레임들 중에서 카메라의 흔들림이 가장 많이 반영된 프레임을 키 프레임으로 선택하는 단계;를 더 포함하고, 상시 선정 단계는, 상기 선택 단계에서 선택된 키 프레임을 이용할 수 있다.According to another aspect of the present invention, there is provided a method of stabilizing an image, the method comprising: selecting a frame in which a camera shake is most reflected among past frames as a key frame; The selected key frame can be used.
한편, 본 발명의 다른 실시예에 따른, 영상 안정화 장치는, 촬영장치에 의해 생성된 영상을 입력받는 영상 입력부; 및 다수의 모션 모델들을 이용하여, 상기 촬영장치에 의한 흔들림이 보상된 안정화 영상들을 상기 모션 모델들 별로 생성하고, 키 프레임과 상기 안정화 영상들을 비교하여 상기 다수의 모션 모델들 중 하나를 선정하는 프로세서고, 선정된 모션 모델을 이용한 안정화 영상을 출력하는 프로세서;를 포함한다.
According to another aspect of the present invention, there is provided an image stabilization apparatus including: an image input unit receiving an image generated by a photographing apparatus; And a processor for generating stabilized images compensated for shaking by the photographing apparatus for each of the motion models using the plurality of motion models and comparing the key frames and the stabilized images to select one of the plurality of motion models, And a processor for outputting a stabilized image using the selected motion model.
이상 설명한 바와 같이, 본 발명의 실시예에 따르면, 카메라의 흔들림이 발생한 영상에 대해 다수의 모션 모델들 중 최선의 모션 모델을 선정하여 흔들림을 보상할 수 있어, 영상에서의 visual sickness를 효과적으로 줄일 수 있게 된다. 즉, 본 발명의 실시예에 따르면, 다양한 모션 모델을 사용함으로써 단일 모델 추정에서 생길 수 있는 왜곡을 최소화할 수 있게 되는 것이다.As described above, according to the embodiment of the present invention, it is possible to compensate for the shaking by selecting the best motion model among a plurality of motion models for an image in which camera shake occurs, thereby effectively reducing visual sickness in the image . That is, according to the embodiment of the present invention, by using various motion models, it is possible to minimize the distortion that may occur in single model estimation.
또한, 일정 길이의 특징점 궤적정보를 이용함으로써 프레임간 특징점 대응보다 신뢰성 있는 특징점 대응 정보를 추출할 수 있다. 아울러, 특징점 궤적 예측을 통하여 사용자의 눈이 편안한 안정화 영상을 생성한다.Further, by using the feature point locus information of a predetermined length, it is possible to extract reliable feature point correspondence information corresponding to inter-frame feature point correspondence. In addition, the stabilized image of the user's eye is generated through the feature point trajectory prediction.
뿐만 아니라, 영상에서 이동체를 제거한 후에 안정화 영상들을 생성하기 때문에 카메라의 흔들림에 대한 정확한 보상이 가능해진다.In addition, since the stabilized images are generated after removing the moving object from the image, it is possible to accurately compensate the camera shake.
아울러, 과거 프레임들 중에서 카메라의 흔들림이 가장 많이 반영된 프레임을 키 프레임으로 이용하기 때문에, 안정화 과정에서의 왜곡 발생을 최소화할 수 있게 된다.
In addition, since the frame in which the camera shake is most reflected in the past frames is used as the key frame, the occurrence of distortion in the stabilization process can be minimized.
도 1은 본 발명이 적용가능한 감시 시스템을 도시한 도면,
도 2는, 도 1에 도시된 영상 분석 서버의 상세 블럭도,
도 3은 본 발명의 바람직한 실시예에 따른 영상 안정화 방법의 설명에 제공되는 흐름도,
도 4는 본 발명의 실시예에서 사용가능한 모션 모델들을 예시한 도면,
도 5는 특징점 궤적 예측의 부연 설명에 제공되는 도면, 그리고,
도 6은 모션 모델 최적화 과정의 부연 설명에 제공되는 도면이다.1 shows a monitoring system to which the present invention is applicable,
FIG. 2 is a detailed block diagram of the image analysis server shown in FIG. 1,
FIG. 3 is a flow chart for explaining an image stabilization method according to a preferred embodiment of the present invention,
4 is a diagram illustrating motion models that can be used in an embodiment of the present invention,
FIG. 5 is a diagram provided for a further description of the feature point trajectory prediction,
6 is a diagram provided in a side view of the motion model optimization process.
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.
이하, 첨부 도면을 참조하여 본 발명의 실시예를 보다 상세하게 설명하고자 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정하여 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms, and the inventor should appropriately interpret the concept of the term appropriately in order to describe its own invention in the best way. The present invention should be construed in accordance with the meaning and concept consistent with the technical idea of the present invention.
따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
Therefore, the embodiments described in this specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and do not represent all the technical ideas of the present invention. Therefore, It is to be understood that equivalents and modifications are possible.
1. 본 발명이 적용가능한 시스템1. System to which the present invention is applicable
도 1은 본 발명이 적용가능한 감시 시스템을 도시한 도면이다. 본 발명이 적용가능한 감시 시스템은 영상을 촬영하여 관제, 분석 및 검색을 수행하기 위한 시스템이다.1 is a diagram showing a monitoring system to which the present invention is applicable. A surveillance system to which the present invention can be applied is a system for photographing an image to perform monitoring, analysis and search.
이와 같은 기능을 수행하는 감시 시스템은, 도 1에 도시된 바와 같이, CCTV 카메라(110), 관제 서버(120), 영상 분석 서버(130), 영상 DB(140), 메타 데이터 DB(150) 및 영상 검색 서버(160)를 포함한다.As shown in FIG. 1, the surveillance system that performs the above functions includes a
CCTV 카메라(110)는 옥내 또는 옥외에 설치되어 해당 구역을 촬영하여 영상을 생성하고, 생성된 영상을 관제 서버(120)와 영상 분석 서버(130)로 전송한다.The
관제 서버(120)는 CCTV 카메라(110)로부터 전달받은 영상에 타임 스탬프를 부가하여 영상 DB(140)에 저장한다. 또한, 관제 서버(120)는 관리자가 모니터링할 수 있도록 CCTV 카메라(110)로부터 전달받은 영상을 실시간으로 디스플레이할 수 있다.The
영상 분석 서버(130)는 CCTV 카메라(110)로부터 전달받은 영상을 안정화시킨 후 분석하여 메타 데이터를 생성하고, 생성된 메타 데이터를 해당 영상에 부여된 타임 스탬프와 함께 메타 데이터 DB(150)에 저장한다. 영상 분석 서버(130)에 대해서는, 도 2를 참조하여 상세히 후술한다.The
메타 데이터는, 영상에 나타난 객체의 특징 정보로, 객체가 사람인 경우 얼굴 특징, 옷 색상 등이 메타 데이터로 생성되고, 객체가 차량인 경우 차량의 색상, 크기 및 번호 등이 메타 데이터로 생성된다.The meta data is feature information of the object displayed on the image. When the object is a person, the face feature, clothes color, and the like are generated as metadata. When the object is a vehicle, the color, size, and number of the vehicle are generated as metadata.
영상 검색 서버(160)는 메타 데이터 DB(150)에서 찾고자 하는 메타 데이터를 검색하고, 검색된 메타 데이터에 매칭된 타임 스탬프가 부여된 영상을 영상 DB(140)에서 검색한다.
The
2. 영상 분석 서버2. Image analysis server
이하에서, 전술한 영상 분석 서버(130)에 대해 도 2를 참조하여 상세히 설명한다. 도 2는, 도 1에 도시된 영상 분석 서버(130)의 상세 블럭도이다. 영상 분석 서버(130)는 도 2에 도시된 바와 같이, 영상 입력부(131), 프로세서(132), 저장부(137), DB 인터페이스(138) 및 서버 인터페이스(139)를 포함한다.Hereinafter, the above-described
영상 입력부(131)는 CCTV 카메라(110)로부터 영상을 수신하여 프로세서(132)로 전달하기 위한 인터페이스 및 버퍼링 수단이다.The
프로세서(132)는 영상 입력부(131)를 통해 전달받은 영상을 분석하기 위한 영상 처리 수단으로, 도 2에 도시된 바와 같이, 영상 안정화 모듈(133), 객체 추출/추적 모듈(134), 특징 추출 모듈(135) 및 이벤트 추출 모듈(136)을 포함한다.2, the
영상 안정화 모듈(133)은 영상 입력부(131)를 통해 전달받은 영상에서 CCTV 카메라(110)에 의한 흔들림을 보상하여 영상을 안정화시킨다. 영상 안정화 방법에 대해서는 도 3을 참조하여 상세히 후술한다.The
객체 추출/추적 모듈(134)은 영상 안정화 모듈(133)에서 안정화된 영상에서 객체를 실시간으로 추출하고, 추출된 객체를 실시간으로 추적한다.The object extraction /
특징 추출 모듈(135)은 추출/추적되는 객체에서 특징을 추출하고, 추출된 특징을 메타 데이터로 생성한다. 특징 추출 모듈(135)에 의해 생성된 메타 데이터는 DB 인터페이스(138)를 통해 메타 데이터 DB(150)에 저장된다.The
이벤트 추출 모듈(137)은 영상 내에서 발생하는 이벤트를 추출하여 이벤트 정보를 생성한다. 예를 들어, 사람이나 자동차가 위험 영역이나 보안 영역에 진입한 경우 이벤트가 발생한 것으로 취급할 수 있다.The
이벤트 추출 모듈(137)에 의해 생성된 이벤트 정보는, 서버 인터페이스(139)를 통해 관제 서버(120)에 전달되어 관리자에게 알람 할 수 있다.The event information generated by the
저장부(137)는 프로세서(132)의 모듈들(133 내지 136)이 영상 처리를 수행함에 있어 필요한 저장 공간을 제공한다.
The
3. 영상 안정화 방법3. Image stabilization method
이하에서, 전술한 영상 안정화 모듈(133)에 의한 영상 안정화 과정에 대해 도 3을 참조하여 상세히 설명한다. 도 3은 본 발명의 바람직한 실시예에 따른 영상 안정화 방법의 설명에 제공되는 흐름도이다.Hereinafter, the image stabilization process by the
본 실시예에 따른 영상 안정화 방법에서는 복잡도가 각기 다른 여러 가지 모션 모델들 중 최선의 모션 모델을 선정하여 영상을 안정화시키는데, 구체적인 과정은 아래와 같다.In the image stabilization method according to the present embodiment, the best motion model among various motion models with different complexities is selected to stabilize the image. The concrete procedure is as follows.
도 3에 도시된 바와 같이, 입력 영상에서 배경 부분의 특징점들을 추출하여 추적한다(S210). 구체적으로 S210단계에서는, 특징점 대응(Finding feature correspondences)으로 추출된 특징점을 추적하되, 이동체로 판단되는 부분들의 특징점들은 제거하는 방식으로 수행된다.As shown in FIG. 3, the feature points of the background portion are extracted and tracked in the input image (S210). Specifically, in step S210, feature points extracted by finding feature correspondences are tracked, and feature points of parts determined as a moving object are removed.
이동체 부분의 특징점들은 특징점 변화의 누적 정보를 이용하여, 기존의 프레임간 모션 변화를 이용한 방법 보다 효과적으로 제거시킬 수 있다.The feature points of the moving object portion can be effectively removed by using the cumulative information of the feature point change, compared with the conventional method using the inter-frame motion change.
다음, S210단계에서 추출/추적된 배경 부분의 특징점들로부터, 흔들림이 없는 경우에 대한 특징점 궤적을 예측(Feature trajectory prediction)을 수행한다(S220).Next, in step S220, feature trajectory prediction for a case where there is no shaking is performed from the feature points of the background part extracted / tracked (S220).
이후, 여러 가지 모션 모델들을 S220단계에서 예측된 궤적에 가장 유사하게 최적화(Optimization for motion model) 시킨다(S230). S230단계에서는, simple translation, similarity transform, affine transform, projective transform 등의 모델들이 적용될 수 있다.Thereafter, various motion models are optimized (Optimization for motion model) most similar to the predicted trajectory in step S220 (S230). In step S230, models such as simple translation, similarity transform, affine transform, and projective transform can be applied.
또한, 과거 프레임들 중에서 카메라의 흔들림이 가장 많이 반영된 프레임을 키 프레임으로 선택(Key frame selection)한다(S240).In addition, a key frame is selected as a key frame in which the camera shake is most reflected in past frames (S240).
그리고, S230단계에서 최적화된 모션 모델들을 이용하여 흔들림이 보상된 안정화 영상들을 모션 모델별로 생성하고, S240단계에서 선택된 키 프레임과의 비교 결과를 통해 최선의 모션 모델을 선정한다(S250).In step S230, the stabilized images compensated for the shake are generated for each motion model using the optimized motion models, and the best motion model is selected based on the comparison result with the key frame selected in step S240 (S250).
구체적으로 S250단계에서는, 안정화 영상들을 키 프레임에 워핑시키고, 워핑된 안정화 영상들과 키 프레임의 색상차가 최소인 안정화 영상을 생성한 모션 모델을 선정하게 된다.Specifically, in step S250, a stabilized image is warped to a key frame, and a motion model that generates a stabilized image having a minimum color difference between the warped stabilized images and the key frame is selected.
이후, S250단계에서 선정된 모션 모델을 이용하여 생성한 안정화 영상이, 영상 안정화 결과로 출력된다.Thereafter, the stabilized image generated using the motion model selected in step S250 is output as the image stabilization result.
이하에서, 도 2에 도시된 각 단계들에 구체적으로 설명한다.
Hereinafter, each of the steps shown in FIG. 2 will be described in detail.
4. 배경 부분의 특징점 추출/추적4. Extraction / tracking of feature points of the background part
기존의 영상 안정화 방법들은 대부분 최근접 프레임과의 특징점 대응을 구하여 모션 모델을 추정한다. 하지만, 카메라의 모션이 작을 경우 이동체를 효과적으로 분리하지 못하는 단점이 있다.Most of the conventional image stabilization methods estimate the motion model by obtaining the feature point correspondence with the nearest frame. However, if the motion of the camera is small, there is a disadvantage that the moving object can not be effectively separated.
따라서, 본 발명의 실시예에서는 일정 시구간(윈도우 크기 W: 관찰 프레임 길이) 내에서의 특징점 궤적을 이용하여 윈도우 내의 프레임과 현재 프레임 T와의 가중 재투영 에러(Reprojection Error : 모션 모델을 이용하여 이동한 특징점 위치와 실제 특징점 위치와의 누적 거리 차이) 합이 임계치를 넘는다면 이동체로 판단하는 방법을 이용하여 이동체를 분리한다.Therefore, in the embodiment of the present invention, a weighting re-projection error between a frame in a window and a current frame T using a feature point trajectory within a certain time period (window size W: observation frame length) The cumulative distance difference between a minutiae point and an actual minutiae position). If the sum exceeds the threshold value, the mobile device is separated using a method of determining the mobile device.
한편, 본 실시예에서 사용하는 모션 모델들을 도 4에 나타내었는데, 복잡도가 높을수록 화면의 다양한 움직임을 표현할 수 있지만 균등하게 특징점이 추출되지 않는다면 낮은 복잡도 모델에 비하여 더 많은 왜곡을 보일 수 있다.
The motion models used in the present embodiment are shown in FIG. 4. The higher the complexity is, the more various motions of the screen can be expressed. However, if the feature points are not extracted uniformly, more distortion can be shown compared with the low complexity model.
5. 특징점 궤적 예측5. Feature point trajectory prediction
본 발명의 실시예에서, 특징점은 코너 또는 다양한 불편 특징량 기반 특징점을 사용 가능하고, 특징점 추적은 optical flow 방식의 tracker를 사용 가능하다. 입력 영상으로부터 이동체가 제거된 배경의 특징점 대응은 아래와 같이 나타낼 수 있다.In the embodiment of the present invention, the feature point can be a corner or various unfavorable feature amount based feature points, and the feature point tracking can use an optical flow type tracker. The feature point correspondence of the background from which the moving object is removed from the input image can be expressed as follows.
한편, 기존의 영상 안정화 방법은 프레임간 특징점 대응을 이용하여 모션 smoothing(모션 모델의 파라미터들의 궤적을 부드럽게 만드는 과정)을 통하여 모션 모델을 추정한다. 하지만, 전제적으로 부드러운 카메라 모션을 만들기 위해서 영상 전체 모션에 대한 smoothing이 필요하기 때문에 실시간 영상 안정화가 필요한 어플리케이션에서는 사용할 수 없다.On the other hand, the conventional image stabilization method estimates the motion model through motion smoothing (process of softening the trajectory of the parameters of the motion model) using the inter-frame feature point correspondence. However, since it is necessary to smoothing the entire motion of the image to create a smooth camera motion, it can not be used in applications requiring real-time image stabilization.
따라서, 본 발명의 실시예에서는 주어진 특징점 궤적 정보를 이용하여 현재 프레임 T에 대한 특징점을 예측하고, 이와의 차이를 최소화하는 방법으로 모션 모델을 추정한다.Therefore, in the embodiment of the present invention, the motion model is estimated by using the given feature point trajectory information to predict the feature point for the current frame T and minimize the difference therebetween.
추정 방법으로는 궤적의 움직임을 주어진 함수 형태로 모델링하는 기법과 주어진 데이터를 바탕으로 변수들간의 관계를 예측하는 통계적 방법인 Regression 기법이 있다. 또한, 영화 촬영 관점에서 시청자가 느끼는 영상 안정화에 의한 시각적 피로도를 줄이고 자연스러운 안정화 영상을 생성하기 위해는 D를 미분 함수라 할 경우 특징점 궤적 RT는 다음과 같은 부분들의 조합으로 이루어진다. Estimation methods include the method of modeling the motion of a trajectory in a given function form and the regression technique, which is a statistical method for predicting the relationship between variables based on given data. Also, in order to reduce visual fatigue due to image stabilization and to generate a natural stabilized image, the feature trajectory R T is a combination of the following parts when D is a differential function.
1) 정지 카메라 (static camera) : D1T(t) = 01) static camera: D 1 T (t) = 0
2) 등속 카메라 모션 (camera motion with constant velocity) : D2T(t) = 02) Camera motion with constant velocity: D 2 T (t) = 0
3) 등가속 카메라 모션 (camera motion with constant acceleration) : D3T(t) = 03) camera motion with constant acceleration: D 3 T (t) = 0
이런 특성들의 가중합을 목적함수로 하는 Linear programming 기법을 이용하여 아래와 같이 궤적을 예측할 수 있으며, 이는 도 5에 도식화되어 있다.The following trajectory can be predicted using a linear programming technique with a weighted sum of these characteristics as an objective function, which is illustrated in FIG.
6. 6. 모션motion 모델 최적화 Model optimization
위에서 산출된 각 특징점 궤적의 예측점과의 차이를 최소화하는 모션 모델, 즉 도 6에서 흔들림이 없는 경우의 특징점 움직임(노란색 선)과 가장 비슷한 모션 모델로 최적화하는 방법으로 비선형 최적화 기법(Non-linear Optimization)을 사용한다.The nonlinear optimization method is a method of optimizing the motion model that minimizes the difference from the predicted point of each feature point trajectory calculated above, that is, the motion model most similar to the feature point motion (yellow line) Optimization).
비선형 최적화 기법은 모션 모델에 의해서 변환된 특징점과 예측된 위치 간의 평균 거리 차이(d)를 Cost 함수 Ct를 정하고 반복적으로 cost 함수를 최소화 하는 모션 모델 파라미터를 각 모델별로 찾는 기법이으로, 아래와 같이 표현될 수 있다.The nonlinear optimization technique is to find the average distance difference (d) between the feature points converted by the motion model and the predicted position as the cost function C t and repeatedly find the motion model parameters that minimize the cost function by each model. Can be expressed.
7. 키 프레임 선택7. Select the keyframe
본 발명의 실시예에서는, 카메라의 흔들림이 가장 많이 반영된 프레임을 키 프레임으로 선정하여 안정화 영상 생성시 고려되지 않는 영역을 최소화한다.In the embodiment of the present invention, a frame in which camera shake is most reflected is selected as a key frame, thereby minimizing an area not considered in generating a stabilized image.
이때, 흔들림 입력 영상을 얼마나 포함하는가를 판단하는 기준으로 특징점 개수 n, 특징점 추적 길이 Sk와 특징점 궤적 영역 Ak(직사각형)을 사용하게 된다. 따라서, W 내의 특징점들이 오래 추적될수록 신뢰성이 있다고 판단하며 그 영역 또한 키 프레임 선정의 기준으로 사용하며, 이는 아래와 같이 표현된다.In this case, the number of feature points n, the feature point tracking length S k, and the feature point locus area A k (rectangle) are used as a criterion for determining how much the shake input image is included. Therefore, it is determined that the feature points in W are more reliable as they are traced for a long time, and the region is also used as a reference of key frame selection.
고정형 카메라의 경우 사용자에 의한 PTZ 조작이 없을 경우 처음 키 프레임을 계속 사용하는데, 만약 카메라가 이동하였을 경우 다시 키 프레임을 선정한다.In the case of fixed cameras, if there is no PTZ operation by the user, the first key frame is used continuously. If the camera moves, the key frame is selected again.
이동형 카메라의 경우 현재 프레임에서 추적된 특징점 개수 n, 평균 추적 거리 변화가 임계치(nth, Ath)를 넘는 경우 화면이 변경되었다고 가정하며 위의 방법으로 다시 키 프레임을 선정한다.
In case of mobile camera, it is assumed that the number of feature points tracked in the current frame and the average track distance change exceeds the threshold value (n th , A th ), and the key frame is selected again by the above method.
8. 8. 모션motion 모델 선정 Model Selection
비선형 최적화 기법에 의해 최적화된 모션 모델들 중 최선의 모션 모델을 선택하기 위하여, 각 모션 모델에 의해 생성된 안정화 영상 I't로부터 키프레임 IK로의 호모그래피 Mt'를 구하여 워핑된 영상 It'"과 키 프레임 IK와의 색상차이(RGB mean color difference) Mt를 최소화 하는 모션 모델의 안정화 영상 I't를 안정화 결과로 선택한다.In order to select the best motion model among the motion models optimized by the nonlinear optimization technique, a homography M t 'from the stabilized image I' t generated by each motion model to the key frame I K is obtained and the warped image I t And the stabilized image I ' t of the motion model that minimizes the RGB mean color difference M t from the key frame I K is selected as the stabilization result.
P를 RGB영상의 원소 개수, 키 프레임 IK와 입력 영상 It의 i번째 픽셀을 IKi, Iti라고 할 경우 RGB 영상의 색상 차이 M는 다음과 같으며 M이 클수록 두 영상은 다르다고 판단한다.Let P be the number of elements of the RGB image, I k the key frame I K, and the ith pixel of the input image I t be I Ki , I ti . The color difference M of the RGB image is as follows. .
9. 9. 변형예Variation example
지금까지 본 발명의 바람직한 실시예에 대해 상세히 설명하였다.The preferred embodiments of the present invention have been described in detail above.
위 실시예에서 제시한 모션 모델들은 예시적인 것으로 다른 종류의 모션 모델들이 사용되는 경우도 본 발명의 기술적 사상이 적용가능하다. 또한, 사용되는 모션 모델의 개수 역시 4개로 한정되는 것은 아니며, 2개, 3개 또는 5개 이상이 사용되는 경우도, 본 발명의 기술적 사상이 적용가능하다.The motion models presented in the above embodiments are exemplary and the technical idea of the present invention is also applicable when other kinds of motion models are used. Also, the number of motion models to be used is not limited to four, and even if two, three, or five or more motion models are used, the technical idea of the present invention is applicable.
또한, 위 실시예에서 제시한 감시 시스템과 영상 분석 서버는 모두 예시적인 것으로, 본 발명의 실시예에서 제시한 영상 안정화 방법은 그 밖의 다른 종류의 시스템과 서버에도 적용될 수 있다.
In addition, the monitoring system and the image analysis server proposed in the above embodiment are all exemplary, and the image stabilization method proposed in the embodiment of the present invention can be applied to other kinds of systems and servers.
또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.
130 : 영상 분석 서버 131 : 영상 입력부
132 : 프로세서 133 : 영상 안정화 모듈
134 : 객체 추출/추적 모듈 135 : 특징 추출 모듈
136 : 이벤트 추출 모듈 137 : 저장부130: image analysis server 131: image input unit
132: processor 133: image stabilization module
134: object extraction / tracking module 135: feature extraction module
136: Event extraction module 137:
Claims (8)
키 프레임과 상기 안정화 영상들을 비교하여, 상기 다수의 모션 모델들 중 하나를 선정하는 단계; 및
상기 선정 단계에서 선정된 모션 모델을 이용한 안정화 영상을 출력하는 단계;를 포함하는 것을 특징으로 하는 영상 안정화 방법.
Generating stabilized images compensated for shaking by the image pickup apparatus for each of the motion models using a plurality of motion models;
Comparing the key frames with the stabilized images, and selecting one of the plurality of motion models; And
And outputting the stabilized image using the motion model selected in the selecting step.
상기 다수의 모션 모델들은,
서로 다른 복잡도를 갖는 모션 모델들인 것을 특징으로 하는 영상 안정화 방법.
The method according to claim 1,
The plurality of motion models,
Wherein the motion vectors are motion models having different complexities.
상기 선정 단계는,
상기 안정화 영상들을 상기 키 프레임에 워핑시키는 단계; 및
워핑된 안정화 영상들과 상기 키 프레임의 색상차가 최소인 안정화 영상을 생성한 모션 모델을 선정하는 단계;를 포함하는 것을 특징으로 하는 영상 안정화 방법.
The method according to claim 1,
Wherein the selecting step comprises:
Warping the stabilized images to the key frame; And
And selecting a motion model that generates a stabilized image having a minimum color difference between the warped stabilized images and the key frame.
다수의 모션 모델들을 흔들림이 없는 경우의 움직임을 보이는 모션 모델들로 최적화시키는 단계;를 더 포함하고,
상기 생성 단계는,
상기 최적화 단계에서 최적화된 상기 다수의 모션 모델들을 이용하는 것을 특징으로 하는 영상 안정화 방법.
The method according to claim 1,
Optimizing the plurality of motion models to motion models that exhibit motion in the absence of shaking,
Wherein the generating comprises:
Wherein the plurality of motion models optimized in the optimizing step are used.
영상에서 배경 부분의 특징점들을 추적하는 단계; 및
상기 추적 단계에서 추적된 배경 부분의 특징점들로부터, 특징점 궤적을 예측하는 단계;를 더 포함하고,
상기 최적화 단계는,
상기 예측 단계에서 예측된 상기 특징점 궤적에 상기 다수의 모션 모델들을 최적화시키는 것을 특징으로 하는 영상 안정화 방법.
5. The method of claim 4,
Tracking feature points of a background portion in an image; And
And predicting the feature point trajectory from the feature points of the background part traced in the tracing step,
Wherein the optimizing comprises:
And optimizing the plurality of motion models to the feature point trajectory predicted in the prediction step.
상기 추적 단계는,
특징점 대응으로 영상에서 추출된 특징점들을 추적하되, 이동체로 판단되는 부분들의 특징점들은 제거하는 것을 특징으로 하는 영상 안정화 방법.
6. The method of claim 5,
Wherein the tracking step comprises:
Wherein the feature points corresponding to the feature points are tracked and the feature points of the parts determined as the moving object are removed.
과거 프레임들 중에서 카메라의 흔들림이 가장 많이 반영된 프레임을 키 프레임으로 선택하는 단계;를 더 포함하고,
상기 선정 단계는,
상기 선택 단계에서 선택된 키 프레임을 이용하는 것을 특징으로 하는 영상 안정화 방법.
The method according to claim 1,
Selecting a frame in which a camera shake is most reflected among past frames as a key frame,
Wherein the selecting step comprises:
Wherein the key frame selected in the selecting step is used.
다수의 모션 모델들을 이용하여, 상기 촬영장치에 의한 흔들림이 보상된 안정화 영상들을 상기 모션 모델들 별로 생성하고, 키 프레임과 상기 안정화 영상들을 비교하여 상기 다수의 모션 모델들 중 하나를 선정하며, 선정된 모션 모델을 이용한 안정화 영상을 출력하는 프로세서;를 포함하는 것을 특징으로 하는 영상 안정화 장치.
An image input unit receiving an image generated by a photographing apparatus; And
A plurality of motion models are used to generate stabilized images compensated for shaking by the photographing apparatus for each of the motion models, and one of the plurality of motion models is selected by comparing the key frames and the stabilized images, And a processor for outputting the stabilized image using the generated motion model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130007885A KR101396838B1 (en) | 2013-01-24 | 2013-01-24 | Video stabilization method and system by selection one of various motion models |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130007885A KR101396838B1 (en) | 2013-01-24 | 2013-01-24 | Video stabilization method and system by selection one of various motion models |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101396838B1 true KR101396838B1 (en) | 2014-05-19 |
Family
ID=50894621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130007885A KR101396838B1 (en) | 2013-01-24 | 2013-01-24 | Video stabilization method and system by selection one of various motion models |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101396838B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101437920B1 (en) * | 2014-07-04 | 2014-11-04 | 세안기술 주식회사 | A correctopn method for the camera wobble when measuring the vibration displacement using camera image |
KR20170082945A (en) * | 2016-01-07 | 2017-07-17 | 에스케이텔레콤 주식회사 | Method and Apparatus for Stabilizing Video |
US9741393B2 (en) | 2015-09-08 | 2017-08-22 | Hanwha Techwin Co., Ltd. | Method and method for shortening video with event preservation |
US9950667B2 (en) | 2014-12-19 | 2018-04-24 | Hyundai Mobis Co., Ltd. | Vehicle system for detecting object and operation method thereof |
KR101865173B1 (en) | 2017-02-03 | 2018-06-07 | (주)플레이솔루션 | Method for generating movement of motion simulator using image analysis of virtual reality contents |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09224252A (en) * | 1996-02-16 | 1997-08-26 | Nippon Telegr & Teleph Corp <Ntt> | Motion compression predict coding method for dynamic image, decoding method, coder and decoder |
KR20070010352A (en) * | 2005-07-18 | 2007-01-24 | 삼성탈레스 주식회사 | Apparatus for tracing a moving object by mixing the video signals from multi sensors |
KR100951301B1 (en) | 2007-12-17 | 2010-04-02 | 한국과학기술원 | Method of inter-frame/intra block predictive coding in video coding |
KR20100079361A (en) * | 2008-12-31 | 2010-07-08 | 갤럭시아커뮤니케이션즈 주식회사 | Block based motion-search area rate distortion optimization using motion blur/deblur post filter |
-
2013
- 2013-01-24 KR KR1020130007885A patent/KR101396838B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09224252A (en) * | 1996-02-16 | 1997-08-26 | Nippon Telegr & Teleph Corp <Ntt> | Motion compression predict coding method for dynamic image, decoding method, coder and decoder |
KR20070010352A (en) * | 2005-07-18 | 2007-01-24 | 삼성탈레스 주식회사 | Apparatus for tracing a moving object by mixing the video signals from multi sensors |
KR100951301B1 (en) | 2007-12-17 | 2010-04-02 | 한국과학기술원 | Method of inter-frame/intra block predictive coding in video coding |
KR20100079361A (en) * | 2008-12-31 | 2010-07-08 | 갤럭시아커뮤니케이션즈 주식회사 | Block based motion-search area rate distortion optimization using motion blur/deblur post filter |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101437920B1 (en) * | 2014-07-04 | 2014-11-04 | 세안기술 주식회사 | A correctopn method for the camera wobble when measuring the vibration displacement using camera image |
US9950667B2 (en) | 2014-12-19 | 2018-04-24 | Hyundai Mobis Co., Ltd. | Vehicle system for detecting object and operation method thereof |
US9741393B2 (en) | 2015-09-08 | 2017-08-22 | Hanwha Techwin Co., Ltd. | Method and method for shortening video with event preservation |
KR20170082945A (en) * | 2016-01-07 | 2017-07-17 | 에스케이텔레콤 주식회사 | Method and Apparatus for Stabilizing Video |
KR101945233B1 (en) * | 2016-01-07 | 2019-02-07 | 에스케이 텔레콤주식회사 | Method and Apparatus for Stabilizing Video |
KR101865173B1 (en) | 2017-02-03 | 2018-06-07 | (주)플레이솔루션 | Method for generating movement of motion simulator using image analysis of virtual reality contents |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10237483B2 (en) | Image stabilization techniques for video surveillance systems | |
US10929680B2 (en) | Automatic extraction of secondary video streams | |
KR100677913B1 (en) | Apparatus for tracing a moving object by mixing the video signals from multi sensors | |
US10037599B2 (en) | Automatic gain control filter in a video analysis system | |
US8848053B2 (en) | Automatic extraction of secondary video streams | |
US9141866B2 (en) | Summarizing salient events in unmanned aerial videos | |
US7982774B2 (en) | Image processing apparatus and image processing method | |
US9805271B2 (en) | Scene preset identification using quadtree decomposition analysis | |
KR101396838B1 (en) | Video stabilization method and system by selection one of various motion models | |
EP1542153A1 (en) | Object detection | |
US11288101B2 (en) | Method and system for auto-setting of image acquisition and processing modules and of sharing resources in large scale video systems | |
EP1542152A1 (en) | Object detection | |
CN115760912A (en) | Moving object tracking method, device, equipment and computer readable storage medium | |
US20220004748A1 (en) | Video display method, device and system, and video camera | |
US20190027004A1 (en) | Method for performing multi-camera automatic patrol control with aid of statistics data in a surveillance system, and associated apparatus | |
JP2005346425A (en) | Automatic tracking system and automatic tracking method | |
JP2014110020A (en) | Image processor, image processing method and image processing program | |
KR101460317B1 (en) | Detection apparatus of moving object in unstable camera environment and method thereof | |
WO2020095644A1 (en) | State-change detection device, state-change detection method, and computer-readable recording medium | |
JP2007293559A (en) | Device and method for detecting non-stationary image, and program mounted with the method | |
KR102430033B1 (en) | Method for detecting object and apparatus thereof | |
JP2013246601A (en) | Image process device | |
Rasti et al. | Video Stabilization and Completion Using the Scale-Invariant Features and RANSAC Robust Estimator | |
JP6308612B2 (en) | Image processing apparatus, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20170928 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20180223 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20190225 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20200225 Year of fee payment: 7 |