KR101826463B1 - Method and apparatus for synchronizing time line of videos - Google Patents

Method and apparatus for synchronizing time line of videos Download PDF

Info

Publication number
KR101826463B1
KR101826463B1 KR1020170001956A KR20170001956A KR101826463B1 KR 101826463 B1 KR101826463 B1 KR 101826463B1 KR 1020170001956 A KR1020170001956 A KR 1020170001956A KR 20170001956 A KR20170001956 A KR 20170001956A KR 101826463 B1 KR101826463 B1 KR 101826463B1
Authority
KR
South Korea
Prior art keywords
sequence
moving picture
target
time axis
sequences
Prior art date
Application number
KR1020170001956A
Other languages
Korean (ko)
Inventor
윤경로
고명준
Original Assignee
건국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건국대학교 산학협력단 filed Critical 건국대학교 산학협력단
Priority to KR1020170001956A priority Critical patent/KR101826463B1/en
Application granted granted Critical
Publication of KR101826463B1 publication Critical patent/KR101826463B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/04Synchronising
    • H04N5/06Generation of synchronising signals
    • H04N5/067Arrangements or circuits at the transmitter end
    • H04N5/073Arrangements or circuits at the transmitter end for mutually locking plural sources of synchronising signals, e.g. studios or relay stations
    • H04N5/0733Arrangements or circuits at the transmitter end for mutually locking plural sources of synchronising signals, e.g. studios or relay stations for distributing synchronisation pulses to different TV cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • H04N5/23238
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/93Regeneration of the television signal or of selected parts thereof
    • H04N5/935Regeneration of digital synchronisation signals

Abstract

Provided are a method and an apparatus for synchronizing a time axis of a video. In order to synchronize a time axis of videos, a reference sequence of a reference video is determined and a target sequence of a target video corresponding to the reference sequence is determined. Time axes of the reference video and the target video are synchronized based on the reference sequence and the target sequence.

Description

동영상의 시간 축을 동기화하기 위한 방법 및 장치{METHOD AND APPARATUS FOR SYNCHRONIZING TIME LINE OF VIDEOS}METHOD AND APPARATUS FOR SYNCHRONIZING TIME LINE OF VIDEOS BACKGROUND OF THE INVENTION [0001]

기술 분야는 동영상의 시간 축을 조정하는 기술에 관한 것으로, 특히 복수의 카메라에 의해 촬영된 동영상들의 시간 축을 조정하는 장치 및 방법에 관한 것이다.The present invention relates to a technique for adjusting a time axis of a moving image, and more particularly to an apparatus and method for adjusting a time axis of moving images captured by a plurality of cameras.

디지털 컨텐츠는 3차원 영상, 파노라믹 영상 등 다양한 형태로 발전되고 있다. 그 중 파노라믹 영상은 여러 동영상을 정합하여 넓은 시야각을 제공하는 컨텐츠로 파노라믹 정지 영상과, 파노라믹 동영상이 있다. 파노라믹 정지 영상은 여러 정지 영상을 정합하여 하나의 정지 영상으로 만든 것이며, 보통 정적인 배경을 대상으로 한다. 파노라믹 동영상은 다수의 카메라로 촬영한 동영상들을 정합하여 하나의 파노라믹 동영상으로 만든 것이며, 파노라믹 정지 영상에 비해 기술적인 어려움이 있다.Digital contents are being developed in various forms such as 3D image and panoramic image. Among them, panoramic images are contents that provide a wide viewing angle by matching various videos, and there are panoramic still images and panoramic videos. Panoramic still images are created by matching several still images into one still image, which is usually aimed at a static background. Panoramic video is made of one panoramic video by matching videos shot by multiple cameras, which is technically more difficult than panoramic still images.

한국공개특허 제10-2016-0021501호(공개일 2016년 02월 26일)에는 동영상 처리 장치가 공개되어 있다. 공개된 동영상 처리 장치는, 카메라에 의해 촬영된 동영상을 저장하는 저장부, 동영상에 포함된 복수의 키 프레임 내의 대상 오브젝트 및 배경 이미지를 각각 분리하고, 분리된 각 배경 이미지를 스티칭한 후 대상 오브젝트를 합성하여 파노라믹 이미지를 획득하고, 획득된 파노라믹 이미지를 이용하여 파노라믹 동영상을 생성하는 제어부를 포함한다.Korean Patent Publication No. 10-2016-0021501 (published on February 26, 2016) discloses a video processing apparatus. A disclosed moving image processing apparatus includes a storage unit for storing a moving image photographed by a camera, a target object in a plurality of key frames included in the moving image, and a background image, respectively, separates each separated background image, And a controller for acquiring a panoramic image by synthesizing the panoramic image and generating a panoramic image using the obtained panoramic image.

일 실시예는 동영상의 시간 축을 동기화하는 장치 및 방법을 제공할 수 있다.One embodiment may provide an apparatus and method for synchronizing the temporal axis of a moving picture.

일 실시예는 복수의 동영상을 이용하여 파노라믹 동영상을 생성하는 장치 및 방법을 제공할 수 있다.One embodiment can provide an apparatus and method for generating a panoramic moving picture using a plurality of moving pictures.

일 측면에 따른, 동영상 시간 축 동기화 방법은, 기준 동영상 내의 하나 이상의 시퀀스들 중 기준 시퀀스를 결정하는 단계; 상기 기준 시퀀스 및 타겟 동영상에 기초하여 상기 기준 시퀀스의 하나 이상의 특징점들을 추출하는 단계; 상기 특징점에 기초하여 상기 기준 시퀀스에 대응하는 상기 타겟 동영상 내의 타겟 시퀀스를 결정하는 단계; 및 상기 기준 시퀀스 및 상기 타겟 시퀀스에 기초하여 상기 기준 동영상 및 상기 타겟 동영상의 시간 축을 동기화하는 단계를 포함한다.According to an aspect, a moving picture time axis synchronization method includes: determining a reference sequence of one or more sequences in a reference moving picture; Extracting at least one feature point of the reference sequence based on the reference sequence and the target moving picture; Determining a target sequence in the target moving picture corresponding to the reference sequence based on the feature point; And synchronizing the time axis of the reference moving picture and the time axis of the target moving picture based on the reference sequence and the target sequence.

상기 기준 동영상 및 상기 타겟 동영상은 서로 상이한 카메라들을 이용하여 촬영될 수 있다.The reference moving image and the target moving image may be photographed using cameras different from each other.

상기 동영상 시간 축 동기화 방법은, 상기 기준 동영상 내의 프레임들을 상기 하나 이상의 시퀀스들로 나누는 단계를 더 포함하고, 상기 하나 이상의 시퀀스들 각각은 미리 설정된 개수의 프레임들을 포함할 수 있다.The moving picture time axis synchronization method may further include dividing frames in the reference moving picture into the one or more sequences, wherein each of the one or more sequences may include a predetermined number of frames.

상기 기준 동영상 내의 하나 이상의 시퀀스들 중 기준 시퀀스를 결정하는 단계는, 상기 하나 이상의 시퀀스들 각각에 대한 시퀀스 유사도를 계산하는 단계; 및 상기 시퀀스 유사도에 기초하여 상기 기준 시퀀스를 결정하는 단계를 포함할 수 있다.Wherein the step of determining a reference sequence among the one or more sequences in the reference moving image comprises: calculating a sequence similarity for each of the one or more sequences; And determining the reference sequence based on the sequence similarity.

상기 시퀀스 유사도를 계산하는 단계는, 제1 시퀀스 내의 프레임들 각각의 히스토그램을 생성하는 단계; 상기 제1 시퀀스 내의 제1 프레임의 히스토그램 및 상기 제1 프레임과 시간적으로 인접한 제2 프레임의 히스토그램의 유사도를 계산하는 단계; 및 상기 계산된 유사도에 기초하여 상기 시퀀스 유사도를 계산하는 단계를 포함할 수 있다.Wherein the step of calculating the sequence similarity comprises: generating a histogram of each of the frames in the first sequence; Calculating a similarity between a histogram of a first frame in the first sequence and a histogram of a second frame temporally adjacent to the first frame; And calculating the sequence similarity based on the calculated similarity.

상기 하나 이상의 특징점들을 추출하는 단계는, 상기 기준 시퀀스 내의 프레임들 및 상기 타겟 동영상 내의 프레임들에 기초하여 SURF(Speeded Up Robust Features) 알고리즘을 이용하여 상기 하나 이상의 특징점들을 추출하는 단계를 포함할 수 있다.The step of extracting the one or more feature points may comprise extracting the one or more feature points using a Speed Up Robust Features (SURF) algorithm based on the frames in the reference sequence and the frames in the target motion picture .

상기 타겟 시퀀스를 결정하는 단계는, 상기 기준 시퀀스 및 상기 타겟 동영상 내의 하나 이상의 시퀀스들 각각 간의 유사도를 계산하는 단계; 및 상기 계산된 유사도에 기초하여 상기 타겟 동영상 내의 하나 이상의 시퀀스들 중 상기 타겟 시퀀스를 결정하는 단계를 포함할 수 있다.Wherein determining the target sequence comprises: calculating a similarity between each of the one or more sequences in the reference sequence and the target moving picture; And determining the target sequence of one or more sequences in the target moving image based on the calculated similarity.

상기 동영상 시간 축 동기화 방법은, 시간 축이 동기화된 상기 기준 동영상 및 상기 타겟 동영상을 이용하여 파노라믹 동영상을 생성하는 단계를 더 포함할 수 있다.The moving picture time axis synchronization method may further include generating a panoramic moving picture using the reference moving picture and the target moving picture whose time axis is synchronized.

다른 일 측면에 따른, 동영상 시간 축 동기화 장치는, 동영상의 시간 축을 동기화하는 프로그램이 기록된 메모리; 및 상기 프로그램을 수행하는 프로세서를 포함하고, 상기 프로그램은, 기준 동영상 내의 하나 이상의 시퀀스들 중 기준 시퀀스를 결정하는 단계; 상기 기준 시퀀스 및 타겟 동영상에 기초하여 상기 기준 시퀀스의 하나 이상의 특징점들을 추출하는 단계; 상기 특징점에 기초하여 상기 기준 시퀀스에 대응하는 상기 타겟 동영상 내의 타겟 시퀀스를 결정하는 단계; 및 상기 기준 시퀀스 및 상기 타겟 시퀀스에 기초하여 상기 기준 동영상 및 상기 타겟 동영상의 시간 축을 동기화하는 단계를 수행한다.According to another aspect, a moving picture time axis synchronization apparatus includes: a memory in which a program for synchronizing a time axis of a moving picture is recorded; And a processor for performing the program, the program comprising: determining a reference sequence of one or more sequences in a reference moving picture; Extracting at least one feature point of the reference sequence based on the reference sequence and the target moving picture; Determining a target sequence in the target moving picture corresponding to the reference sequence based on the feature point; And synchronizing a time axis of the reference moving picture and the time axis of the target moving picture based on the reference sequence and the target sequence.

상기 기준 동영상 및 상기 타겟 동영상은 서로 상이한 카메라들을 이용하여 촬영될 수 있다.The reference moving image and the target moving image may be photographed using cameras different from each other.

상기 프로그램은, 상기 기준 동영상 내의 프레임들을 상기 하나 이상의 시퀀스들로 나누는 단계를 더 수행하고, 상기 하나 이상의 시퀀스들 각각은 미리 설정된 개수의 프레임들을 포함할 수 있다.The program further comprises dividing frames in the reference moving picture into the one or more sequences, wherein each of the one or more sequences may include a predetermined number of frames.

상기 기준 동영상 내의 하나 이상의 시퀀스들 중 기준 시퀀스를 결정하는 단계는, 상기 하나 이상의 시퀀스들 각각에 대한 시퀀스 유사도를 계산하는 단계; 상기 시퀀스 유사도에 기초하여 상기 기준 시퀀스를 결정하는 단계를 포함할 수 있다.Wherein the step of determining a reference sequence among the one or more sequences in the reference moving image comprises: calculating a sequence similarity for each of the one or more sequences; And determining the reference sequence based on the sequence similarity.

상기 시퀀스 유사도를 계산하는 단계는, 제1 시퀀스 내의 프레임들 각각의 히스토그램을 생성하는 단계; 상기 제1 시퀀스 내의 제1 프레임의 히스토그램 및 상기 제1 프레임과 시간적으로 인접한 제2 프레임의 히스토그램의 유사도를 계산하는 단계; 및 상기 계산된 유사도에 기초하여 상기 시퀀스 유사도를 계산하는 단계를 포함할 수 있다.Wherein the step of calculating the sequence similarity comprises: generating a histogram of each of the frames in the first sequence; Calculating a similarity between a histogram of a first frame in the first sequence and a histogram of a second frame temporally adjacent to the first frame; And calculating the sequence similarity based on the calculated similarity.

상기 하나 이상의 특징점들을 추출하는 단계는, 상기 기준 시퀀스 내의 프레임들 및 상기 타겟 동영상 내의 프레임들에 기초하여 SURF(Speeded Up Robust Features) 알고리즘을 이용하여 상기 하나 이상의 특징점들을 추출하는 단계를 포함할 수 있다.The step of extracting the one or more feature points may comprise extracting the one or more feature points using a Speed Up Robust Features (SURF) algorithm based on the frames in the reference sequence and the frames in the target motion picture .

상기 타겟 시퀀스를 결정하는 단계는, 상기 기준 시퀀스 및 상기 타겟 동영상 내의 하나 이상의 시퀀스들 각각 간의 유사도를 계산하는 단계; 및 상기 계산된 유사도에 기초하여 상기 타겟 동영상 내의 하나 이상의 시퀀스들 중 상기 타겟 시퀀스를 결정하는 단계를 포함할 수 있다.Wherein determining the target sequence comprises: calculating a similarity between each of the one or more sequences in the reference sequence and the target moving picture; And determining the target sequence of one or more sequences in the target moving image based on the calculated similarity.

상기 프로그램은, 시간 축이 동기화된 상기 기준 동영상 및 상기 타겟 동영상을 이용하여 파노라믹 동영상을 생성하는 단계를 더 수행할 수 있다.The program may further comprise generating a panoramic moving picture using the reference moving picture and the target moving picture whose time axis is synchronized.

동영상의 시간 축을 동기화하는 장치 및 방법이 제공된다.An apparatus and method for synchronizing the time axis of a moving picture is provided.

복수의 동영상을 이용하여 파노라믹 동영상을 생성하는 장치 및 방법이 제공된다.An apparatus and method for generating a panoramic moving picture using a plurality of moving pictures are provided.

도 1은 일 예에 따른 동영상 촬영 시스템을 도시한다.
도 2는 일 실시예에 따른 동영상 시간 축 동기화 장치의 구성도이다.
도 3은 일 실시예에 따른 동영상 시간 축 동기화 방법의 흐름도이다.
도 4는 일 예에 따른 기준 시퀀스를 결정하는 방법의 흐름도이다.
도 5는 일 예에 따른 시퀀스 유사도를 계산하는 방법의 흐름도이다.
도 6은 일 예에 따른 타겟 시퀀스를 결정하는 방법의 흐름도이다.
도 7은 일 예에 따른 타겟 시퀀스를 결정하는 방법을 도시한다.
1 shows a moving picture photographing system according to an example.
2 is a configuration diagram of a moving picture time axis synchronization apparatus according to an embodiment.
3 is a flowchart of a moving picture time axis synchronization method according to an embodiment.
4 is a flow diagram of a method for determining a reference sequence according to an example.
5 is a flowchart of a method of calculating a sequence similarity according to an example.
6 is a flow diagram of a method for determining a target sequence in accordance with an example.
FIG. 7 illustrates a method for determining a target sequence according to an example.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 특허출원의 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.In the following, embodiments will be described in detail with reference to the accompanying drawings. However, the scope of the patent application is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.

아래 설명하는 실시예들에는 다양한 변경이 가해질 수 있다. 아래 설명하는 실시예들은 실시 형태에 대해 한정하려는 것이 아니며, 이들에 대한 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Various modifications may be made to the embodiments described below. It is to be understood that the embodiments described below are not intended to limit the embodiments, but include all modifications, equivalents, and alternatives to them.

실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used only to illustrate specific embodiments and are not intended to limit the embodiments. The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises" or "having" and the like refer to the presence of stated features, integers, steps, operations, elements, components, or combinations thereof, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this embodiment belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In the following description of the present invention with reference to the accompanying drawings, the same components are denoted by the same reference numerals regardless of the reference numerals, and redundant explanations thereof will be omitted. In the following description of the embodiments, a detailed description of related arts will be omitted if it is determined that the gist of the embodiments may be unnecessarily blurred.

도 1은 일 예에 따른 동영상 촬영 시스템을 도시한다.1 shows a moving picture photographing system according to an example.

카메라들(120, 130) 각각은 장면(110)을 촬영함으로써 이미지들을 생성한다. 제1 카메라(120)에 의해 촬영된 복수의 이미지들(124)은 제1 시점의 동영상을 구성할 수 있다. 제2 카메라(130)에 의해 촬영된 복수의 이미지들(134)는 제2 시점의 동영상을 구성할 수 있다.Each of the cameras 120 and 130 creates images by shooting a scene 110. The plurality of images 124 captured by the first camera 120 may constitute a moving image at a first time point. The plurality of images 134 photographed by the second camera 130 may constitute a moving image at the second time point.

제1 카메라(120)의 시야(122) 및 제2 카메라(130)의 시야(132)가 겹치는 경우, 각각의 카메라에 의해 촬영된 이미지들(124, 134)을 이용하여 파노라믹(panoramic) 동영상이 생성될 수 있다. 파노라믹 동영상을 생성하기 위해, 먼저 파노라믹 이미지가 생성되어야 한다. 파노라믹 이미지는 동일한 시각에 촬영된 두 개 이상의 이미지들을 스티칭(stitching)함으로써 생성될 수 있다.When the field of view 122 of the first camera 120 overlaps the field of view 132 of the second camera 130, a panoramic image is created using the images 124 and 134 taken by the respective cameras. A video can be created. To create a panoramic movie, a panoramic image must first be created. A panoramic image can be created by stitching two or more images taken at the same time.

서로 다른 카메라들(120, 130)을 이용하여 촬영된 이미지들(124, 134)은 서로 다른 시간 축을 가지고 있을 수 있다. 예를 들어, 카메라들(120, 130) 각각의 내부 클록(또는 시계)에 차이가 있어서, 이미지들(124, 134)은 상이한 시간 축을 가지고 있을 수 있다. 이미지들(124, 134)의 시간 축을 동기화하는 경우, 보다 향상된 파노라믹 이미지가 생성될 수 있다.The images 124 and 134 taken using different cameras 120 and 130 may have different time axes. For example, there may be differences in the internal clocks (or clocks) of each of the cameras 120 and 130 such that the images 124 and 134 may have different time axes. When synchronizing the time axis of images 124 and 134, a more enhanced panoramic image can be generated.

아래에서, 도 2 내지도 도 7을 참조하여 동영상의 시간 축을 동기화하는 방법이 상세히 설명된다.Hereinafter, a method of synchronizing the time axis of a moving picture will be described in detail with reference to FIG. 2 to FIG.

도 2는 일 실시예에 따른 동영상 시간 축 동기화 장치의 구성도이다.2 is a configuration diagram of a moving picture time axis synchronization apparatus according to an embodiment.

동영상 시간 축 동기화 장치(200)(이하, 동영상 시간 축 동기화 장치(200)는 장치(200)로 약술된다)는 통신부(210), 프로세서(220) 및 메모리(230)를 포함한다. 실시예에 따라, 장치(200)는 복수의 카메라들(도시되지 않음)을 더 포함할 수 있다. 예를 들어, 장치(200)는 시스템 온 칩(System-On-Chip: SOC)으로 구현될 수 있으나, 기재된 실시예로 한정되는 것은 아니다.The moving picture time axis synchronizer 200 (hereinafter, the moving picture time axis synchronizer 200 is outlined as an apparatus 200) includes a communication unit 210, a processor 220 and a memory 230. According to an embodiment, the apparatus 200 may further include a plurality of cameras (not shown). For example, the device 200 may be implemented as a system-on-chip (SOC), but is not limited to the described embodiments.

통신부(210)는 프로세서(220) 및 메모리(230)와 연결되어 데이터를 송수신한다. 통신부(210)는 외부의 다른 장치와 연결되어 데이터를 송수신할 수 있다.The communication unit 210 is connected to the processor 220 and the memory 230 to transmit and receive data. The communication unit 210 may be connected to another external device to transmit / receive data.

통신부(210)는 장치(200) 내의 회로망(circuitry)으로 구현될 수 있다. 예를 들어, 통신부(210)는 내부 버스(internal bus) 및 외부 버스(internal bus)를 포함할 수 있다. 다른 예로, 통신부(210)는 장치(200)와 외부의 장치를 연결하는 요소일 수 있다. 통신부(210)는 인터페이스(interface)일 수 있다. 통신부(210)는 외부의 장치로부터 데이터를 수신하여, 프로세서(220) 및 메모리(230)에 데이터를 전송할 수 있다.The communication unit 210 may be implemented as a circuitry in the device 200. For example, the communication unit 210 may include an internal bus and an internal bus. As another example, the communication unit 210 may be an element that connects the device 200 and an external device. The communication unit 210 may be an interface. The communication unit 210 can receive data from an external device and transmit data to the processor 220 and the memory 230. [

프로세서(220)는 통신부(210)가 수신한 데이터 및 메모리(230)에 저장된 데이터를 처리한다. "프로세서"는 목적하는 동작들(desired operations)을 실행시키기 위한 물리적인 구조를 갖는 회로를 가지는 하드웨어로 구현된 데이터 처리 장치일 수 있다. 예를 들어, 목적하는 동작들은 프로그램에 포함된 코드(code) 또는 인스트럭션들(instructions)을 포함할 수 있다. 예를 들어, 하드웨어로 구현된 데이터 처리 장치는 마이크로프로세서(microprocessor), 중앙 처리 장치(central processing unit), 프로세서 코어(processor core), 멀티-코어 프로세서(multi-core processor), 멀티프로세서(multiprocessor), ASIC(Application-Specific Integrated Circuit), FPGA(Field Programmable Gate Array)를 포함할 수 있다.The processor 220 processes the data received by the communication unit 210 and the data stored in the memory 230. "Processor" may be a data processing device embodied in hardware having circuitry having a physical structure for performing desired operations. For example, the desired actions may include code or instructions included in the program. For example, a data processing apparatus embodied in hardware may be a microprocessor, a central processing unit, a processor core, a multi-core processor, a multiprocessor, , An application-specific integrated circuit (ASIC), and a field programmable gate array (FPGA).

프로세서(220)는 메모리(예를 들어, 메모리(230))에 저장된 컴퓨터로 읽을 수 있는 코드(예를 들어, 소프트웨어) 및 프로세서(220)에 의해 유발된 인스트럭션들을 실행한다.The processor 220 executes computer readable code (e.g., software) stored in a memory (e.g., memory 230) and instructions triggered by the processor 220.

메모리(230)는 통신부(210)가 수신한 데이터 및 프로세서(220)가 처리한 데이터를 저장한다. 예를 들어, 메모리(230)는 프로그램을 저장할 수 있다. 저장되는 프로그램은 동영상(또는 이미지)의 시간 축을 동기화시킬 수 있도록 코딩되어 프로세서(220)에 의해 실행 가능한 신텍스(syntax)들의 집합일 수 있다.The memory 230 stores data received by the communication unit 210 and data processed by the processor 220. [ For example, the memory 230 may store a program. The stored program may be a set of syntaxes executable by the processor 220 that are coded to synchronize the time axis of the moving image (or image).

일 측면에 따르면, 메모리(230)는 하나 이상의 휘발성 메모리, 비휘발성 메모리 및 RAM(Random Access Memory), 플래시 메모리, 하드 디스크 드라이브 및 광학 디스크 드라이브를 포함할 수 있다.According to an aspect, the memory 230 may include one or more volatile memory, non-volatile memory and random access memory (RAM), flash memory, hard disk drive, and optical disk drive.

메모리(230)는 장치(200)를 동작 시키는 명령어 세트(예를 들어, 소프트웨어)를 저장한다. 장치(200)를 동작 시키는 명령어 세트는 프로세서(220)에 의해 실행된다.The memory 230 stores a set of instructions (e.g., software) that operate the device 200. The instruction set that operates the device 200 is executed by the processor 220.

복수의 카메라들 각각은 장면을 촬영함으로써 이미지를 생성한다.Each of the plurality of cameras generates an image by shooting a scene.

통신부(210), 프로세서(220) 및 메모리(230)에 대해, 아래에서 도 3 내지 도 7을 참조하여 상세히 설명된다.The communication unit 210, the processor 220, and the memory 230 will be described in detail with reference to Figs. 3 to 7 below.

도 3은 일 실시예에 따른 동영상 시간 축 동기화 방법의 흐름도이다.3 is a flowchart of a moving picture time axis synchronization method according to an embodiment.

아래의 단계들(310 내지 370)은 도 2를 참조하여 전술된 장치(200)에 의해 수행된다.The following steps 310 to 370 are performed by the device 200 described above with reference to Fig.

단계(310)에서, 통신부(310)는 기준(reference) 동영상 및 타겟(target) 동영상을 획득한다. 예를 들어, 기준 동영상은 도 1을 참조하여 전술된 복수의 이미지들(124)에 대응하고, 타겟 동영상은 복수의 이미지들(134)에 대응할 수 있다. 기준 동영상 및 타겟 동영상은 서로 상이한 카메라에 의해 촬영된 동영상일 수 있다.In step 310, the communication unit 310 acquires a reference moving picture and a target moving picture. For example, the reference moving image corresponds to the plurality of images 124 described above with reference to FIG. 1, and the target moving image may correspond to the plurality of images 134. The reference video and the target video may be videos taken by different cameras.

일 측면에 따르면, 장치(200)가 복수의 카메라들을 포함하는 경우, 카메라에 의해 생성된 이미지들을 로드(load)함으로써, 통신부(310)는 기준 동영상 및 타겟 동영상을 획득할 수 있다.According to an aspect, when the apparatus 200 includes a plurality of cameras, the communication unit 310 can acquire the reference moving image and the target moving image by loading images generated by the camera.

다른 일 측면에 따르면, 외부의 장치를 통해 통신부(310)는 기준 동영상 및 타겟 동영상을 획득할 수 있다.According to another aspect, the communication unit 310 can acquire the reference moving image and the target moving image through an external device.

단계(320)에서, 프로세서(220)는 동영상 내의 프레임들을 하나 이상의 시퀀스들로 나눈다. 예를 들어, 프로세서(220)는 기준 동영상 내의 프레임들을 하나 이상의 시퀀스들로 나눌 수 있다. 시퀀스는 미리 설정된 개수의 프레임들을 포함할 수 있다. 예를 들어, 각각의 시퀀스는 프레임의 생성 순서대로 5개의 프레임들을 포함할 수 있다.At step 320, the processor 220 divides the frames in the motion picture into one or more sequences. For example, processor 220 may divide frames within a reference moving picture into one or more sequences. The sequence may include a predetermined number of frames. For example, each sequence may include five frames in the order of generation of the frames.

단계(330)에서, 프로세서(220)는 기준 동영상 내의 하나 이상의 시퀀스들 중 기준 시퀀스를 결정한다. 기준 시퀀스는 기준 동영상과 타겟 동영상과의 시간 축을 동기화하기 위해 이용되는 시퀀스일 수 있다. 기준 시퀀스는 하나 이상의 시퀀스들 중 프레임 내의 변화가 가장 많은 시퀀스일 수 있다. 프레임 내의 변화가 많은 경우, 기준 동영상과 타겟 동영상의 프레임 매칭이 용이할 수 있다.At step 330, the processor 220 determines a reference sequence of one or more sequences in the reference moving picture. The reference sequence may be a sequence used to synchronize the time axis of the reference moving image with the target moving image. The reference sequence may be the sequence with the greatest variation within the frame of one or more sequences. If there are many changes in the frame, frame matching of the reference moving image and the target moving image may be easy.

기준 시퀀스를 결정하는 방법에 대해, 아래에서 도 4 및 5를 참조하여 상세히 설명된다.A method of determining the reference sequence will be described in detail below with reference to FIGS.

단계(340)에서, 프로세서(220)는 기준 시퀀스의 하나 이상의 특징점들을 추출한다. 특징점은 기준 시퀀스에 대응하는 타겟 동영상의 시퀀스를 결정하기 위해 이용될 수 있다.At step 340, the processor 220 extracts one or more feature points of the reference sequence. The feature point may be used to determine a sequence of target videos corresponding to the reference sequence.

일 측면에 따르면, 프로세서(220)는 기준 시퀀스 내의 프레임들 및 타겟 동영상 내의 프레임들에 기초하여 SURF(Speeded Up Robust Features) 알고리즘을 이용하여 하나 이상의 특징점들을 추출할 수 있다.According to an aspect, the processor 220 may extract one or more feature points using a Speed Up Robust Features (SURF) algorithm based on the frames in the reference sequence and the frames in the target video.

단계(350)에서, 프로세서(220)는 특징점에 기초하여 기준 시퀀스에 대응하는 타겟 동영상의 타겟 시퀀스를 결정한다. 예를 들어, 타겟 동영상이 하나 이상의 시퀀스들로 나뉜 경우, 하나 이상의 시퀀스들 중 타겟 시퀀스가 결정될 수 있다. 타겟 동영상의 시퀀스들 각각은 기준 동영상의 시퀀스와 동일한 개수의 프레임들을 포함할 수 있다. 타겟 시퀀스를 결정하는 방법에 대해, 아래에서 도 6을 참조하여 상세히 설명된다.In step 350, the processor 220 determines a target sequence of target videos corresponding to the reference sequence based on the feature points. For example, if the target video is divided into one or more sequences, the target sequence of one or more sequences may be determined. Each of the sequences of the target moving picture may include the same number of frames as the sequence of the reference moving picture. A method of determining a target sequence will be described in detail below with reference to Fig.

단계(360)에서, 프로세서(220)는 기준 시퀀스 및 타겟 시퀀스에 기초하여 기준 동영상 및 타겟 동영상의 시간 축을 동기화한다. 예를 들어, 프로세서(220)는 기준 시퀀스의 프레임들 및 타겟 시퀀스들의 프레임들이 동일한 시각에 촬영된 것으로 설정함으로써 기준 동영상 및 타겟 동영상의 시간 축을 동기화할 수 있다.At step 360, the processor 220 synchronizes the time axis of the reference video and the target video based on the reference sequence and the target sequence. For example, the processor 220 can synchronize the time axis of the reference moving image and the target moving image by setting frames of the reference sequence and frames of the target sequence to be photographed at the same time.

단계(370)는 단계(360)가 수행된 후, 선택적으로 수행될 수 있다.Step 370 may optionally be performed after step 360 has been performed.

단계(370)에서, 프로세서(220)는 시간 축이 동기화된 기준 동영상 및 타겟 동영상을 이용하여 파노라믹 동영상을 생성한다. 프로세서(220)는 기준 동영상 내의 프레임 및 타겟 동영상의 프레임을 이용하여 특정 시각에 대한 파노라믹 이미지를 생성하고, 파노라믹 이미지들에 기초하여 파노라믹 동영상을 생성할 수 있다.In step 370, the processor 220 generates a panoramic movie using the reference moving picture and the target moving picture whose time axis is synchronized. The processor 220 may generate a panoramic image for a specific time using a frame in the reference moving image and a frame of the target moving image and generate a panoramic image based on the panoramic images.

도 4는 일 예에 따른 기준 시퀀스를 결정하는 방법의 흐름도이다.4 is a flow diagram of a method for determining a reference sequence according to an example.

도 3을 참조하여 전술된 단계(330)는 아래의 단계들(410, 420)을 포함한다.Step 330 described above with reference to FIG. 3 includes the following steps 410, 420.

단계(410)에서, 프로세서(220)는 기준 동영상의 하나 이상의 시퀀스들 각각에 대한 시퀀스 유사도를 계산한다. 시퀀스 유사도는 시퀀스 내에 포함된 프레임들 간의 유사도를 나타낼 수 있다. 시퀀스 유사도가 낮을수록, 해당 시퀀스의 오브젝트는 움직임이 많은 것으로 판단된다. 시퀀스 유사도를 계산하는 방법에 대해, 아래에서 도 5를 참조하여 상세히 설명된다.At step 410, the processor 220 calculates a sequence similarity for each of the one or more sequences of the reference moving picture. The sequence similarity may indicate the similarity between the frames included in the sequence. The lower the sequence similarity is, the more the object of the corresponding sequence is determined to have a lot of motion. A method of calculating the sequence similarity will be described in detail below with reference to FIG.

단계(420)에서, 프로세서(220)는 시퀀스 유사도에 기초하여 기준 시퀀스를 결정한다. 예를 들어, 시퀀스 유사도가 가장 낮은 시퀀스가 기준 시퀀스로 결정될 수 있다.At step 420, the processor 220 determines a reference sequence based on the sequence similarity. For example, a sequence with the lowest sequence similarity may be determined as a reference sequence.

도 5는 일 예에 따른 시퀀스 유사도를 계산하는 방법의 흐름도이다.5 is a flowchart of a method of calculating a sequence similarity according to an example.

도 4를 참조하여 전술된 단계(410)는 아래의 단계들(510, 520, 430)을 포함한다.Step 410, described above with reference to FIG. 4, includes the following steps 510, 520, 430.

단계(510)에서, 프로세서(220)는 기준 동영상의 제1 시퀀스 내의 프레임들 각각에 대한 히스토그램을 생성한다. 제1 시퀀스는 기준 동영상의 하나 이상의 시퀀스들 중 하나를 의미하며, 특정한 시퀀스를 나타내는 것은 아니다. 히스토그램은 프레임에 포함된 각 픽셀의 R(Red), G(Green), B(Blue) 값의 분포일 수 있다.At step 510, the processor 220 generates a histogram for each of the frames in the first sequence of reference animations. The first sequence means one of more than one sequences of the reference moving picture, and does not represent a specific sequence. The histogram may be a distribution of R (Red), G (Green), and B (Blue) values of each pixel included in the frame.

단계(520)에서, 프로세서(220)는 제1 시퀀스 내의 제1 프레임의 히스토그램 및 제1 프레임과 시간적으로 인접한 제2 프레임의 히스토그램 간의 유사도를 계산한다. 제1 프레임 및 제2 프레임은 모두 제1 시퀀스 내의 프레임들이다. 예를 들어, 제1 프레임의 프레임 번호가 45인 경우, 제2 프레임의 프레임 번호는 46일 수 있다.At step 520, the processor 220 calculates the similarity between the histogram of the first frame in the first sequence and the histogram of the second frame temporally adjacent to the first frame. The first frame and the second frame are both frames in the first sequence. For example, if the frame number of the first frame is 45, the frame number of the second frame may be 46.

단계(530)에서, 프로세서(220)는 계산된 유사도에 기초하여 제1 시퀀스의 시퀀스 유사도를 계산한다. 예를 들어, 제1 시퀀스가 n 개의 프레임들을 포함하는 경우, 제1 시퀀스의 시퀀스 유사도는 아래의 [수학식 1]을 이용하여 계산될 수 있다. 유사도(i, i+1)는 i 번째 프레임 및 i+1 번째 프레임 간의 유사도이다.At step 530, the processor 220 calculates the sequence similarity of the first sequence based on the calculated similarity. For example, if the first sequence includes n frames, the sequence similarity of the first sequence may be calculated using Equation (1) below. The similarity (i, i + 1) is the similarity between the i-th frame and the (i + 1) -th frame.

Figure 112017001628313-pat00001
Figure 112017001628313-pat00001

도 6은 일 예에 따른 타겟 시퀀스를 결정하는 방법의 흐름도이다.6 is a flow diagram of a method for determining a target sequence in accordance with an example.

도 3을 참조하여 전술된 단계(350)는 아래의 단계들(610, 620)을 포함한다.Step 350 described above with reference to FIG. 3 includes the following steps 610 and 620.

단계(610)에서, 프로세서(220)는 기준 시퀀스 및 타겟 동영상 내의 시퀀스들 각각 간의 유사도를 계산한다. 프로세서(220)는 특징점을 이용하여 기준 시퀀스와 타겟 동영상의 시퀀스 간의 유사도를 계산할 수 있다. 프로세서(220)는 기준 시퀀스와 타겟 동영상의 시퀀스들 각각에 대해 이미지 매칭을 할 수 있다. 예를 들어, 이미지 매칭은 SURF 기반의 디스크립터 매칭(Descriptor Matching)일 수 있다. 프로세서(220)는 디스크립터 매칭을 이용하여 각 특징점에 대한 타겟 프레임의 최근접점 정보를 계산할 수 있다. 타겟 프레임은 이미지 매칭이 수행되는 타겟 동영상의 프레임이다. 프로세서(220)는 최근접점 정보에 기초하여 특징점과 최근접점에 대한 유클리디안 거리(Euclidean distance)를 계산할 수 있다. 유클리디안 거리는 유사도에 대응할 수 있다.In step 610, the processor 220 calculates the similarity between each of the sequences in the reference sequence and the target moving picture. The processor 220 can calculate the similarity between the reference sequence and the sequence of the target moving image using the minutiae points. The processor 220 may perform image matching for each of the sequences of the reference sequence and the target moving image. For example, the image matching may be a SURF-based Descriptor Matching. Processor 220 may calculate nearest point information of a target frame for each feature point using descriptor matching. The target frame is a frame of the target video in which image matching is performed. The processor 220 may calculate the Euclidean distance for the feature point and the nearest point based on the nearest point of contact information. The Euclidean distance can correspond to the degree of similarity.

단계(620)에서, 프로세서(220)는 시퀀스들 간의 계산된 유사도에 기초하여 타겟 동영상 내의 하나 이상의 시퀀스들 중 타겟 시퀀스를 결정한다. 예를 들어, 프로세서(220)는 유사도가 가장 높은 시퀀스를 타겟 시퀀스로 결정할 수 있다.In step 620, the processor 220 determines a target sequence of one or more sequences in the target moving image based on the calculated similarity between the sequences. For example, the processor 220 may determine the sequence with the highest degree of similarity as the target sequence.

프로세서(220)는 타겟 시퀀스가 결정된 경우, 기준 시퀀스 및 타겟 시퀀스에 기초하여 기준 동영상 및 타겟 동영상의 시간 축을 동기화할 수 있다. 예를 들어, 기준 시퀀스 및 타겟 시퀀스를 동일한 시각에 촬영된 것으로 설정하고, 시퀀스의 순서에 따라 타겟 동영상의 시퀀스들을 기준 동영상의 시퀀스들과 매칭시킬 수 있다.The processor 220 may synchronize the time axis of the reference video and the target video based on the reference sequence and the target sequence, if a target sequence is determined. For example, the reference sequence and the target sequence may be set to be photographed at the same time, and the sequences of the target moving image may be matched with the sequences of the reference moving image according to the order of the sequence.

도 7은 일 예에 따른 타겟 시퀀스를 결정하는 방법을 도시한다.FIG. 7 illustrates a method for determining a target sequence according to an example.

도 7에는 기준 동영상(710) 및 타겟 동영상(720)이 직관적으로 도시된다. 기준 동영상(710)은 300개의 프레임들을 포함하고, 프레임들은 하나 이상의 시퀀스들로 나뉠 수 있다. 시퀀스 유사도에 기초하여 시퀀스들 중 기준 시퀀스(712)가 결정될 수 있다.7, the reference moving picture 710 and the target moving picture 720 are intuitively shown. The reference moving image 710 includes 300 frames, and the frames may be divided into one or more sequences. A reference sequence 712 of the sequences may be determined based on the sequence similarity.

타겟 동영상(720)은 복수의 프레임들을 포함할 수 있다. 예를 들어, 타겟 동영상(720)은 기준 동영상(710)과 동일한 개수의 프레임들을 포함할 수 있다. 다른 예로, 타겟 동영상(720)는 기준 동영상(710)과 다른 개수의 프레임들을 포함할 수 있다.The target moving image 720 may include a plurality of frames. For example, the target moving image 720 may include the same number of frames as the reference moving image 710. [ As another example, the target moving image 720 may include a different number of frames than the reference moving image 710. [

타겟 동영상(720)의 프레임들은 하나 이상의 시퀀스들로 나뉠 수 있는데, 각각의 시퀀스가 포함하는 프레임의 개수는 기준 동영상(710)의 시퀀스에 포함되는 프레임의 개수와 동일할 수 있다.The frames of the target moving image 720 may be divided into one or more sequences, and the number of frames included in each sequence may be the same as the number of frames included in the sequence of the reference moving image 710.

기준 시퀀스(712)과 타겟 동영상(720)의 시퀀스들 각각에 대한 유사도가 계산되고, 유사도에 기초하여 타겟 시퀀스가 결정된다. 타겟 시퀀스가 결정된 경우, 기준 시퀀스와 동일한 시간 축에 위치하도록 타겟 시퀀스의 시간 축이 동기화될 수 있다.The similarity of each of the sequences of the reference sequence 712 and the target moving image 720 is calculated, and the target sequence is determined based on the similarity. If the target sequence is determined, the time axis of the target sequence can be synchronized to be located on the same time axis as the reference sequence.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks, and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with reference to the drawings, various technical modifications and variations may be applied to those skilled in the art. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

 실시예들은 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터 판독 가능 매체를 포함할 수 있다. 특히, 본 실시예에서는 터치 감지 디스플레이의 화면에 디지털 컨텐츠를 표시하는 컨텐츠 표시 코드와, 터치 감지 디스플레이에 대한 사용자의 터치 입력을 통해 디지털 컨텐츠에서 사용자가 선택한 객체를 인식하는 객체 인식 코드와, 사용자의 요청에 따라 객체에 애너테이션을 적용한 애너테이션 데이터를 생성하여 저장하는 애너테이션 저장 코드와, 디지털 컨텐츠의 내용이 구분된 항목 별로 각 항목에서 생성된 애너테이션 데이터의 개수를 카운트 하는 애너테이션 카운트 코드와, 사용자의 요청에 따라 항목 별 애너테이션 데이터의 개수를 제공하는 애너테이션 제공 코드를 포함하는 프로그램이 기록되는 컴퓨터 판독 가능 매체를 포함할 수 있다. 본 실시예에 따른 프로그램은 PC 기반의 프로그램 또는 모바일 단말 전용 어플리케이션(예를 들어, 스마트폰 어플리케이션, 피쳐폰 VM(virtual machine) 등의 형태) 등으로 구성될 수 있다. 이는, 사용자 단말 및/또는 전자책 서비스 시스템의 메모리에 저장되어 사용자 단말 및/또는 전자책 서비스 시스템에서 구동되는 적어도 하나의 프로세서에 의해 실행되도록 구성될 수 있다.Embodiments may include a computer readable medium having program instructions for performing various computer implemented operations. In particular, in the present embodiment, a content display code for displaying digital content on a screen of the touch-sensitive display, an object recognition code for recognizing an object selected by the user in the digital content through a touch input of the user for the touch- An annotation storing code for generating and storing annotation data in which an annotation is applied to an object in response to a request, an annunciation count code for counting the number of annotation data generated in each item for each item in which the contents of the digital contents are classified, , And an engineer providing code for providing the number of annotation data items per item at the request of the user. The program according to the present embodiment may be composed of a PC-based program or a mobile terminal exclusive application (for example, a form of a smart phone application, a feature phone VM (virtual machine), etc.). This may be configured to be executed by the user terminal and / or at least one processor stored in the memory of the electronic book service system and / or running in the user terminal and / or the electronic book service system.

 이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

200: 동영상 시간 축 동기화 장치
210: 통신부
220: 프로세서
230: 메모리
200: Video time axis synchronization device
210:
220: Processor
230: Memory

Claims (17)

기준 동영상 내의 하나 이상의 시퀀스들 중 기준 시퀀스를 결정하는 단계;
상기 기준 시퀀스 및 타겟 동영상에 기초하여 상기 기준 시퀀스의 하나 이상의 특징점들을 추출하는 단계;
상기 특징점에 기초하여 상기 기준 시퀀스에 대응하는 상기 타겟 동영상 내의 타겟 시퀀스를 결정하는 단계; 및
상기 기준 시퀀스 및 상기 타겟 시퀀스에 기초하여 상기 기준 동영상 및 상기 타겟 동영상의 시간 축을 동기화하는 단계
를 포함하고,
상기 기준 동영상 내의 하나 이상의 시퀀스들 중 기준 시퀀스를 결정하는 단계는,
제1 시퀀스 내의 프레임들 각각의 히스토그램을 생성하는 단계;
상기 제1 시퀀스 내의 제1 프레임의 히스토그램 및 상기 제1 프레임과 시간적으로 인접한 제2 프레임의 히스토그램의 유사도를 계산하는 단계;
상기 계산된 유사도에 기초하여 상기 제1 시퀀스에 대한 시퀀스 유사도를 계산하는 단계; 및
상기 하나 이상의 시퀀스들에 대해 계산된 하나 이상의 시퀀스 유사도들 중 가장 낮은 시퀀스 유사도를 갖는 시퀀스를 상기 기준 시퀀스로 결정하는 단계
를 포함하는,
동영상 시간 축 동기화 방법.
Determining a reference sequence of one or more sequences in the reference moving picture;
Extracting at least one feature point of the reference sequence based on the reference sequence and the target moving picture;
Determining a target sequence in the target moving picture corresponding to the reference sequence based on the feature point; And
Synchronizing the time axis of the reference moving picture and the time axis of the target moving picture based on the reference sequence and the target sequence
Lt; / RTI >
Wherein determining a reference sequence of one or more sequences in the reference moving picture comprises:
Generating a histogram of each of the frames in the first sequence;
Calculating a similarity between a histogram of a first frame in the first sequence and a histogram of a second frame temporally adjacent to the first frame;
Calculating a sequence similarity for the first sequence based on the calculated similarity; And
Determining a sequence having the lowest sequence similarity among the one or more sequence similarities calculated for the one or more sequences as the reference sequence;
/ RTI >
How to synchronize video time axis.
제1항에 있어서,
상기 기준 동영상 및 상기 타겟 동영상은 서로 상이한 카메라들을 이용하여 촬영된,
동영상 시간 축 동기화 방법.
The method according to claim 1,
Wherein the reference moving image and the target moving image are photographed using cameras different from each other,
How to synchronize video time axis.
제1항에 있어서,
상기 기준 동영상 내의 프레임들을 상기 하나 이상의 시퀀스들로 나누는 단계
를 더 포함하고,
상기 하나 이상의 시퀀스들 각각은 미리 설정된 개수의 프레임들을 포함하는,
동영상 시간 축 동기화 방법.
The method according to claim 1,
Dividing frames in the reference moving picture into the one or more sequences
Further comprising:
Wherein each of the one or more sequences comprises a predetermined number of frames,
How to synchronize video time axis.
삭제delete 삭제delete 제1항에 있어서,
상기 하나 이상의 특징점들을 추출하는 단계는,
상기 기준 시퀀스 내의 프레임들 및 상기 타겟 동영상 내의 프레임들에 기초하여 SURF(Speeded Up Robust Features) 알고리즘을 이용하여 상기 하나 이상의 특징점들을 추출하는 단계
를 포함하는,
동영상 시간 축 동기화 방법.
The method according to claim 1,
Wherein the extracting of the one or more feature points comprises:
Extracting the one or more feature points using a SURF (Speeded Up Robust Features) algorithm based on frames in the reference sequence and frames in the target video
/ RTI >
How to synchronize video time axis.
제1항에 있어서,
상기 타겟 시퀀스를 결정하는 단계는,
상기 기준 시퀀스 및 상기 타겟 동영상 내의 하나 이상의 시퀀스들 각각 간의 유사도를 계산하는 단계; 및
상기 계산된 유사도에 기초하여 상기 타겟 동영상 내의 하나 이상의 시퀀스들 중 상기 타겟 시퀀스를 결정하는 단계
를 포함하는,
동영상 시간 축 동기화 방법.
The method according to claim 1,
Wherein determining the target sequence comprises:
Calculating a similarity between each of the one or more sequences in the reference sequence and the target moving picture; And
Determining the target sequence of one or more sequences in the target moving picture based on the calculated similarity
/ RTI >
How to synchronize video time axis.
제1항에 있어서,
시간 축이 동기화된 상기 기준 동영상 및 상기 타겟 동영상을 이용하여 파노라믹 동영상을 생성하는 단계
를 더 포함하는,
동영상 시간 축 동기화 방법.
The method according to claim 1,
Generating a panoramic moving picture using the reference moving picture and the target moving picture whose time axis is synchronized
≪ / RTI >
How to synchronize video time axis.
제1항 내지 제3항, 및 제6항 내지 제8항 중 어느 한 항의 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.
A computer-readable recording medium embodying a program for carrying out the method according to any one of claims 1 to 3 and 6 to 8.
동영상의 시간 축을 동기화하는 장치에 있어서,
동영상의 시간 축을 동기화하는 프로그램이 기록된 메모리; 및
상기 프로그램을 수행하는 프로세서
를 포함하고,
상기 프로그램은,
기준 동영상 내의 하나 이상의 시퀀스들 중 기준 시퀀스를 결정하는 단계;
상기 기준 시퀀스 및 타겟 동영상에 기초하여 상기 기준 시퀀스의 하나 이상의 특징점들을 추출하는 단계;
상기 특징점에 기초하여 상기 기준 시퀀스에 대응하는 상기 타겟 동영상 내의 타겟 시퀀스를 결정하는 단계; 및
상기 기준 시퀀스 및 상기 타겟 시퀀스에 기초하여 상기 기준 동영상 및 상기 타겟 동영상의 시간 축을 동기화하는 단계
를 수행하고,
상기 기준 동영상 내의 하나 이상의 시퀀스들 중 기준 시퀀스를 결정하는 단계는,
제1 시퀀스 내의 프레임들 각각의 히스토그램을 생성하는 단계;
상기 제1 시퀀스 내의 제1 프레임의 히스토그램 및 상기 제1 프레임과 시간적으로 인접한 제2 프레임의 히스토그램의 유사도를 계산하는 단계;
상기 계산된 유사도에 기초하여 상기 제1 시퀀스에 대한 시퀀스 유사도를 계산하는 단계; 및
상기 하나 이상의 시퀀스들에 대해 계산된 하나 이상의 시퀀스 유사도들 중 가장 낮은 시퀀스 유사도를 갖는 시퀀스를 상기 기준 시퀀스로 결정하는 단계
를 포함하는,
동영상 시간 축 동기화 장치.
An apparatus for synchronizing a time axis of a moving picture,
A memory in which a program for synchronizing a time axis of a moving picture is recorded; And
The processor
Lt; / RTI >
The program includes:
Determining a reference sequence of one or more sequences in the reference moving picture;
Extracting at least one feature point of the reference sequence based on the reference sequence and the target moving picture;
Determining a target sequence in the target moving picture corresponding to the reference sequence based on the feature point; And
Synchronizing the time axis of the reference moving picture and the time axis of the target moving picture based on the reference sequence and the target sequence
Lt; / RTI >
Wherein determining a reference sequence of one or more sequences in the reference moving picture comprises:
Generating a histogram of each of the frames in the first sequence;
Calculating a similarity between a histogram of a first frame in the first sequence and a histogram of a second frame temporally adjacent to the first frame;
Calculating a sequence similarity for the first sequence based on the calculated similarity; And
Determining a sequence having the lowest sequence similarity among the one or more sequence similarities calculated for the one or more sequences as the reference sequence;
/ RTI >
Video time axis synchronization device.
제10항에 있어서,
상기 기준 동영상 및 상기 타겟 동영상은 서로 상이한 카메라들을 이용하여 촬영된,
동영상 시간 축 동기화 장치.
11. The method of claim 10,
Wherein the reference moving image and the target moving image are photographed using cameras different from each other,
Video time axis synchronization device.
제10항에 있어서,
상기 프로그램은,
상기 기준 동영상 내의 프레임들을 상기 하나 이상의 시퀀스들로 나누는 단계
를 더 수행하고,
상기 하나 이상의 시퀀스들 각각은 미리 설정된 개수의 프레임들을 포함하는,
동영상 시간 축 동기화 장치.
11. The method of claim 10,
The program includes:
Dividing frames in the reference moving picture into the one or more sequences
Lt; / RTI >
Wherein each of the one or more sequences comprises a predetermined number of frames,
Video time axis synchronization device.
삭제delete 삭제delete 제10항에 있어서,
상기 하나 이상의 특징점들을 추출하는 단계는,
상기 기준 시퀀스 내의 프레임들 및 상기 타겟 동영상 내의 프레임들에 기초하여 SURF(Speeded Up Robust Features) 알고리즘을 이용하여 상기 하나 이상의 특징점들을 추출하는 단계
를 포함하는,
동영상 시간 축 동기화 장치.
11. The method of claim 10,
Wherein the extracting of the one or more feature points comprises:
Extracting the one or more feature points using a SURF (Speeded Up Robust Features) algorithm based on frames in the reference sequence and frames in the target video
/ RTI >
Video time axis synchronization device.
제10항에 있어서,
상기 타겟 시퀀스를 결정하는 단계는,
상기 기준 시퀀스 및 상기 타겟 동영상 내의 하나 이상의 시퀀스들 각각 간의 유사도를 계산하는 단계; 및
상기 계산된 유사도에 기초하여 상기 타겟 동영상 내의 하나 이상의 시퀀스들 중 상기 타겟 시퀀스를 결정하는 단계
를 포함하는,
동영상 시간 축 동기화 장치.
11. The method of claim 10,
Wherein determining the target sequence comprises:
Calculating a similarity between each of the one or more sequences in the reference sequence and the target moving picture; And
Determining the target sequence of one or more sequences in the target moving picture based on the calculated similarity
/ RTI >
Video time axis synchronization device.
제10항에 있어서,
상기 프로그램은,
시간 축이 동기화된 상기 기준 동영상 및 상기 타겟 동영상을 이용하여 파노라믹 동영상을 생성하는 단계
를 더 수행하는,
동영상 시간 축 동기화 장치.
11. The method of claim 10,
The program includes:
Generating a panoramic moving picture using the reference moving picture and the target moving picture whose time axis is synchronized
Lt; / RTI >
Video time axis synchronization device.
KR1020170001956A 2017-01-05 2017-01-05 Method and apparatus for synchronizing time line of videos KR101826463B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170001956A KR101826463B1 (en) 2017-01-05 2017-01-05 Method and apparatus for synchronizing time line of videos

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170001956A KR101826463B1 (en) 2017-01-05 2017-01-05 Method and apparatus for synchronizing time line of videos

Publications (1)

Publication Number Publication Date
KR101826463B1 true KR101826463B1 (en) 2018-02-07

Family

ID=61203774

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170001956A KR101826463B1 (en) 2017-01-05 2017-01-05 Method and apparatus for synchronizing time line of videos

Country Status (1)

Country Link
KR (1) KR101826463B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114666657A (en) * 2022-03-18 2022-06-24 北京达佳互联信息技术有限公司 Video editing method and device, electronic equipment and storage medium

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Oliver Wang ET AL, "VideoSnapping: interactive synchronization of multiple videos", ACM Transactions on Graphics (TOG) - Proceedings of ACM SIGGRAPH 2014 TOG Homepage, Volume 33, Issue 4, July 2014
임여선 외 4명, "블록 히스토그램 및 동적 매칭을 이용한 중복 동영상의 빠른 검출", 정보과학회논문지 : 소프트웨어 및 응용 제40권 제2호, 2013.2, pp.122-131 (2013.2.28.)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114666657A (en) * 2022-03-18 2022-06-24 北京达佳互联信息技术有限公司 Video editing method and device, electronic equipment and storage medium
CN114666657B (en) * 2022-03-18 2024-03-19 北京达佳互联信息技术有限公司 Video editing method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
TWI573454B (en) Electronic device and image composition method thereof
EP3511903A1 (en) Three-dimensional model generating device and three-dimensional model generating method
US20160198097A1 (en) System and method for inserting objects into an image or sequence of images
US9934423B2 (en) Computerized prominent character recognition in videos
US20160321833A1 (en) Method and apparatus for generating moving photograph based on moving effect
KR101831516B1 (en) Method and apparatus for generating image using multi-stiker
US10297285B2 (en) Video data processing method and electronic apparatus
CN108141634B (en) Method and apparatus for generating preview image and computer-readable storage medium
WO2022160857A1 (en) Image processing method and apparatus, and computer-readable storage medium and electronic device
KR20170027002A (en) Method and apparatus for image processing
US9179091B2 (en) Avoiding flash-exposed frames during video recording
US11367251B2 (en) Device using local depth information to generate an augmented reality image
US9798919B2 (en) Method and apparatus for estimating image motion using disparity information of a multi-view image
US10198842B2 (en) Method of generating a synthetic image
KR102037997B1 (en) Electronic apparatus and method for generating contents
US20190005133A1 (en) Method, apparatus and arrangement for summarizing and browsing video content
KR101826463B1 (en) Method and apparatus for synchronizing time line of videos
US20200092444A1 (en) Playback method, playback device and computer-readable storage medium
KR101805018B1 (en) Apparatus, method and computer readable medium having computer program for compact video
US9288473B2 (en) Creating apparatus and creating method
WO2016095285A1 (en) Image obtaining and processing method, system and terminal
US10282633B2 (en) Cross-asset media analysis and processing
CN105306961B (en) A kind of method and device for taking out frame
US9870621B1 (en) Motion-based feature correspondence
Lee Novel video stabilization for real-time optical character recognition applications

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant