KR20170121747A - Server for editing video contents automatically and method thereof - Google Patents

Server for editing video contents automatically and method thereof Download PDF

Info

Publication number
KR20170121747A
KR20170121747A KR1020160034287A KR20160034287A KR20170121747A KR 20170121747 A KR20170121747 A KR 20170121747A KR 1020160034287 A KR1020160034287 A KR 1020160034287A KR 20160034287 A KR20160034287 A KR 20160034287A KR 20170121747 A KR20170121747 A KR 20170121747A
Authority
KR
South Korea
Prior art keywords
video
sequence
original
content
video sequence
Prior art date
Application number
KR1020160034287A
Other languages
Korean (ko)
Other versions
KR101828601B1 (en
Inventor
천솔지
Original Assignee
(주)잼투고
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)잼투고 filed Critical (주)잼투고
Priority to KR1020160034287A priority Critical patent/KR101828601B1/en
Priority to US16/087,167 priority patent/US11438510B2/en
Priority to PCT/KR2017/003062 priority patent/WO2017164640A1/en
Publication of KR20170121747A publication Critical patent/KR20170121747A/en
Priority to KR1020180014765A priority patent/KR102361811B1/en
Application granted granted Critical
Publication of KR101828601B1 publication Critical patent/KR101828601B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Abstract

The present invention relates to a video content automatic editing system and an automatic editing method, and more particularly, to a video content automatic editing system capable of automatically generating new rearranged video content by dividing video sequence by using a correlation between frames and randomly rearranging the divided video sequence. The video content automatic editing system comprises: an input interface module; a frame image processing module; a video sequence setting module; a video sequence rearrange module; and a video content automatic editing system.

Description

비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법{Server for editing video contents automatically and method thereof}Technical Field [0001] The present invention relates to a video content automatic editing system and an automatic editing method,

본 발명은 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법에 관한 것으로, 프레임들 간의 코릴레이션을 이용한 비디오 시퀀스 분할 및 분할된 비디오 시퀀스를 램덤하게 재배열하는 것을 통해 새로운 재배치 비디오 컨텐츠를 자동으로 생성할 수 있는 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법에 관한 것이다.The present invention relates to a video content automatic editing system and an automatic editing method, and more particularly, to a video content automatic editing system and an automatic editing method capable of automatically generating new rearranged video contents through video sequence division using correlation between frames and random rearrangement of divided video sequences A video content automatic editing system, and an automatic editing method.

이미지 센서 및 이미지 프로세싱 기술의 발전에 따라 개인이 휴대하는 스마트폰의 카메라 기능이 개선되어 사용자는 이를 이용하여 높은 화질의 비디오 컨텐츠를 촬영할 수 있다. 그러나, 사용자 촬영 비디오 컨텐츠의 영상 자체 품질은 높아졌지만, 여전히 전문 촬영 기술 및 전문 편집 기술을 보유하지 못한 사용자는 높은 품질의 비디오 컨텐츠의 생산이 어렵다.With the development of image sensor and image processing technology, the camera function of the smart phone carried by the individual is improved, so that the user can shoot high quality video contents by using it. However, although the quality of the video of the user-captured video content has been enhanced, it is difficult for a user who does not have professional shooting technology and professional editing technology to produce high-quality video content.

전문가에 의해 촬영 및 편집된 비디오 컨텐츠는 안정적인 카메라 워크를 통해 높은 영상 품질을 확보하고, 불필요한 부분을 편집을 통해 제거함으로써 감상자의 몰입도를 높일 수 있으며, 복수의 카메라에 의한 영상을 동기화하여 교차 편집함으로써 비디오 컨텐츠의 역동성을 높일 수 있다. 이에 반해 일반 사용자가 촬영한 비디오 컨텐츠는 단일의 카메라 앵글이 지속되어 비디오 컨텐츠의 역동성이 매우 떨어지며, 불필요한 부분의 제거 또는 교차편집 등의 편집 작업을 거치지 않기 때문에 비디오 컨텐츠에 대한 감상자의 몰입도를 유지하기가 어렵다는 문제가 있다.The video contents shot and edited by the experts can secure the high image quality through stable camera work and can remove the unnecessary parts through editing, thereby enhancing the immersion of the viewer. In addition, Thereby enhancing the dynamics of the video contents. On the other hand, the video content shot by the general user is a single camera angle, and the dynamism of the video content is very poor. Since the user does not have to perform editing such as elimination of unnecessary parts or crossing editing, There is a problem that it is difficult to maintain.

일반 사용자가 촬영한 비디오 컨텐츠들은 낮은 품질로 인해 촬영자 본인 및 제삼자인 감상자들의 흥미를 불러일으키기 어려워, 결국 스마트폰 등의 저장장치의 저장용량만 차지하고 잊혀지거나 저장장치에서 지워지게 된다.Video content taken by a general user is difficult to attract the interest of the photographer himself or a third party viewer due to low quality, so that the storage capacity of a storage device such as a smart phone occupies only a storage capacity and is forgotten or erased from the storage device.

한편, 사용자들이 비디오 컨텐츠를 비교적 용이하게 편집하게 하는 프로그램 및 애플리케이션들이 개발되어 상용화되었으나, 자신의 비디오 컨텐츠를 편집하는 사용자는 여전히 소수에 불과하고, 전문 편집 장비를 보유하지 않은 일반 사용자들이 스마트폰에서 제공하는 터치스크린과 같은 제한적인 사용자 인터페이스를 통해 비디오 컨텐츠의 편집구간을 설정하고, 그 편집위치를 설정하는 일은 여전히 복잡하고 불편한 문제가 있다.On the other hand, although programs and applications for allowing users to relatively easily edit video contents have been developed and commercialized, there are still only a few users who edit their video contents, and general users who do not have professional editing equipment It is still complicated and inconvenient to set an edit section of the video content through a limited user interface such as a touch screen and set the edit position.

삼성전자의 미국 등록특허 제9,058,841호 “Method and system for editing video sequences”는 풍선 이미지 또는 촛불 이미지와 같은 장식적인 객체를 임의의 위치에 랜덤하게 부가하는 자동 편집 방법을 개시한다. 이러한 방법에 따르면 사용자가 직접 장식적인 객체를 부가하는 편집 작업 없이 비디오 컨텐츠에 해당 요소들이 랜덤하게 부가되어 비디오 컨텐츠의 의외성 및 역동성을 다소 개선하는 효과가 있다. 그러나, 이는 비디오 컨텐츠의 비디오 시퀀스 자체의 이동 또는 삭제에 의한 편집이 아닌 부가적이고 장식적인 요소의 프레임 삽입에 불과하여 근본적으로 지루하게 촬영된 비디오 컨텐츠의 속성을 바꾸기에는 여전히 부족하다. Samsung Electronics US Patent No. 9,058,841 entitled " Method and system for editing video sequences " discloses an automatic editing method of randomly adding decorative objects such as an image of a balloon or an image of a candle to an arbitrary position. According to this method, the elements are randomly added to the video contents without the editing operation of adding a decorative object directly to the user, thereby somewhat improving the unexpectedness and dynamism of the video contents. However, this is merely a frame insertion of additional ornamental elements, rather than editing by moving or deleting the video sequence itself of the video content, and is still insufficient to change the properties of the video content that is fundamentally boring.

NEC corporation의 미국 등록특허 제8,315,507호 “Video generation device, video generation method, and video generation program”은 원본 비디오 컨텐츠에 등장하는 객체가 화면에 출연하는 시간을 기반으로 실제 등장률을 개산하여 설정된 등장률에 따라 신규 비디오 컨텐츠를 생성하는 방법을 개시한다. 이러한 방법에 따르면 등장률이라는 일정한 규칙에 따라 신규 비디오 컨텐츠를 자동으로 편집하는 효과를 제공한다. 그러나, 일반 사용자들이 촬영한 비디오 컨텐츠는 영화 또는 드라마처럼 많은 인물이 출연하는 경우가 드물고 수 초 내지 수십 분 정도의 짧은 재생시간 동안 동일한 객체(인물 또는 경치 등)만 등장하는 경우가 많은데, 대부분의 사용자 촬영 비디오 컨텐츠에서 등장률에 따른 편집은 그 적용자체가 불가하거나 무의미하다는 문제가 있다.U.S. Patent No. 8,315,507 issued to NEC corporation entitled " Video generation device, video generation method, and video generation program " refers to a method in which an object appearing in the original video content is estimated based on the actual appearance rate based on the time on the screen, A method for generating new video content is disclosed. According to this method, the new video contents are automatically edited according to a certain rule of appearance rate. However, video contents shot by ordinary users rarely appear as a movie or a drama. In many cases, the same object (person or scenery, etc.) appears only for a short playback time of several seconds to several tens of minutes. There is a problem that the editing according to the appearance rate in the user photographed video contents is not applicable or is meaningless.

Sony corporation의 미국 등록특허 제7,904,813호 “Method for editing video information and editing device” 및 미국 등록특허 제7,627,823호 “Video information editing method and editing device”는 영화 등의 원본 비디오 컨텐츠에서 각 씬(scene)들의 의미적 평가 정보를 추출하여 적절한 프리뷰 영상을 자동으로 생성하는 방법을 개시한다. 이러한 방법에 따르면 자동화된 편집을 통해 시간적으로 압축된 편집 비디오 컨텐츠를 얻을 수 있는 효과가 있다. 그러나, 일반 사용자들이 촬영한 비디오 컨텐츠는 씬(scene)의 구분이 없을 뿐 아니라 내용상의 급격한 변화가 부족하여 의미적 평가 정보를 얻는 것이 어렵다는 문제가 있다. US Patent No. 7,904,813, entitled " Method for editing video information and editing device ", and U.S. Patent No. 7,627,823, entitled " Video information editing method and editing device " A method for extracting enemy evaluation information and automatically generating an appropriate preview image is disclosed. According to this method, the edited video contents compressed in time can be obtained through automated editing. However, there is a problem that it is difficult to acquire the semantic evaluation information because the video contents photographed by the general users have no distinction of the scene and the rapid change in the content is insufficient.

미국 등록특허 제9,058,841호U.S. Patent No. 9,058,841 미국 등록특허 제8,315,507호United States Patent No. 8,315,507 미국 등록특허 제7,904,813호U.S. Patent No. 7,904,813 미국 등록특허 제7,627,823호U.S. Patent No. 7,627,823

상기의 문제를 해결하기 위해, 본 발명에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 자동으로 원본 비디오 컨텐츠를 복수의 원본 비디오 시퀀스로 구분하고 서브셋 비디오 시퀀스를 랜덤하게 재배치함으로써, 사용자의 추가적인 입력을 요하지 않는 자동화된 편집구간의 설정 및 자동화된 비디오 시퀀스의 이동지점 설정을 통해 비디오 컨텐츠 편집의 사용자 편의성을 개선하고, 사용자가 의도하지 못한 재배치 비디오 컨텐츠를 생성함으로써 자동 편집된 비디오 컨텐츠의 역동성 및 의외성을 제고하는 것을 목적으로 한다.In order to solve the above problems, the video content automatic editing system and the automatic editing method according to the present invention automatically divide the original video contents into a plurality of original video sequences and randomly rearrange subset video sequences, To improve the user-friendliness of video content editing through the setting of automated editing intervals that do not require user input, and the movement point settings of automated video sequences, and by creating unintended rearranged video content, It is aimed to raise the unexpectedness.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 복수의 원본 비디오 컨텐츠들을 이용하여 단일의 재배치 비디오 컨텐츠(content_video_shuffled)를 생성함으로써 사용자의 비디오 컨텐츠 재사용 동기를 부여하고, 자동 편집된 비디오 컨텐츠의 역동성 및 의외성을 더욱 제고하는 것을 목적으로 한다.The video content automatic editing system and the automatic editing method according to the embodiment of the present invention generate a single re-arranged video content (content_video_shuffled) by using a plurality of original video contents, thereby giving a user's re- And to further improve dynamics and unexpectedness of video contents.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 랜덤하게 자동 편집된 재배치 비디오 컨텐츠가 생성된 이후 사용자의 선택에 따라 원본 비디오 컨텐츠를 이용하여 용이하게 2차 재배치 비디오 컨텐츠를 생성함으로써 사용자의 비디오 컨텐츠 재사용 동기를 부여하고, 자동 편집된 비디오 컨텐츠의 역동성 및 의외성을 더욱 제고하는 것을 목적으로 한다.The video content automatic editing system and the automatic editing method according to the embodiment of the present invention can easily generate secondary rearranged video content using the original video content according to the user's selection after the randomly edited rearranged video content is generated Thereby providing a user with a reuse motive of the video contents and further enhancing the dynamics and unexpectedness of the automatically edited video contents.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 랜덤하게 자동 편집된 재배치 비디오 컨텐츠가 생성된 이후 사용자의 선택에 따라 재배치 비디오 컨텐츠를 새로운 원본 비디오 컨텐츠로서 다시 랜덤하게 자동 편집함으로써 사용자의 비디오 컨텐츠 재사용 동기를 부여하고, 자동 편집된 비디오 컨텐츠의 역동성 및 의외성을 더욱 제고하는 것을 목적으로 한다.The video content automatic editing system and the automatic editing method according to the embodiment of the present invention can automatically and automatically edit the rearranged video content again as new original video content after the randomly edited rearranged video content is generated The present invention aims to provide a user's reuse motive of video contents and further improve the dynamics and unexpectedness of the automatically edited video contents.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 터치센서에 대한 터치 시간, 터치 압력 또는 움직임 센서에 대한 흔들림 시간, 흔들림 세기와 같은 사용자의 선택에 따라 랜덤한 편집의 정도를 조정하게 함으로써 사용자의 다양한 의도에 적응적으로 부합하는 자동 편집된 비디오 컨텐츠를 제공하는 것을 목적으로 한다.The video content automatic editing system and the automatic editing method according to an embodiment of the present invention can detect a degree of random editing according to a user's selection such as a touch time of a touch sensor, a touch pressure or a shake time for a motion sensor, And to provide an automatically edited video content that adapts adaptively to various user intentions.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 불필요하게 정적인 장면인 연속되는 부분을 자동으로 제거함으로써 자동 편집된 비디오 컨텐츠의 영상품질을 개선하여 사용자의 몰입도를 증가시키고, 자동 편집된 비디오 컨텐츠의 역동성을 제고하는 것을 목적으로 한다.The video content automatic editing system and the automatic editing method according to the embodiment of the present invention improve the image quality of the automatically edited video content by automatically removing the unnecessary parts of the continuous sequence, , And to improve the dynamism of the automatically edited video contents.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 설정된 목표 재생시간 또는 설정된 배경음악의 연주시간에 부합하도록 재배치 비디오 컨텐츠를 생성함으로써 자동 편집된 비디오 컨텐츠의 영상품질을 개선하여 사용자의 몰입도를 증가시키고, 자동 편집된 비디오 컨텐츠의 역동성을 제고하는 것을 목적으로 한다.The video content automatic editing system and the automatic editing method according to the embodiment of the present invention improve the image quality of the automatically edited video content by generating the rearranged video content to match the set target playback time or the playing time of the set background music, And to improve the dynamism of the automatically edited video contents.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 카메라의 이동 또는 회전시 촬영된 불필요한 부분을 자동으로 제거함으로써 자동 편집된 비디오 컨텐츠의 영상품질을 개선하여 사용자의 몰입도를 증가시키고, 비디오 컨텐츠의 역동성을 제고하는 것을 목적으로 한다.The video content automatic editing system and the automatic editing method according to the embodiment of the present invention can improve the image quality of the automatically edited video content by automatically removing unnecessary parts taken during the movement or rotation of the camera, And to improve the dynamics of video contents.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 원본 비디오 시퀀스 또는 서브셋 비디오 시퀀스에 랜덤하게 압축재생, 연장재생, 역재생을 적용함으로써 자동 편집된 비디오 컨텐츠의 역동성 및 의외성을 제고하는 것을 목적으로 한다.The video content automatic editing system and the automatic editing method according to the embodiment of the present invention can be applied to a video content automatic editing system and an automatic editing method in which the dynamically and unexpected To improve the quality of life.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 원본 비디오 컨텐츠와 동일한 시간대에 촬영된 추가 비디오 컨텐츠를 자동으로 교차 편집함으로써 전문 영상물과 같은 카메라 전환효과를 자동 편집된 비디오 컨텐츠에 부가여 영상품질을 높이는 것을 목적으로 한다.The video content auto-editing system and the automatic editing method according to the embodiment of the present invention automatically cross-edit the additional video content photographed in the same time zone as the original video content, And to enhance the image quality of the additional image.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 원본 비디오 컨텐츠와 동일한 장소에서 촬영된 다른 비디오 컨텐츠 또는 사진 등을 자료화면 시퀀스로서 재배치 비디오 컨텐츠에 자동으로 삽입함으로써 자동 편집된 비디오 컨텐츠의 영상품질을 높이는 것을 목적으로 한다.The video content automatic editing system and the automatic editing method according to the embodiment of the present invention automatically inserts other video contents or pictures photographed in the same place as the original video contents into the rearranged video contents as a data screen sequence, Thereby improving the image quality of the content.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 편집된 서브셋 비디오 시퀀스에 화면 전환 효과를 자동으로 적용함으로써 자동 편집된 비디오 컨텐츠의 영상품질을 높이는 것을 목적으로 한다.The video content automatic editing system and automatic editing method according to an embodiment of the present invention aims at enhancing the image quality of automatically edited video content by automatically applying a screen switching effect to the edited subset video sequence.

상기의 목적을 달성하기 위해 본 발명에 따른 비디오 컨텐츠 자동 편집 시스템은, 사용자 입력을 수신하는 입력 인터페이스 모듈; 상기 입력 인터페이스 모듈로부터 비디오 편집 활성화 입력의 수신에 따라 원본 비디오 컨텐츠의 각 프레임을 분석하여 연속 프레임들 간의 코릴레이션인 프레임 코릴레이션을 연산하는 프레임 이미지 처리 모듈; 상기 프레임 코릴레이션이 제 1 설정치 이상인 연속적인 프레임들의 집합을 하나의 원본 비디오 시퀀스로 정의하여 상기 원본 비디오 컨텐츠를 제 1 원본 비디오 시퀀스 내지 제 n 원본 비디오 시퀀스(n은 2 이상의 정수)로 구분하는 비디오 시퀀스 설정 모듈; 적어도 제 k 원본 비디오 시퀀스(k는 1 이상 n-1 이하의 정수)의 적어도 일부로 구성되는 서브셋 비디오 시퀀스가 제 k+1 원본 비디오 시퀀스(k는 1 이상 n-1 이하의 정수)에 후행하거나 제 k-1 원본 비디오 시퀀스에 선행하도록 랜덤하게 재배치하여 재배치 비디오 컨텐츠를 생성하는 비디오 시퀀스 재배치 모듈; 및 상기 재배치 비디오 컨텐츠 또는 상기 재배치 비디오 컨텐츠의 상기 비디오 시퀀스들 및 상기 서브셋 비디오 시퀀스의 배치 순서에 대한 정보인 시퀀스 배치 정보를 저장하는 재배치 비디오 컨텐츠 저장 모듈;을 포함하여 구성되는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an automatic editing system for a video content, the system comprising: an input interface module for receiving a user input; A frame image processing module for analyzing each frame of the original video content according to reception of a video editing activation input from the input interface module to calculate a frame correlation that is a correlation between successive frames; Wherein the set of consecutive frames in which the frame correlation is equal to or greater than a first set value is defined as one original video sequence to divide the original video content into a first original video sequence to an nth original video sequence A sequence setting module; A subset video sequence composed of at least a part of a k-th original video sequence (k is an integer equal to or greater than 1 and equal to or less than n-1) traces a k + 1 original video sequence (k is an integer equal to or greater than 1 and equal to or smaller than n-1) a video sequence rearrangement module for randomly rearranging to lead the k-1 original video sequence to generate rearranged video content; And a relocation video content storage module for storing sequence arrangement information, which is information on the arrangement order of the video sequences of the relocated video content or the relocated video content and the subset video sequence.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템에 있어서, 상기 프레임 이미지 처리 모듈은, 복수의 상기 원본 비디오 컨텐츠 별로 프레임 코릴레이션을 연산하고, 상기 비디오 시퀀스 설정 모듈은, 복수의 상기 원본 비디오 컨텐츠들을 상기 제 1 원본 비디오 시퀀스 내지 상기 제 n 원본 비디오 시퀀스로 구분하고, 상기 비디오 시퀀스 재배치 모듈은, 단일의 상기 재배치 비디오 컨텐츠를 생성하는 것을 특징으로 한다.In the video content automatic editing system according to an embodiment of the present invention, the frame image processing module calculates a frame correlation for each of a plurality of original video contents, and the video sequence setting module sets a plurality of original video contents The first video sequence to the n-th original video sequence, and the video sequence rearrangement module generates a single rearranged video content.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템에 있어서, 상기 비디오 시퀀스 재배치 모듈은,상기 재배치 비디오 컨텐츠의 생성 이후 상기 입력 인터페이스 모듈로부터 추가 재배치 활성화 입력의 수신에 따라 상기 서브셋 비디오 시퀀스를 다시 랜덤하게 재배치하여 2차 재배치 비디오 컨텐츠를 생성하는 것을 특징으로 한다.In a video content automatic editing system according to an embodiment of the present invention, the video sequence rearrangement module may re-randomize the subset video sequence upon receipt of an additional relocation activation input from the input interface module after generation of the rearranged video content And rearranging the rearranged video contents to generate secondary rearranged video contents.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템에 있어서, 상기 프레임 이미지 처리 모듈은, 상기 재배치 비디오 컨텐츠의 생성 이후 상기 입력 인터페이스 모듈로부터 비디오 추가 편집 활성화 입력의 수신에 따라 상기 재배치 비디오 컨텐츠를 새로운 원본 비디오 컨텐츠로서 각 프레임을 분석하여 프레임 코릴레이션을 연산하는 것을 특징으로 한다.In the video content automatic editing system according to an embodiment of the present invention, the frame image processing module may generate the rearranged video content in accordance with receiving a video additional editing activation input from the input interface module after generation of the rearranged video content, And the frame correlation is analyzed by analyzing each frame as video contents.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템에 있어서, 상기 비디오 시퀀스 재배치 모듈은, 상기 비디오 편집 활성화 입력에 따라 상기 제 1 설정치를 조정하는 것을 특징으로 한다.In the video content automatic editing system according to the embodiment of the present invention, the video sequence rearrangement module adjusts the first set value according to the video editing activation input.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템에 있어서, 상기 사용자 입력 인터페이스 모듈은, 디스플레이에 대한 사용자의 터치를 상기 비디오 편집 활성화 입력으로 인식하는 터치 센싱부;를 포함하고, 상기 비디오 시퀀스 재배치 모듈은, 상기 사용자의 터치 시간의 증가에 따라 상기 제 1 설정치를 높이는 것을 특징으로 한다.In the video editing system of the present invention, the user input interface module may include a touch sensing unit that recognizes a user's touch on the display as the video editing activation input, The controller increases the first set value according to an increase in the touch time of the user.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템에 있어서, 상기 사용자 입력 인터페이스 모듈은, 디스플레이에 대한 사용자의 터치를 상기 비디오 편집 활성화 입력으로 인식하는 터치 센싱부;를 포함하고, 상기 비디오 시퀀스 재배치 모듈은, 상기 사용자의 터치 압력의 중가에 따라 상기 제 1 설정치를 높이는 것을 특징으로 한다.In the video editing system of the present invention, the user input interface module may include a touch sensing unit that recognizes a user's touch on the display as the video editing activation input, Is characterized in that the first set value is increased according to the weight of the touch pressure of the user.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템에 있어서, 상기 사용자 입력 인터페이스 모듈은, 디바이스 흔들림을 감지하여 상기 비디오 편집 활성화 입력으로 인식하는 움직임 센싱부;를 포함하고, 상기 비디오 시퀀스 재배치 모듈은, 상기 디바이스 흔들림 시간의 증가에 따라 상기 제 1 설정치를 높이는 것을 특징으로 한다.In the video editing system of the present invention, the user input interface module may include a motion sensing unit for sensing a device shake and recognizing the device shake as the video editing activation input, And increases the first set value as the device shake time increases.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템에 있어서, 상기 사용자 입력 인터페이스 모듈은, 디바이스 흔들림을 감지하여 상기 비디오 편집 활성화 입력으로 인식하는 움직임 센싱부;를 포함하고, 상기 비디오 시퀀스 재배치 모듈은, 상기 디바이스 흔들림 세기의 증가에 따라 상기 제 1 설정치를 높이는 것을 특징으로 한다.In the video editing system of the present invention, the user input interface module may include a motion sensing unit for sensing a device shake and recognizing the device shake as the video editing activation input, And the first set value is increased according to the increase of the device shake intensity.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템은, 상기 비디오 컨텐츠 자동 편집 시스템은, 연속하는 상기 원본 비디오 시퀀스 간들 간의 코릴레이션인 시퀀스 코릴레이션이 제 2 설정치 이상인 원본 비디오 시퀀스들 중 적어도 어느 하나를 제거하는 비디오 시퀀스 제거 모듈;을 더 포함하는 것을 특징으로 한다.The automatic video content editing system according to an embodiment of the present invention is characterized in that the automatic video content editing system includes at least one of the original video sequences whose sequence correlation is equal to or greater than a second set value, which is a correlation between consecutive original video sequences And a video sequence elimination module for removing the video sequence.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템은, 제 k 원본 비디오 시퀀스 또는 상기 서브셋 비디오 시퀀스 중 프레임 코릴레이션이 제 3 설정치(상기 제 3 설정치는 상기 제 1 설정치 보다 높음) 이상인 프레임들을 제거하는 비디오 프레임 제거 모듈;을 더 포함하는 것을 특징으로 한다.The system for automatically editing video contents according to an embodiment of the present invention may be configured such that the kth original video sequence or the frame correlation among the subset video sequence is removed from a third set value (the third set value is higher than the first set value) And a video frame removal module.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템은, 상기 재배치 비디오 컨텐츠의 목표 재생시간을 설정하는 재생시간 설정 모듈;을 더 포함하고, 상기 비디오 프레임 제거 모듈은, 상기 목표 재생시간에 부합하도록 상기 제 3 설정치 이상인 프레임들을 제거하는 것을 특징으로 한다.The video content automatic editing system according to an embodiment of the present invention may further include a playback time setting module for setting a target playback time of the rearranged video content, And eliminates frames having a third set value or more.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템은, 상기 재배치 비디오 컨텐츠의 오디오 트랙에 포함될 배경음악을 설정하는 배경음악 설정 모듈;을 더 포함하고, 상기 비디오 프레임 제거 모듈은 상기 배경음악의 연주시간에 부합하도록 상기 제 3 설정치 이상인 프레임들을 제거하는 것을 특징으로 한다.The video content automatic editing system may further comprise a background music setting module for setting a background music to be included in an audio track of the rearranged video content, The frames having the third set value or more are removed.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템에 있어서, 상기 비디오 시퀀스 설정 모듈은, 상기 프레임 이미지 처리 모듈의 연산 결과 카메라 이동 중 촬영된 프레임들 또는 카메라 회전 중 촬영된 프레임들을 카메라 조정 비디오 시퀀스로 더 구분하고, 상기 비디오 컨텐츠 자동 편집 시스템은, 상기 카메라 조정 비디오 시퀀스를 제거하는 비디오 시퀀스 제거 모듈;을 더 포함하는 것을 특징으로 한다.In the video content automatic editing system according to an embodiment of the present invention, the video sequence setting module may set the video sequence setting module to record the frames photographed during camera movement or frames photographed during camera rotation as a camera adjustment video sequence And the video content automatic editing system further comprises a video sequence elimination module for eliminating the camera adjustment video sequence.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템은, 제 k 원본 비디오 시퀀스 또는 상기 서브셋 비디오 시퀀스 중 상기 프레임 이미지 처리 모듈의 연산 결과 카메라 이동 중 촬영된 비디오 프레임 또는 카메라 회전 중 촬영된 프레임인 카메라 조정 프레임을 제거하는 비디오 프레임 제거 모듈;을 더 포함하는 것을 특징으로 한다.The system for automatically editing video contents according to an embodiment of the present invention is characterized in that it comprises a k-th original video sequence or a sub-set video sequence, which is a video frame photographed during camera movement, And a video frame removal module for removing the frame.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템은, 상기 원본 비디오 시퀀스들 또는 상기 서브셋 비디오 시퀀스 중 적어도 어느 하나에 압축 재생하는 방법, 연장 재생하는 방법, 또는 역 재생하는 방법 중 적어도 하나의 방법을 랜덤하게 적용하는 재생모드 변경 모듈;을 더 포함하는 것을 특징으로 한다.The automatic video content editing system according to an embodiment of the present invention may include at least one of a method of compressing and reproducing at least one of the original video sequences or the subset video sequence, And a playback mode changing module for randomly applying the playback mode change module.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템은, 상기 원본 비디오 컨텐츠가 촬영된 시간대와 실질적으로 동일한 시간대에 다른 카메라 장치에 의해 촬영된 추가 비디오 컨텐츠를 로딩하여 상기 추가 비디오 컨텐츠의 적어도 일부의 추가 비디오 시퀀스를 추출하는 추가 비디오 시퀀스 추출 모듈; 및 상기 추가 비디오 시퀀스를 상기 추가 비디오 시퀀스가 촬영된 시간대에 선행 또는 후행하는 상기 원본 비디오 시퀀스 중 적어도 어느 하나와 교체하거나 상기 추가 비디오 시퀀스가 촬영된 시간대에 인접하게 선행 또는 인접하게 후행하는 상기 원본 비디오 시퀀스의 일부 프레임들과 교체하는 추가 비디오 시퀀스 삽입 모듈;을 더 포함하는 것을 특징으로 한다.The system for automatically editing video contents according to the embodiment of the present invention may further include loading additional video content photographed by another camera device in a time zone substantially the same as a time zone in which the original video content was photographed, An additional video sequence extraction module for extracting a video sequence; And means for replacing the supplemental video sequence with at least one of the original video sequences preceding or following the time at which the supplemental video sequence was photographed or replacing the supplemental video sequence with at least one of the original video And an additional video sequence insertion module for replacing some frames of the sequence.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템에 있어서, 상기 추가 비디오 시퀀스 삽입 모듈은, 상기 원본 비디오 시퀀스에 포함된 제 1 오디오 신호 및 상기 추가 비디오 시퀀스에 포함된 제 2 오디오 신호를 비교하여 상기 추가 비디오 시퀀스를 교체하는 것을 특징으로 한다.The additional video sequence inserting module may compare the first audio signal included in the original video sequence and the second audio signal included in the additional video sequence, And the additional video sequence is replaced.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템에 있어서, 상기 추가 비디오 시퀀스 삽입 모듈은, 상기 원본 비디오 시퀀스에 포함된 제 1 촬영시간 정보 및 상기 추가 비디오 시퀀스에 포함된 제 2 촬영시간 정보를 비교하여 상기 추가 비디오 시퀀스를 교체하는 것을 특징으로 한다.In the video content automatic editing system according to the embodiment of the present invention, the additional video sequence inserting module compares first shooting time information included in the original video sequence and second shooting time information included in the additional video sequence Thereby replacing the additional video sequence.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템은, 상기 원본 비디오 컨텐츠가 촬영된 장소에 해당하는 자료화면 비디오 시퀀스를 입력받는 자료화면 입력 모듈; 및 상기 재배치 비디오 컨텐츠에 상기 자료화면 비디오 시퀀스를 삽입하는 자료화면 삽입 모듈;을 더 포함하여 구성되는 것을 특징으로 한다. A video content automatic editing system according to an embodiment of the present invention includes a data screen input module that receives a data screen video sequence corresponding to a place where the original video content is photographed; And a data screen insertion module for inserting the data screen video sequence into the rearranged video content.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템은, 상기 재배치된 상기 서브셋 비디오 시퀀스의 시작지점 또는 종료지점 중 적어도 하나에 화면 전환 효과를 적용하는 화면 전환 효과 모듈을 더 포함하는 것을 특징으로 한다.The system for automatically editing video contents according to an embodiment of the present invention may further include a screen switching effect module for applying a screen switching effect to at least one of a start point and an end point of the rearranged subset video sequence.

본 발명에 따른 비디오 컨텐츠 자동 편집 방법은, 비디오 컨텐츠 자동 편집 시스템이, 사용자로부터 비디오 편집 활성화 입력을 수신받아 원본 비디오 컨텐츠를 로딩하는 제 1 단계; 상기 비디오 컨텐츠 자동 편집 시스템이, 상기 원본 비디오 컨텐츠의 각 프레임을 분석하여 연속 프레임들 간의 코릴레이션인 프레임 코릴레이션을 연산하는 제 2 단계; 상기 비디오 컨텐츠 자동 편집 시스템이, 상기 프레임 코릴레이션이 제 1 설정치 이상인 연속적인 프레임들의 집합을 단일의 원본 비디오 시퀀스로 정의하여 상기 원본 비디오 컨텐츠를 제 1 원본 비디오 시퀀스 내지 제 n 원본 비디오 시퀀스(n은 2 이상의 정수)로 구분하는 제 3 단계; 상기 비디오 컨텐츠 자동 편집 시스템이, 적어도 제 k 원본 비디오 시퀀스(k는 1 이상 n-1 이하의 정수)의 적어도 일부로 구성되는 서브셋 비디오 시퀀스가 제 k+1 원본 비디오 시퀀스(k는 1 이상 n-1 이하의 정수)에 후행하거나 제 k-1 원본 비디오 시퀀스에 선행하도록 랜덤하게 재배치하여 재배치 비디오 컨텐츠를 생성하는 제 4 단계; 및 상기 비디오 컨텐츠 자동 편집 시스템이, 상기 재배치 비디오 컨텐츠 또는 상기 재배치 비디오 컨텐츠의 상기 비디오 시퀀스들 및 상기 서브셋 비디오 시퀀스의 배치 순서에 대한 정보인 시퀀스 배치 정보를 저장하는 제 5 단계;를 포함하여 구성되는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of automatically editing video content, the method comprising: a first step of receiving a video editing activation input from a user and loading original video content; A second step of the automatic video content editing system analyzing each frame of the original video content to calculate a frame correlation that is a correlation between consecutive frames; Wherein the video content auto-editing system defines the set of consecutive frames in which the frame correlation is equal to or greater than a first set value as a single original video sequence so that the original video content is divided into a first original video sequence to an nth original video sequence A second step of dividing the input signal into an integer of 2 or more); Wherein the subset video sequence composed of at least a part of at least a kth original video sequence (k is an integer equal to or greater than 1 and equal to or less than n-1) is a k + 1 original video sequence A first step of rearranging the k-1 original video sequence so as to precede the (k-1) original video sequence to generate rearranged video contents; And a fifth step of storing the sequence arrangement information which is information on the arrangement order of the video sequences of the rearranged video content or the rearranged video content and the sequence of the subset video sequences, .

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법에 있어서, 상기 제 1 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 복수의 상기 원본 비디오 컨텐츠들을 로딩하고, 상기 제 2 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 상기 원본 비디오 컨텐츠 별로 프레임 코릴레이션을 연산하고, 상기 제 3 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 복수의 상기 원본 비디오 컨텐츠들을 상기 제 1 원본 비디오 시퀀스 내지 상기 제 n 원본 비디오 시퀀스로 구분하고, 상기 제 4 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 단일의 상기 재배치 비디오 컨텐츠를 생성하는 것을 특징으로 한다.In the automatic editing method for video content according to an embodiment of the present invention, the first step may include loading the plurality of original video contents by the automatic video content editing system, Wherein the video content automatic editing system divides a plurality of original video contents into the first original video sequence to the nth original video sequence, The fourth step is characterized in that the automatic video content editing system generates a single relocatable video content.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법은, 상기 제 5 단계 이후에, 상기 비디오 컨텐츠 자동 편집 시스템이, 사용자로부터 추가 재배치 활성화 입력을 수신받아 상기 서브셋 비디오 시퀀스를 다시 랜덤하게 재배치하여 2차 재배치 비디오 컨텐츠를 생성하는 제 6 단계;를 더 포함하는 것을 특징으로 한다.In the automatic video content editing method according to an exemplary embodiment of the present invention, after the fifth step, the automatic video content editing system receives an additional relocation activation input from a user and relocates the subset video sequence at random again, And a sixth step of generating rearranged video contents.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법은, 상기 제 5 단계 이후에, 상기 비디오 컨텐츠 자동 편집 시스템이, 사용자로부터 비디오 추가 편집 활성화 입력을 수신받아 상기 재배치 비디오 컨텐츠를 새로운 원본 비디오 컨텐츠로서 각 프레임을 분석하여 프레임 코릴레이션을 연산하는 제 7 단계; 및 상기 비디오 컨텐츠 자동 편집 시스템이 상기 재배치 비디오 컨텐츠에 대해 상기 제 3 단계 내지 제 5 단계를 수행하는 제 8 단계;를 포함하는 것을 특징으로 한다.In the automatic video content editing method according to an embodiment of the present invention, after the fifth step, the automatic video content editing system receives the video additional edit activation input from the user and stores the relocated video content as new original video content A seventh step of analyzing the frame to calculate frame correlation; And the eighth step of the automatic video editing system performing the third to fifth steps on the relocated video contents.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법에 있어서, 상기 제 3 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 상기 제 1 단계의 상기 비디오 편집 활성화 입력에 따라 상기 제 1 설정치를 조정하는 것을 특징으로 한다.The automatic editing method for a video content according to an embodiment of the present invention is characterized in that the automatic editing system for video contents adjusts the first set value according to the video editing activation input of the first step do.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법에 있어서, 상기 제 1 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 디스플레이에 대한 사용자의 터치를 상기 비디오 편집 활성화 입력으로 수신받고, 상기 제 3 단계는, 상기 사용자의 터치 시간의 증가에 따라 상기 비디오 컨텐츠 자동 편집 시스템이 상기 제 1 설정치를 높이는 것을 특징으로 한다.In the video content automatic editing method according to an embodiment of the present invention, the first step may include receiving the user's touch on the display as the video editing activation input, And the automatic video editing system increases the first set value according to an increase in the user's touch time.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법에 있어서, 상기 제 1 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 디스플레이에 대한 사용자의 터치를 상기 비디오 편집 활성화 입력으로 수신받고, 상기 제 3 단계는, 상기 사용자의 터치 압력의 증가에 따라 상기 비디오 컨텐츠 자동 편집 시스템이 상기 제 1 설정치를 높이는 것을 특징으로 한다.In the video content automatic editing method according to an embodiment of the present invention, the first step may include receiving the user's touch on the display as the video editing activation input, And the video content automatic editing system increases the first set value in accordance with the increase of the user's touch pressure.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법에 있어서, 상기 제 1 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 디바이스의 흔들림을 상기 비디오 편집 활성화 입력으로 수신 받고, 상기 제 3 단계는, 상기 디바이스 흔들림 시간의 증가에 따라 상기 비디오 컨텐츠 자동 편집 시스템이 상기 제 1 설정치를 높이는 것을 특징으로 한다.In the video content automatic editing method according to an embodiment of the present invention, in the first step, the video content automatic editing system receives the shake of the device as the video editing activation input, and in the third step, And the video content automatic editing system increases the first set value as the time increases.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법에 있어서, 상기 제 1 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 디바이스의 흔들림을 상기 비디오 편집 활성화 입력으로 수신받고, 상기 제 3 단계는, 상기 디바이스 흔들림 세기의 증가에 따라 상기 비디오 컨텐츠 자동 편집 시스템이 상기 제 1 설정치를 높이는 것을 특징으로 한다.In the video content automatic editing method according to an embodiment of the present invention, in the first step, the video content automatic editing system receives the shake of the device as the video editing activation input, and in the third step, And the video content automatic editing system increases the first set value as the intensity increases.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법은, 상기 제 3 단계 이후에, 상기 비디오 컨텐츠 자동 편집 시스템이, 연속하는 상기 원본 비디오 시퀀스들 간의 코릴레이션인 시퀀스 코릴레이션이 제 2 설정치 이상인 원본 비디오 시퀀스들 중 적어도 어느 하나를 제거하는 상기 제 9 단계;를 더 포함하는 것을 특징으로 한다.The automatic editing method for a video content according to an exemplary embodiment of the present invention is characterized in that after the third step, the automatic editing system for video contents includes a step of, when the sequence correlation is a correlation between consecutive original video sequences, And removing the at least one of the sequences.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법은, 상기 제 2 단계 이후에, 상기 비디오 컨텐츠 자동 편집 시스템이 제 k 원본 비디오 시퀀스 중 프레임 코릴레이션이 제 3 설정치(상기 제 3 설정치는 상기 제 1 설정치 보다 높음) 이상인 프레임들을 제거하는 제 10 단계;를 더 포함하는 것을 특징으로 한다.The automatic editing method for video contents according to the embodiment of the present invention is characterized in that after the second step, the automatic editing system for video contents is arranged such that the frame correlation among the k-th original video sequence is set to a third set value The set value is higher than the set value).

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법은, 상기 제 1 단계 내지 상기 제 3 단계 중에 상기 비디오 컨텐츠 자동 편집 시스템이, 상기 재배치 비디오 컨텐츠의 목표 재생시간을 설정하는 제 11 단계;를 더 포함하고, 상기 제 10 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 상기 목표 재생시간에 부합하도록 프레임 코릴레이션이 상기 제 3 설정치 이상인 프레임들을 제거하는 것을 특징으로 한다.The automatic video content editing method according to an exemplary embodiment of the present invention may further include the step of setting the target playback time of the rearranged video content in the automatic editing system of the video content during the first step to the third step And the 10th step is to remove the frames whose frame correlation is equal to or larger than the third set value so that the automatic video content editing system matches the target playback time.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법은, 상기 제 1 단계 내지 상기 제 3 단계 중에 상기 비디오 컨텐츠 자동 편집 시스템이, 상기 재배치 비디오 컨텐츠의 오디오 트랙에 포함될 배경음악을 설정하는 제 12 단계;를 더 포함하고, 상기 제 10 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 상기 배경음악의 연주시간에 부합하도록 프레임 코릴레이션이 상기 제 3 설정치 이상인 프레임들을 제거하는 것을 특징으로 한다.12 is a flowchart illustrating a method for automatically editing a video content according to an exemplary embodiment of the present invention, wherein the video content automatic editing system sets background music to be included in an audio track of the rearranged video content during the first through third steps; And the tenth step is to remove the frames whose frame correlation is equal to or greater than the third set value so that the video content automatic editing system matches the playing time of the background music.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법에 있어서, 상기 제 3 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 상기 제 2 단계의 연산 결과 카메라 이동 중 촬영된 프레임들 또는 카메라 회전 중 촬영된 프레임들을 카메라 조정 비디오 시퀀스로 더 구분하고, 상기 제 4 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 상기 카메라 조정 비디오 시퀀스를 제거하는 것을 특징으로 한다.In the automatic editing method of video contents according to an embodiment of the present invention, the third step may include a step of automatically editing the video contents, And the camera adjustment video sequence, and the fourth step is characterized in that the video content automatic editing system removes the camera adjustment video sequence.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법에 있어서, 상기 제 4 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 상기 제 k 원본 비디오 시퀀스 또는 상기 서브셋 비디오 시퀀스 중 상기 제 2 단계의 연산 결과 카메라 이동 중 촬영된 비디오 프레임 또는 카메라 회전 중 촬영된 프레임인 카메라 조정 프레임을 제거하는 것을 특징으로 한다.In the automatic editing method for video contents according to an embodiment of the present invention, the fourth step may include a step of, when the video content automatic editing system is moving the camera result of the second step among the k-th original video sequence or the subset video sequence And the camera adjustment frame, which is a photographed video frame or a frame photographed during camera rotation, is removed.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법에 있어서, 상기 제 4 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이, 상기 원본 비디오 시퀀스들 또는 상기 서브셋 비디오 시퀀스 중 적어도 어느 하나에 압축 재생하는 방법, 연장 재생하는 방법, 또는 역 재생하는 방법 중 적어도 하나의 방법을 랜덤하게 적용하는 것을 특징으로 한다.In the automatic editing method for video contents according to an embodiment of the present invention, the fourth step may include: a method of automatically compressing and reproducing the original video sequences or the subset video sequence, Reproducing method, or a method of inversely reproducing the audio signal is randomly applied.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법은, 상기 제 2 단계 이후에, 상기 비디오 컨텐츠 자동 편집 시스템이, 상기 원본 비디오 컨텐츠가 촬영된 시간대와 실질적으로 동일한 시간대에 다른 카메라 장치에 의해 촬영된 추가 비디오 컨텐츠를 로딩하는 제 13 단계; 상기 비디오 컨텐츠 자동 편집 시스템이, 상기 추가 비디오 컨텐츠의 적어도 일부의 추가 비디오 시퀀스를 추출하는 제 14 단계; 및 상기 비디오 컨텐츠 자동 편집 시스템이, 상기 추가 비디오 시퀀스를 상기 추가 비디오 시퀀스가 촬영된 시간대에 선행 또는 후행하는 상기 원본 비디오 시퀀스 중 적어도 어느 하나와 교체하거나 상기 추가 비디오 시퀀스가 촬영된 시간대에 인접하게 선행 또는 인접하게 후행하는 상기 원본 비디오 시퀀스의 일부 프레임들과 교체하는 제 15 단계;를 더 포함하는 것을 특징으로 한다.The automatic editing method for a video content according to an embodiment of the present invention is characterized in that after the second step, the automatic video content editing system includes a step of, when the original video content is photographed by another camera device at substantially the same time zone Thirteenth step of loading additional video contents; (14) extracting at least a part of the additional video sequence of the additional video content; And the video content auto-editing system comprises means for replacing the additional video sequence with at least one of the original video sequence preceding or following the time at which the additional video sequence was photographed, Or replacing some of the frames of the original video sequence that are adjacently trailing with each other.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법에 있어서, 상기 제 15 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 상기 원본 비디오 시퀀스에 포함된 제 1 오디오 신호 및 상기 추가 비디오 시퀀스에 포함된 제 2 오디오 신호를 비교하여 상기 추가 비디오 시퀀스를 교체하는 것을 특징으로 한다.In the automatic video content editing method according to an embodiment of the present invention, in the step 15, the automatic editing system for video contents may include a first audio signal included in the original video sequence and a second audio included in the additional video sequence And the signal is compared to replace the additional video sequence.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법에 있어서, 상기 제 15 단계는, 상기 원본 비디오 시퀀스에 포함된 제 1 촬영시간 정보 및 상기 추가 비디오 시퀀스에 포함된 제 2 촬영시간 정보를 비교하여 상기 추가 비디오 시퀀스를 교체하는 것을 특징으로 한다.In the method of automatically editing video contents according to an embodiment of the present invention, the fifteenth step may include comparing first shooting time information included in the original video sequence and second shooting time information included in the additional video sequence, And the additional video sequence is replaced.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법은, 상기 제 2 단계 이후에, 상기 비디오 컨텐츠 자동 편집 시스템이, 상기 원본 비디오 컨텐츠가 촬영된 장소에 해당하는 자료화면 비디오 시퀀스를 로딩하는 제 16 단계; 상기 비디오 컨텐츠 자동 편집 시스템이, 상기 원본 비디오 컨텐츠에 상기 자료화면 비디오 시퀀스를 삽입하는 제 17 단계;를 더 포함하여 구성되는 것을 특징으로 한다. The automatic video content editing method according to an exemplary embodiment of the present invention may further include the step of automatically loading the data screen video sequence corresponding to the place where the original video content was shot, ; The automatic video editing system may further include a step of inserting the data screen video sequence into the original video content.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법에 있어서, 상기 제 4 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 상기 재배치된 상기 서브셋 비디오 시퀀스의 시작지점 또는 종료지점 중 적어도 하나에 화면 전환 효과를 적용하는 것을 특징으로 한다.In the automatic video content editing method according to an exemplary embodiment of the present invention, the fourth step may include a step of automatically applying the screen switching effect to at least one of a start point or an end point of the rearranged subset video sequence .

상기의 구성에 따라, 본 발명에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 자동으로 원본 비디오 컨텐츠를 복수의 원본 비디오 시퀀스로 구분하고 서브셋 비디오 시퀀스를 랜덤하게 재배치함으로써, 사용자의 추가적인 입력을 요하지 않는 자동화된 편집구간의 설정 및 편집된 비디오 시퀀의 이동지점 설정을 통해 비디오 컨텐츠 편집의 사용자 편의성을 개선하고, 사용자가 의도하지 않은 재배치 비디오 컨텐츠를 생성함으로써 자동 편집된 비디오 컨텐츠의 역동성 및 의외성을 제고하는 효과를 제공한다.According to the above configuration, the video content automatic editing system and the automatic editing method according to the present invention automatically divide the original video content into a plurality of original video sequences and randomly rearrange subset video sequences, Improved user-friendliness of video content editing through setting of an automated editing section and setting of the moving point of the edited video sequence, and dynamism and unexpectedness of auto-edited video contents by creating unintended rearranging video contents And the like.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 복수의 원본 비디오 컨텐츠들을 이용하여 단일의 재배치 비디오 컨텐츠(content_video_shuffled)를 생성함으로써 사용자의 비디오 컨텐츠 재사용 동기를 부여하고, 자동 편집된 비디오 컨텐츠의 역동성 및 의외성을 더욱 제고하는 효과를 제공한다.The video content automatic editing system and the automatic editing method according to the embodiment of the present invention generate a single re-arranged video content (content_video_shuffled) by using a plurality of original video contents, thereby giving a user's re- Thereby further enhancing the dynamics and unexpectedness of the video contents.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 랜덤하게 자동 편집된 재배치 비디오 컨텐츠가 생성된 이후 사용자의 선택에 따라 원본 비디오 컨텐츠를 이용하여 용이하게 2차 재배치 비디오 컨텐츠를 생성함으로써 사용자의 비디오 컨텐츠 재사용 동기를 부여하고, 자동 편집된 비디오 컨텐츠의 역동성 및 의외성을 더욱 제고하는 효과를 제공한다.The video content automatic editing system and the automatic editing method according to the embodiment of the present invention can easily generate secondary rearranged video content using the original video content according to the user's selection after the randomly edited rearranged video content is generated Thereby providing a user with a motivation for reusing video content and further improving the dynamism and unexpectedness of the automatically edited video content.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 랜덤하게 자동 편집된 재배치 비디오 컨텐츠가 생성된 이후 사용자의 선택에 따라 재배치 비디오 컨텐츠를 새로운 원본 비디오 컨텐츠로서 다시 랜덤하게 자동 편집함으로써 사용자의 비디오 컨텐츠 재사용 동기를 부여하고, 자동 편집된 비디오 컨텐츠의 역동성 및 의외성을 더욱 제고하는 효과를 제공한다.The video content automatic editing system and the automatic editing method according to the embodiment of the present invention can automatically and automatically edit the rearranged video content again as new original video content after the randomly edited rearranged video content is generated Thereby providing the user with a motivation for reusing video contents and further enhancing the dynamics and unexpectedness of the automatically edited video contents.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 터치센서에 대한 터치 시간, 터치 압력 또는 움직임 센서에 대한 흔들림 시간, 흔들림 세기와 같은 사용자의 선택에 따라 랜덤한 편집의 정도를 조정하게 함으로써 사용자의 다양한 의도에 적응적으로 부합하는 자동 편집된 비디오 컨텐츠를 제공하는 효과를 제공한다.The video content automatic editing system and the automatic editing method according to an embodiment of the present invention can detect a degree of random editing according to a user's selection such as a touch time of a touch sensor, a touch pressure or a shake time for a motion sensor, Thereby providing the effect of providing auto-edited video content that adapts adaptively to various user intentions.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 불필요하게 정적인 장면인 연속되는 부분을 자동으로 제거함으로써 자동 편집된 비디오 컨텐츠의 영상품질을 개선하여 사용자의 몰입도를 증가시키고, 자동 편집된 비디오 컨텐츠의 역동성을 제고하는 효과를 제공한다.The video content automatic editing system and the automatic editing method according to the embodiment of the present invention improve the image quality of the automatically edited video content by automatically removing the unnecessary parts of the continuous sequence, , And provides the effect of enhancing the dynamics of the auto-edited video content.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 설정된 목표 재생시간 또는 설정된 배경음악의 연주시간에 부합하도록 재배치 비디오 컨텐츠를 생성함으로써 자동 편집된 비디오 컨텐츠의 영상품질을 개선하여 사용자의 몰입도를 증가시키고, 자동 편집된 비디오 컨텐츠의 역동성을 제고하는 효과를 제공한다.The video content automatic editing system and the automatic editing method according to the embodiment of the present invention improve the image quality of the automatically edited video content by generating the rearranged video content to match the set target playback time or the playing time of the set background music, And provides the effect of enhancing the dynamics of the auto-edited video content.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 카메라의 이동 또는 회전시 촬영된 불필요한 부분을 자동으로 제거함으로써 자동 편집된 비디오 컨텐츠의 영상품질을 개선하여 사용자의 몰입도를 증가시키고, 비디오 컨텐츠의 역동성을 제고하는 효과를 제공한다.The video content automatic editing system and the automatic editing method according to the embodiment of the present invention can improve the image quality of the automatically edited video content by automatically removing unnecessary parts taken during the movement or rotation of the camera, And provides the effect of enhancing the dynamics of the video contents.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 원본 비디오 시퀀스 또는 서브셋 비디오 시퀀스에 랜덤하게 압축재생, 연장재생, 역재생을 적용함으로써 자동 편집된 비디오 컨텐츠의 역동성 및 의외성을 제고하는 효과를 제공한다.The video content automatic editing system and the automatic editing method according to the embodiment of the present invention can be applied to a video content automatic editing system and an automatic editing method in which the dynamically and unexpected And the like.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 원본 비디오 컨텐츠와 동일한 시간대에 촬영된 추가 비디오 컨텐츠를 자동으로 교차 편집함으로써 전문 영상물과 같은 카메라 전환효과를 자동 편집된 비디오 컨텐츠에 부가여 영상품질을 높이는 효과를 제공한다.The video content auto-editing system and the automatic editing method according to the embodiment of the present invention automatically cross-edit the additional video content photographed in the same time zone as the original video content, Thereby providing an effect of increasing the image quality of the image.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 원본 비디오 컨텐츠와 동일한 장소에서 촬영된 다른 비디오 컨텐츠 또는 사진 등을 자료화면 시퀀스로서 재배치 비디오 컨텐츠에 자동으로 삽입함으로써 자동 편집된 비디오 컨텐츠의 영상품질을 높이는 효과를 제공한다.The video content automatic editing system and the automatic editing method according to the embodiment of the present invention automatically inserts other video contents or pictures photographed in the same place as the original video contents into the rearranged video contents as a data screen sequence, Thereby enhancing the image quality of the content.

본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템 및 자동 편집 방법은, 편집된 서브셋 비디오 시퀀스에 화면 전환 효과를 자동으로 적용함으로써 자동 편집된 비디오 컨텐츠의 영상품질을 높이는 효과를 제공한다.The video content automatic editing system and the automatic editing method according to the embodiment of the present invention provide the effect of automatically enhancing the video quality of the automatically edited video content by automatically applying the screen switching effect to the edited subset video sequence.

도 1은 본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템을 도시하는 구성도.
도 2는 본 발명의 다른 실시예에 따른 재배치 비디오 컨텐츠의 생성례를 도시하는 비디오 컨텐츠 예시도.
도 3은 본 발명의 다른 실시예에 따른 재배치 비디오 컨텐츠의 생성례를 도시하는 비디오 컨텐츠 예시도.
도 4는 본 발명의 다른 실시예에 따른 복수의 원본 비디오 컨텐츠를 이용한 재배치 비디오 컨텐츠의 생성례를 도시하는 비디오 컨텐츠 예시도.
도 5는 본 발명의 다른 실시예에 따른 추가 비디오 컨텐츠를 이용한 재배치 비디오 컨텐츠의 생성례를 도시하는 비디오 컨텐츠 예시도.
도 6은 본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법을 도시하는 흐름도.
도 7은 본 발명의 다른 실시예에 따른 목표 재생시간 설정에 따른 정적 프레임의 제거방법을 도시하는 흐름도.
도 8은 본 발명의 다른 실시예에 따른 배경음악 설정에 따른 정적 프레임의 제거방법을 도시하는 흐름도.
도 9는 본 발명의 다른 실시예에 따른 추가 비디오 컨텐츠를 이용한 재배치 비디오 컨텐츠의 생성방법을 도시하는 흐름도.
도 10은 본 발명의 다른 실시예에 따른 원본 비디오 컨텐츠에 자료화면 비디오 컨텐츠를 추가하여 재배치 비디오 컨텐츠를 생성하는 방법을 도시하는 흐름도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a block diagram showing a video content automatic editing system according to an embodiment of the present invention; FIG.
2 is a diagram illustrating an example of video contents showing a generation example of rearranged video contents according to another embodiment of the present invention;
3 illustrates an example of video contents showing a generation example of rearranged video contents according to another embodiment of the present invention;
4 is a diagram illustrating an example of video contents showing a generation example of rearranged video contents using a plurality of original video contents according to another embodiment of the present invention;
5 is a diagram illustrating an example of video content showing a generation example of rearranged video content using additional video content according to another embodiment of the present invention;
6 is a flowchart showing a method of automatically editing video contents according to an embodiment of the present invention;
FIG. 7 is a flowchart illustrating a method of removing a static frame according to a target playback time setting according to another embodiment of the present invention. FIG.
8 is a flowchart illustrating a method of removing a static frame according to background music setting according to another embodiment of the present invention.
9 is a flow chart illustrating a method of generating relocatable video content using additional video content according to another embodiment of the present invention.
FIG. 10 is a flowchart illustrating a method of generating reordering video content by adding video screen content to original video content according to another embodiment of the present invention; FIG.

본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.The terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms and the inventor may appropriately define the concept of the term in order to best describe its invention It should be construed as meaning and concept consistent with the technical idea of the present invention.

따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고, 본 발명의 기술적 사항을 모두 대변하는 것은 아니므로 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in the present specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention, and not all of the technical matters of the present invention are described. Therefore, It is to be understood that equivalents and modifications are possible.

또한, 명세서 전체에서 어떠한 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 “..모듈”, “..부”, “..시스템” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있으며, 하나의 장치 또는 각각 다른 장치에 포함될 수 있다.In addition, when an element is referred to as being " comprising " any element throughout the specification, it does not exclude other elements unless specifically stated to the contrary. Also, the terms " module, " " part, " and " system ", etc. in the specification mean units for processing at least one function or operation, And may be included in one device or in another device.

이하에서는 도면을 참조하여 본 발명에 따른 비디오 컨텐츠 자동 편집 시스템(100)을 설명한다. 도 1은 본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 시스템을 도시하는 구성도이다. 도 1에 도시된 바와 같이, 본 발명에 따른 비디오 컨텐츠 자동 편집 시스템(100)은, 입력 인터페이스 모듈(110), 프레임 이미지 처리 모듈(120), 비디오 시퀀스 설정 모듈(130), 비디오 시퀀스 재배치 모듈(140) 및 재배치 비디오 컨텐츠 저장 모듈(150)을 포함하여 구성된다.Hereinafter, a video content automatic editing system 100 according to the present invention will be described with reference to the drawings. 1 is a block diagram showing a video content automatic editing system according to an embodiment of the present invention. 1, the video content automatic editing system 100 according to the present invention includes an input interface module 110, a frame image processing module 120, a video sequence setting module 130, a video sequence rearrangement module 140 and a rearranged video content storage module 150.

각 구성요소들은 본 발명에 따른 비디오 컨텐츠 자동 편집 시스템(100)의 동작을 명료히 설명하기 위해 기능적으로 구분된 것이다. 따라서 각각의 모듈은 반드시 물리적으로 구분되는 단일의 구성요소로 구분되어야 하는 것은 아니고, 예컨대 프로그램의 일부를 구성하는 컴퓨터 명령어들의 집합의 형태로 구현될 수 있으며 프로그램의 실행에 따라 연산처리 장치에 의해 해당 모듈의 기능이 발현될 수 있다.Each component is functionally separated to clarify the operation of the video content automatic editing system 100 according to the present invention. Therefore, each module is not necessarily divided into a single physically separated component, but may be embodied, for example, in the form of a set of computer instructions constituting a part of a program, The function of the module can be expressed.

또한 본 발명에 따른 비디오 컨텐츠 자동 편집 시스템(100)의 모든 구성요소들은 예컨대 스마트폰 또는 사용자 컴퓨터와 같은 단일의 정보처리 단말기에 의해 실행되는 프로그램/애플리케이션으로 구현될 수도 있고, 일부 구성요소들은 클라이언트 단말기에 구현되고 다른 일부 구성요소들은 클라이언트 단말기와 통신망으로 연결되는 서버 컴퓨터에 구현되는 서버-클라이언트 서비스 형태로 구현될 수도 있으며, 분산형 서버 시스템의 각 서버에 구성요소들이 분산되어 구현될 수도 있다. 또는 반도체 프로세서를 구성하는 논리회로들의 집합으로 구성요소들을 구현할 수도 있다. In addition, all components of the automatic video content editing system 100 according to the present invention may be embodied as a program / application executed by a single information processing terminal such as a smart phone or a user computer, And some other components may be implemented in the form of a server-client service implemented in a server computer connected to a client terminal through a communication network, or components may be distributed in each server of the distributed server system. Or a set of logic circuits that constitute a semiconductor processor.

입력 인터페이스 모듈(110)은 사용자 입력을 수신하는 기능을 수행한다. 입력 인터페이스 모듈(110)은 사용자의 다양한 입력을 입력받기 위한 휴먼 인터페이스 장치로 구현될 수 있다. 예컨대 사용자의 키 스트로크를 입력 데이터로 변환하는 키보드 또는 키패드, 사용자의 화면 터치유무, 터치압력, 터치시간, 터치패턴 등을 입력 데이터로 변환하는 터치 패드 또는 터치 스크린, 사용자의 동작을 입력 데이터로 변환하는 카메라, 단말기의 공간적 움직임을 입력 데이터로 변화하는 동작감지 센서, 사용자의 음성을 입력 데이터로 변환하는 마이크, 사용자의 클릭 등을 입력 데이터로 변환하는 마우스 등을 입력 인터페이스 모듈(110)로서 예시할 수 있다.The input interface module 110 performs a function of receiving a user input. The input interface module 110 may be implemented as a human interface device for receiving various inputs from a user. For example, a keyboard or a keypad for converting a user's keystroke into input data, a touch pad or a touch screen for converting the touch pressure, touch time, touch pattern, etc. of the user into touch data or input data, A motion detection sensor for changing the spatial motion of the terminal into input data, a microphone for converting the user's voice into input data, a mouse for converting the click of the user into input data, and the like as an input interface module 110 .

입력 인터페이스 모듈(110)은 편집할 원본 비디오 컨텐츠(content_video_original)의 선택을 사용자로부터 입력받는 기능과 원본 비디오 컨텐츠(content_video_original)에 대한 편집을 요청하는 비디오 편집 활성화 입력(input_activation_edit)을 사용자로부터 입력받는 기능 등을 수행한다.The input interface module 110 includes a function of receiving a selection of original video content to be edited (content_video_original) from a user and a function of receiving a video editing activation input (input_activation_edit) requesting editing of original video content (content_video_original) .

프레임 이미지 처리 모듈(120)은 입력 인터페이스 모듈(110)로부터 비디오 편집 활성화 입력(input_activation_edit)의 수신에 따라 원본 비디오 컨텐츠(content_video_original)의 각 프레임을 분석하여 연속 프레임들 간 코릴레이션(correlation)인 프레임 코릴레이션(correlation_frame)을 연산하는 기능을 수행한다.The frame image processing module 120 analyzes each frame of the original video content (content_video_original) according to the reception of the video editing activation input (input_activation_edit) from the input interface module 110, And performs a function of calculating a correlation_frame.

비디오 편집 활성화 입력(input_activation_edit)은 예컨대 사용자가 사용자 단말기에서 본 발명에 따른 비디오 컨텐츠 자동 편집 시스템(100)이 구현된 애플리케이션을 구동하고, 사용자가 애플리케이션을 통해 저장장치에서 편집할 원본 비디오 컨텐츠(content_video_original)를 불러오거나 통신망을 통해 클라우드 드라이버에 접속하여 원본 비디오 컨텐츠(content_video_original)를 다운로드하면 애플리케이션이 바로 비디오 편집 활성화 입력(input_activation_edit)을 발생시키는 방법으로 구현할 수 있다.The video editing activation input (input_activation_edit) may be used, for example, when the user operates an application in which the video content automatic editing system 100 according to the present invention is implemented in the user terminal, and the user inputs the original video content (content_video_original) Or by downloading the original video content (content_video_original) by accessing the cloud driver through a communication network, the application can directly implement the video editing activation input (input_activation_edit).

다른 방법으로는, 사용자가 애플리케이션을 통해 원본 비디오 컨텐츠(content_video_original)를 선택하고 사용자가 사용자 입력 인터페이스를 통해 비디오 컨텐츠 편집 활성화에 할당된 객체를 선택하면 애플리케이션이 비디오 편집 활성화 입력(input_activation_edit)을 발생시키는 방법으로 구현할 수 있다.Alternatively, when a user selects original video content (content_video_original) through an application and the user selects an object assigned to activate video content editing via a user input interface, a method of generating an input video activation input (input_activation_edit) .

다른 방법으로는, 사용자가 웹브라우저를 통해 본 발명에 따른 비디오 컨텐츠 편집 시스템(100)이 구현된 웹페이지에 접속하고, 사용자가 웹페이지를 통해 웹서버가 제공하는 원본 비디오 컨텐츠(content_video_original)를 선택하는 경우 웹서버가 바로 비디오 편집 활성화 입력(input_activation_edit)을 발생시키는 방법으로 구현할 수 있다. 다른 방법으로는, 사용자가 웹페이지를 통해 원본 비디오 컨텐츠(content_video_original)를 선택하고 사용자가 사용자 입력 인터페이스를 통해 비디오 컨텐츠 편집 활성화에 할당된 객체를 선택하면 웹서버가 비디오 편집 활성화 입력(input_activation_edit)을 발생시키는 방법으로 구현할 수 있다.Alternatively, the user accesses the web page on which the video content editing system 100 according to the present invention is implemented through the web browser, and selects the original video content (content_video_original) provided by the web server through the web page The web server can directly implement the video editing activation input (input_activation_edit). Alternatively, if the user selects the original video content (content_video_original) via a web page and the user selects an object assigned for video content editing activation via the user input interface, the web server generates a video editing activation input (input_activation_edit) .

한편, 비디오 프로세싱을 통해 프레임 코릴레이션(correlation_frame)을 연산하는 방법은 비디오 프로세싱 분야에서 다양하게 개발된 바 있다. 예컨대 연속 프레임에서 대응하는 화소의 세기를 비교하여 그 변화율을 통해 프레임 코릴레이션(correlation_frame)을 검출하는 방법, 연속 프레임을 각각 다수의 블럭으로 분할한 후 블럭 간 코릴레이션을 계산하는 방법, 화소의 세기 또는 색상을 히스토그램으로 표현하여 히스토그램 차이로 프레임 코릴레이션(correlation_frame)을 계산하는 방법, 화소 순환 알고리즘(Pixel Rotation Algorithm) 또는 블럭 매칭 알고리즘(Block Matching Algorithm)을 통해 연속하는 프레임 상의 객체의 움직임을 추정하는 방법 등을 예시할 수 있다.On the other hand, a method of calculating a frame correlation through video processing has been variously developed in the field of video processing. For example, a method of comparing the intensity of a corresponding pixel in a continuous frame and detecting a correlation_frame through the rate of change, a method of calculating a correlation between blocks after dividing a continuous frame into a plurality of blocks, Or a method of calculating a correlation_frame with histogram difference by expressing a color as a histogram, a method of estimating the motion of an object on successive frames through a pixel rotation algorithm (Pixel Rotation Algorithm) or a block matching algorithm And the like can be exemplified.

본 발명에서 프레임 코릴레이션(correlation_frame)을 연산하는 방법은 특별히 제한되지 않으며 이미지 프로세싱 분야에서 알려진 방법을 사용하여 프레임 이미지 처리 모듈(120)을 구현할 수 있다.The method of calculating the frame correlation correlation in the present invention is not particularly limited, and the frame image processing module 120 may be implemented using a method known in the image processing field.

비디오 시퀀스 설정 모듈(130)은 프레임 코릴레이션(correlation_frame)이 제 1 설정치 이상인 프레임들의 집합을 단일의 원본 비디오 시퀀스(sequence_video_original)로 정의하여 원본 비디오 컨텐츠(content_video_original)를 제 1 원본 비디오 시퀀스(sequence_video_original_1st) 내지 제 n 원본 비디오 시퀀스(sequence_video_original_nth)(n은 2 이상의 정수)로 구분하는 기능을 수행한다. 즉, 비디오 시퀀스 설정 모듈(130)은 상대적인 변화가 적은 프레임은 연속하는 단일의 씬(scene)의 일부로 인식하고, 상대적인 변화가 많은 프레임은 별개의 씬의 시작으로 인식한다. 본 발명에서 사용되는 비디오 시퀀스는 유사한 프레임들의 집합으로써 단일의 씬과 유사한 개념이지만 이미 촬영된 비디오 컨텐츠를 사후적인 비디오 프로세싱을 통해 씬을 추정하는 것으로, 본래적 의미의 씬과는 차이가 있다.The video sequence setting module 130 defines the set of frames whose frame correlation correlation value is equal to or larger than the first set value as a single original video sequence sequence_video_original so as to convert the original video content content_video_original into a first original video sequence sequence_video_original_1st, (N is an integer equal to or greater than 2) of the n-th original video sequence (sequence_video_original_nth). That is, the video sequence setting module 130 recognizes a frame having a relatively small change as a part of a single continuous scene, and recognizes a frame having a relatively large change as a start of a separate scene. The video sequence used in the present invention is a similar concept to a single scene with a similar set of frames, but differs from the originally meaningful scene in that it estimates the scene through post-processing video processing of already shot video content.

제 1 설정치는 프레임 코릴레이션(correlation_frame)의 하한선이다. 프레임 코릴레이션(correlation_frame)이 제 1 설정치 보다 높으면 연속 프레임들 간 유사성이 높은 것으로 연속 프레임은 동일한 시퀀스에 속한다. 반대로 프레임 코릴레이션(correlation_frame)이 제 1 설정치 보다 낮으면 연속 프레임들 간 유사성이 낮은 것으로 연속 프레임은 서로 다른 시퀀스에 속한다. 또한 제 1 설정치가 낮다면 연속 프레임들이 동일한 시퀀스에 속할 확률이 높아지고, 비디오 시퀀스의 총 개수인 n이 작아진다. 반대로 제 1 설정치가 높다면 연속 프레임들이 동일한 시퀀스에 속할 확률이 낮아지고, 비디오 시퀀스의 총 개수인 n이 커진다.The first set value is the lower limit of the frame correlation correlation (frame_frame). If the frame correlation (correlation_frame) is higher than the first set value, the similarity between consecutive frames is high, and the consecutive frames belong to the same sequence. Conversely, if the correlation_frame is lower than the first set value, the similarity between consecutive frames is low, and the consecutive frames belong to different sequences. Also, if the first set value is low, the probability that the consecutive frames belong to the same sequence increases, and the total number n of video sequences becomes small. Conversely, if the first set value is high, the probability that the consecutive frames belong to the same sequence is lowered, and the total number n of video sequences becomes larger.

그런데 비디오 컨텐츠가 풍경 같은 정적인 피사체를 촬영한 경우에는 프레임 코릴레이션(correlation_frame)은 통계적으로 높게 나타나고, 반대로 비디오 컨텐츠가 운동경기 같은 동적인 피사체를 촬영한 경우에는 프레임 코릴레이션(correlation_frame)은 통계적으로 낮게 나타난다. 따라서 실시예에 따라서는 제 1 설정치는 원본 비디오 컨텐츠(content_video_original)의 종류에 따라 적응적으로 변경되도록 구성할 수 있다. 예컨대 프레임 이미지 처리 모듈(120)은 프레임 코릴레이션(correlation_frame)의 평균값을 더 연산하고, 비디오 시퀀스 설정 모듈(130)은 높은 프레임 코릴레이션(correlation_frame) 평균값을 갖는 원본 비디오 컨텐츠(content_video_original)에 대해서는 높은 제 1 설정치를 설정함으로써 비디오 시퀀스의 총 개수인 n 을 크게 하고, 반대로 낮은 프레임 코릴레이션(correlation_frame) 평균값을 갖는 원본 비디오 컨텐츠(content_video_original)에 대해서는 낮은 제 1 설정치를 설정함으로써 비디오 시퀀스의 총 개수인 n을 작게 하는 방법으로, 원본 비디오 컨텐츠(content_video_original)의 속성에 따라 제 1 설정치를 적응적으로 조정하는 것이 바람직하다.However, when the video contents are photographed with a static object such as a landscape, the correlation_frame is statistically high. On the contrary, when video contents are photographed with a dynamic subject such as a sports game, the frame correlation correlation is statistically Appear lower. Therefore, according to the embodiment, the first set value may be adaptively changed according to the type of the original video content (content_video_original). For example, the frame image processing module 120 may further calculate an average value of a frame correlation, and the video sequence setting module 130 may calculate a high correlation coefficient for the original video content (content_video_original) having a high frame correlation correlation average value (N) is increased by setting a first set value, and by setting a lower first setting value for the original video content (content_video_original) having a low frame correlation averaging value, n, which is the total number of video sequences, is set to It is preferable to adjust the first set value adaptively according to the attribute of the original video content (content_video_original).

단일의 원본 비디오 컨텐츠(content_video_original)에서 정적인 촬영 구간과 동적인 촬영 구간이 공존하는 경우에는 높은 프레임 코릴레이션(correlation_frame) 평균값을 갖는 구간에서는 높게 조정된 제 1 설정치를 설정하고, 낮은 프레임 코릴레이션(correlation_frame) 평균값을 갖는 구간에서는 낮게 조정된 제 1 설정치를 적용하도록 비디오 시퀀스 설정 모듈(130)을 구현할 수도 있다.In a case where a static photographing section and a dynamic photographing section coexist in a single original video content (content_video_original), a first set value adjusted to a high level is set in a section having a high correlation coefficient frame average value, and a low frame correlation the video sequence setting module 130 may be implemented to apply the first set value adjusted to be lower in the interval having the correlation_frame average value.

비디오 시퀀스 재배치 모듈(140)은 적어도 제 k 원본 비디오 시퀀스(sequence_video_original_kth)(k는 1 이상 n-1 이하의 정수)의 적어도 일부로 구성되는 서브셋 비디오 시퀀스(subset_sequence_video)가 제 k+1 원본 비디오 시퀀스(sequence_video_original_k+1th)(k는 1 이상 n-1 이하의 정수)에 후행하거나 제 k-1 원본 비디오 시퀀스(sequence_video_original_k-1th)에 선행하도록 랜덤하게 재배치하여 재배치 비디오 컨텐츠(content_video_shuffled)를 생성하는 기능을 수행한다.The video sequence rearrangement module 140 generates a (k + 1) th original video sequence (sequence_video_original_k), which is a subset video sequence (subset_sequence_video) composed of at least a part of a kth original video sequence (sequence_video_original_kth) + 1th) (k is an integer equal to or greater than 1 and equal to or smaller than n-1) or is randomly rearranged to precede the k-1 original video sequence (sequence_video_original_k-1th) to generate rearranged video content content_video_shuffled .

통상의 비디오 컨텐츠 편집에 있어서 사용자는 편집할 편집 프레임들을 선택하여 선행 또는 후행하는 프레임에 삽입하거나 삭제한다. 그런데 숙련된 편집기술을 보유하지 않은 일반 사용자는 비디오 컨텐츠 편집작업에 많은 시간이 소요된다. 또한 전문 편집장비가 아닌 스마트폰과 같은 터치 인터페이스를 통해서 사용자가 편집구간을 선택하는 것은 더욱 어려운 문제가 있다. 그리고 단일의 카메라로 촬영된 비디오 컨텐츠는 시간 순서대로 촬영되기 때문에 동일한 프레임들이 지루하게 연속되는 것이 일반적이다.In normal video content editing, a user selects edit frames to be edited and inserts or deletes them in a preceding or following frame. However, ordinary users who do not have skilled editing techniques take a long time to edit video content. In addition, it is more difficult for a user to select an edit section through a touch interface such as a smart phone rather than a professional editing device. And since video content shot with a single camera is taken in chronological order, it is common for the same frames to be bored continuously.

그런데, 프레임 이미지 처리 모듈(120)의 이미지 프로세싱에 근거하여 비디오 시퀀스 설정 모듈(130)이 구분한 원본 비디오 시퀀스(sequence_video_original)[원본 비디오 시퀀스(sequence_video_original)의 전체를 서브셋 비디오 시퀀스(subset_sequence_video)로 설정하는 경우] 또는 원본 비디오 시퀀스(sequence_video_original)의 일부 구간인 서브셋 비디오 시퀀스(subset_sequence_video)를 비디오 시퀀스 재배치 모듈(140)이 자동으로 편집구간으로 설정하기 때문에 사용자로부터 편집구간의 선택을 입력받을 필요가 없는 효과를 제공한다. 또한 편집구간으로 선택된 비디오 시퀀스 또는 서브셋 비디오 시퀀스(subset_sequence_video)를 랜덤하게 임의의 프레임으로 재배치하기 때문에 사용자로부터 편집구간이 이동될 지점의 선택을 입력받을 필요가 없는 효과를 제공한다. 마지막으로, 사용자가 촬영한 원본 비디오 컨텐츠(content_video_original)와 비교하여 화면전환이 많고 시간 순서에 따르지 않는 의외성이 부가된 재배치 비디오 컨텐츠(content_video_shuffled)를 얻을 수 있는 효과를 제공한다.However, the entire sequence of the original video sequence (sequence_video_original) (sequence_video_original) separated by the video sequence setting module 130 is set to the subset video sequence (subset_sequence_video) based on the image processing of the frame image processing module 120 The video sequence rearrangement module 140 automatically sets the subset video sequence (subset_sequence_video), which is a partial section of the original video sequence (sequence_video_original), as an editing section, thereby eliminating the need to input the selection of the editing section from the user to provide. Also, since the video sequence or the subset video sequence (subset_sequence_video) selected as the editing section is randomly rearranged to an arbitrary frame, it is not necessary to input the selection of the point at which the editing section is moved from the user. Finally, compared with the original video content (content_video_original) photographed by the user, there is provided the effect of obtaining relocation video content (content_video_shuffled) added with unexpectedness that has many screen transitions and does not follow the time sequence.

한편 비디오 시퀀스 재배치 모듈(140)은 임의의 제 k 원본 비디오 시퀀스(sequence_video_original_kth)로서 n 개의 원본 비디오 시퀀스(sequence_video_original)들 중 반드시 한 개만 선택해야 하는 것은 아니고, 복수 개의 원본 비디오 시퀀스(sequence_video_original)들을 선택하여 랜덤하게 재배치함으로써 재배치 비디오 컨텐츠(content_video_shuffled)의 의외성 및 역동성을 높일 수 있다.On the other hand, the video sequence rearrangement module 140 does not necessarily have to select only one of n original video sequences (sequence_video_original) as any kth original video sequence (sequence_video_original_kth), but selects a plurality of original video sequences sequence_video_original Randomness and dynamism of the rearranged video content (content_video_shuffled) can be enhanced.

또한 비디오 시퀀스 재배치 모듈(140)은 제 k 원본 비디오 시퀀스(sequence_video_original_kth)의 전체를 서브셋 비디오 시퀀스(subset_sequence_video)로 선택할 수 있지만, 그 일부만을 서브셋 비디오 시퀀스(subset_sequence_video)로 선택할 수 있다. 따라서, 유사한 프레임들의 집합으로 구성되는 단일의 원본 비디오 시퀀스(sequence_video_original)를 여러 개의 서브셋 비디오 시퀀스(subset_sequence_video)들로 선택함으로써 재배치 비디오 컨텐츠의 의외성 및 역동성을 보다 높일 수 있다.Also, the video sequence relocation module 140 can select the entire kth original video sequence (sequence_video_original_kth) as a subset video sequence (subset_sequence_video), but only a part thereof can be selected as a subset video sequence (subset_sequence_video). Accordingly, the unexpectedness and dynamism of the rearranged video contents can be further enhanced by selecting a single original video sequence (sequence_video_original) composed of a similar set of frames as a plurality of subset video sequences (subset_sequence_video).

비디오 시퀀스 재배치 모듈(140)이 원본 비디오 시퀀스(sequence_video_original)의 일부를 서브셋 비디오 시퀀스(subset_sequence_video)로 선택할 때 각 선택되는 구간의 프레임 수는 랜덤하게 선택할 수도 있고, 미리 설정된 프레임 수로 선택할 수도 있다. 또는 비디오 시퀀스 재배치 모듈(140)은 프레임 이미지 처리 모듈(120)의 프레임 코릴레이션(correlation_frame) 연산 결과에 따라 원본 비디오 시퀀스(sequence_video_original) 선택의 기준이 된 제 1 설정치 보다 높은 다른 설정치를 기준으로 서브셋 비디오 시퀀스(subset_sequence_video)를 설정할 수도 있다. 실시예에 따라서 단일의 원본 비디오 시퀀스(sequence_video_original)를 구성하는 복수의 서브셋 비디오들은 동일한 프레임 수를 가질 수도 있고, 서로 다른 프레임 수를 가질 수도 있다.When the video sequence rearrangement module 140 selects a part of the original video sequence (sequence_video_original) as a subset video sequence (subset_sequence_video), the frame number of each selected section may be selected at random or by a preset frame number. Or the video sequence rearrangement module 140 generates a subset video based on another set value that is higher than the first set value based on the selection of the original video sequence (sequence_video_original) according to the frame correlation processing result of the frame image processing module 120, A sequence (subset_sequence_video) may be set. According to an embodiment, a plurality of subset videos constituting a single original video sequence (sequence_video_original) may have the same frame number or different frame numbers.

서브셋 비디오 시퀀스(subset_sequence_video)는 예컨대 연산처리장치의 난수 발생에 의해 임의의 원본 비디오 시퀀스(sequence_video_original)에 선행 또는 후행하도록 구성할 수 있다. 또한 서브셋 비디오 시퀀스(subset_sequence_video)가 재배치될 다른 원본 비디오 시퀀스(sequence_video_original) 역시 서브셋 비디오 시퀀스(subset_sequence_video)로 분할될 수 있기 때문에 재배치되는 서브셋 비디오 시퀀스(subset_sequence_video)는 다른 원본 비디오 시퀀스(sequence_video_original)의 중간에 삽입되는 형태로 재배치될 수도 있다.The subset video sequence (subset_sequence_video) may be configured to precede or follow an arbitrary original video sequence (sequence_video_original) by, for example, generating a random number in the arithmetic processing unit. Also, since another original video sequence (sequence_video_original) to which a subset video sequence (subset_sequence_video) is to be relocated can also be divided into a subset video sequence (subset_sequence_video), the subset video sequence (subset_sequence_video) to be rearranged is inserted in the middle of another original video sequence (sequence_video_original) Or the like.

그런데, 재배치 비디오 컨텐츠(content_video_shuffled)의 재배치된 서브셋 비디오 시퀀스(subset_sequence_video)의 시작지점 및 종료지점에서 화면의 갑작스런 전환이 발생한다. 이 경우 재배치 비디오 컨텐츠(content_video_shuffled)의 영상품질을 떨어뜨리는 문제가 있다. 이를 해결하기 위해, 비디오 컨텐츠 자동 편집 시스템(100)은 재배치된 서브셋 비디오 시퀀스(subset_sequence_video)의 시작지점 또는 종료지점 중 적어도 하나에 화면 전환 효과를 적용하는 화면 전환 효과 모듈(149)을 더 포함하는 것이 바람직하다. 화면 전환 효과는 자연스러운 장면변화를 이끌어내기 위한 것으로 페이드-인, 페이드-아웃, 화면 넘기기 애니메이션 효과 등을 예시할 수 있다.However, sudden switching of the screen occurs at the start and end points of the rearranged subset video sequence (subset_sequence_video) of the rearranged video content (content_video_shuffled). In this case, the video quality of the rearranged video content (content_video_shuffled) is deteriorated. In order to solve this problem, the video content automatic editing system 100 may further include a screen switching effect module 149 for applying a screen switching effect to at least one of a start point and an end point of a rearranged subset video sequence (subset_sequence_video) desirable. Screen transition effects are examples for natural scene changes, such as fade-in, fade-out, and screen flick animation effects.

서브셋 비디오 시퀀스(subset_sequence_video)는 랜덤하게 재배치되는 것이 원칙이지만 실시예에 따라서는 추가적인 규칙이 적용될 수 있다. 예컨대 제 3 원본 비디오 시퀀스(sequence_video_origina_3rdl)의 제 1 서브셋 비디오 시퀀스(subset_sequence_video)가 랜덤하게 재배치되고 난 후 제 3 원본 비디오 시퀀스(sequence_video_original_3rd)의 제 2 서브셋 비디오 시퀀스(subset_sequence_video_2th)가 랜덤하게 재배치되었는데 제 1 서브셋 비디오 시퀀스(subset_sequence_video_1st)와 제 2 서브셋 비디오 시퀀스(subset_sequence_video_2nd)가 우연히 다시 결합하거나 너무 인접하는 경우가 발생할 수 있다. 이 경우 재배치 비디오 컨텐츠(content_video_shuffled)의 의외성 및 역동성이 저감된다. 이를 방지하기 위해 동일한 원본 비디오 시퀀스(sequence_video_original)를 구성하는 복수의 서브셋 비디오 시퀀스(subset_sequence_video)는 랜덤하게 배치되되 예컨대 최소 300 프레임 이상 서로 이격되는 규칙 등을 부가하는 것이 바람직하다.Although it is a principle that the subset video sequence (subset_sequence_video) is rearranged at random, additional rules may be applied depending on the embodiment. The second subset video sequence (subset_sequence_video_2th) of the third original video sequence (sequence_video_original_3rd) is randomly rearranged after the first subset video sequence (subset_sequence_video) of the third original video sequence (sequence_video_origina_3rdl) is randomly rearranged, It may happen that the video sequence (subset_sequence_video_1st) and the second subset video sequence (subset_sequence_video_2nd) accidentally rejoin or are too contiguous. In this case, unexpectedness and dynamism of the rearranged video content (content_video_shuffled) are reduced. In order to prevent this, it is preferable that a plurality of subset video sequences (subset_sequence_video) constituting the same original video sequence (sequence_video_original) are randomly arranged, for example, a rule of spacing at least 300 frames apart.

실시예에 따라서는 비디오 시퀀스 재배치 모듈(140)이 비디오 시퀀스를 재배치할 때 사용자 단말기의 디스플레이를 통해 예컨대 각 비디오 시퀀스의 프레임 중 어느 하나를 썸네일로 구성하고, 원본 비디오 컨텐츠(content_video_original)의 순서에 따라 배열된 썸네일들이 흔들리면서 랜덤 조합된 재배치 비디오 컨텐츠(content_video_shuffled)의 순서에 따라 재배열되는 애니매이션을 시각적으로 사용자에게 출력하도록 구성할 수도 있다.According to an embodiment, when the video sequence rearrangement module 140 rearranges the video sequence, for example, one of the frames of each video sequence is configured as a thumbnail through the display of the user terminal, and according to the order of the original video contents (content_video_original) The arranged thumbnails may be shaken and configured to visually output to the user an animation that is rearranged in the order of the randomly combined relocatable video content (content_video_shuffled).

재배치 비디오 컨텐츠 저장 모듈(150)은 재배치 비디오 컨텐츠(content_video_shuffled) 또는 재배치 비디오 컨텐츠(content_video_shuffled)의 비디오 시퀀스들 및 서브셋 비디오 시퀀스(subset_sequence_video)의 배치 순서에 대한 정보인 시퀀스 배치 정보(info_arrange_sequences)를 저장하는 기능을 수행한다. 예컨대 재배치 비디오 컨텐츠 저장 모듈(150)은 재배치 비디오 컨텐츠(content_video_shuffled)를 단일의 동영상 파일로 인코딩하여 재배치 비디오 컨텐츠(content_video_shuffled)의 동영상 파일을 저장할 수 있다. 재배치 비디오 컨텐츠 저장 모듈(150)은 하드드라이버, 플래쉬 메모리, SSD와 같이 재사용 가능하게 데이터를 저장하는 데이터 저장 매체일 수도 있고, RAM(Random Access Memory)과 같이 일시적으로 데이터를 저장하는 버퍼 메모리일 수도 있다. The rearrangement video content storage module 150 has a function of storing sequence arrangement information (info_arrange_sequences), which is information on the arrangement order of video sequences of rearranged video content (content_video_shuffled) or rearranged video content (content_video_shuffled) and a subset video sequence (subset_sequence_video) . For example, the relocation video content storage module 150 may encode the relocation video content (content_video_shuffled) into a single moving image file to store the moving image file of the relocation video content (content_video_shuffled). The relocation video content storage module 150 may be a data storage medium for reusably storing data such as a hard drive, a flash memory, and an SSD, or may be a buffer memory for temporarily storing data such as a RAM (Random Access Memory) have.

한편 재배치 비디오 컨텐츠(content_video_shuffled)의 동영상 파일을 저장하면 예컨대 서로 유사한 동영상 파일인 원본 비디오 컨텐츠(content_video_original)의 동영상 파일과 재배치 비디오 컨텐츠(content_video_shuffled)의 동영상 파일이 모두 저장되기 때문에 저장용량이 제한적인 스마트폰 등의 모바일 단말기에서 활용이 어려운 문제가 있다. 이러한 문제를 해결하는 방법으로는, 원본 비디오 파일을 모바일 단말기의 저장장치에서 삭제하거나, 재배치 비디오 컨텐츠(content_video_shuffled)를 통신망을 통해 웹서버에 저장할 수 있다. 또 다른 방법으로는 비디오 시퀀스 재배치 모듈(140)이 원본 비디오 컨텐츠(content_video_original)의 메타정보로서 예컨대 원본 비디오 시퀀스(sequence_video_original)들 및 서브셋 비디오 시퀀스(subset_sequence_video)의 식별 정보, 시작시간 정보, 종료시간 정보, 원본 비디오 시퀀스(sequence_video_original)들 및 서브셋 비디오 시퀀스(subset_sequence_video)의 배치 순서를 저장함으로써 저장공간의 점유를 최소화할 수 있다.On the other hand, if a video file of the rearranged video content (content_video_shuffled) is stored, for example, both the video file of the original video content (content_video_original) and the video file of the rearranged video content (content_video_shuffled) There is a problem that it is difficult to use in a mobile terminal. In order to solve this problem, the original video file may be deleted from the storage device of the mobile terminal or the relocation video content (content_video_shuffled) may be stored in the web server through the communication network. As another method, the video sequence rearrangement module 140 may generate meta information of the original video content (content_video_original), for example, identification information of the original video sequence (sequence_video_original) and the subset video sequence (subset_sequence_video), start time information, The occupation of the storage space can be minimized by storing the arrangement order of the original video sequence (sequence_video_original) and the subset video sequence (subset_sequence_video).

이하에서는 도 2의 실시예를 통해 각 구성요소의 기능을 보다 상세히 설명한다. 도 2는 본 발명의 다른 실시예에 따른 재배치 비디오 컨텐츠의 생성례를 도시하는 비디오 컨텐츠 예시도이다. 도 2에 도시된 바와 같이, 원본 비디오 컨텐츠(content_video_original)는 프레임 1(frame 1) 내지 프레임 9(frame 9)로 구성되고, 프레임 1(frame 1) 내지 프레임 3(frame 3)에서는 한 명의 사람이 촬영되었고, 프레임 4(frame 4) 내지 프레임 6(frame 6)에서는 두 명의 사람들이 촬영되었고, 프레임 7(frame 7) 내지 프레임 9(frame 9)에서는 자동차가 촬영되었다.Hereinafter, the function of each component will be described in more detail through the embodiment of FIG. 2 is a diagram illustrating an example of video contents showing a generation example of rearranged video contents according to another embodiment of the present invention. As shown in FIG. 2, the original video content (content_video_original) consists of frame 1 (frame 1) to frame 9 (frame 9), and one person (frame 1) Two people were photographed in frame 4 (frame 4) to frame 6 (frame 6), and a car was photographed in frame 7 (frame 7) to frame 9 (frame 9).

사용자가 본 발명에 따른 비디오 컨텐츠 자동 편집 시스템(100)이 구현된 애플리케이션을 구동하고 원본 비디오 컨텐츠(content_video_original)를 선택하여 터치스크린 등의 입력 인터페이스 모듈(110)을 비디오 편집 활성화 입력(input_activation_edit)을 입력하면, 프레임 이미지 처리 모듈(120)은 연속 프레임들간 프레임 코릴레이션(correlation_frame)을 연산한다. 이 때 예컨대 프레임 1(frame 1) 및 프레임 2(frame 2) 또는 프레임 7(frame 7) 및 프레임 8(frame 8)은 유사한 프레임들이기 때문에 상대적으로 높은 프레임 코릴레이션(correlation_frame)을 갖는다. 반대로 프레임 4(frame 4)에 새로운 피사체가 추가되었고, 프레임 7(frame 7)에서 장면이 전환되었기 때문에, 상대적으로 프레임 3(frame 3) 및 프레임 4(frame 4)와 프레임 6(frame 6) 및 프레임 7(frame 7)은 낮은 프레임 코릴레이션(correlation_frame)을 갖는다.A user operates an application in which the video content automatic editing system 100 according to the present invention is implemented and selects an original video content (content_video_original) to input a video editing activation input (input_activation_edit) to an input interface module 110 such as a touch screen , The frame image processing module 120 calculates a frame correlation between successive frames. At this time, for example, frame 1 and frame 2 or frame 7 and frame 8 have relatively high frame correlation_frames because they are similar frames. On the other hand, since a new subject has been added to frame 4 and the scene has changed in frame 7, frame 3 and frame 4 and frame 6 Frame 7 (frame 7) has a low frame correlation (correlation_frame).

프레임 이미지 처리 모듈(120)의 프레임 코릴레이션(correlation_frame) 연산 결과에 따라 비디오 시퀀스 설정 모듈(130)은 제 1 설정치 보다 높은 프레임 코릴레이션(correlation_frame)을 갖는 프레임 1(frame 1) 내지 프레임 3(frame 3)을 제 1 원본 비디오 시퀀스(sequence_video_original_1st), 프레임 4(frame 4) 내지 프레임 6(frame 6)을 제 2 원본 비디오 시퀀스(sequence_video_original_2nd), 프레임 7(frame 7) 내지 프레임 9(frame 9)를 제 3 원본 비디오 시퀀스(sequence_video_original_3rd)로 묶고, 제 1 설정치 보다 낮은 프레임 코릴레이션(correlation_frame)을 갖는 연속 프레임인 프레임 3(frame 3) 및 프레임 4(frame 4), 프레임 6(frame 6) 및 프레임 7(frame 7)은 별개의 원본 비디오 시퀀스(sequence_video_original)로 구분한다.According to the result of the correlation_frame operation of the frame image processing module 120, the video sequence setting module 130 sets the frame sequence of frame 1 (frame 1) to frame 3 (frame 1) having a frame correlation higher than the first set value, 3 as the first original video sequence (sequence_video_original_1st), the frames 4 (frame 4) to 6 (frame 6) as the second original video sequence (sequence_video_original_2nd), and the frames 7 (frame 7) 3 original video sequence (sequence_video_original_3rd), and a frame 3 (frame 3) and a frame 4 (frame 4), a frame 6 (frame 6), and a frame 7 (a frame), which are continuous frames having a correlation correlation lower than the first set value frame 7) are separated by a separate original video sequence (sequence_video_original).

다음으로, 비디오 시퀀스 재배치 모듈(140)은 제 3 원본 비디오 시퀀스(sequence_video_original_3rd)를 제 1 원본 비디오 시퀀스(sequence_video_original_1st)와 제 2 원본 비디오 시퀀스(sequence_video_original_2nd) 사이에 재배치한다. 비디오 시퀀스 재배치 모듈(140)의 비디오 시퀀스 재배치는 랜덤하게 이루어진다. 이 경우는 비디오 시퀀스 재배치 모듈(140)은 제 3 원본 비디오 시퀀스(sequence_video_original_3rd)의 전체 프레임을 서브셋 비디오 시퀀스(subset_sequence_video)로 정의한 것이다.Next, the video sequence rearrangement module 140 rearranges the third original video sequence (sequence_video_original_3rd) between the first original video sequence (sequence_video_original_1st) and the second original video sequence (sequence_video_original_2nd). The video sequence rearrangement of the video sequence rearrangement module 140 is performed randomly. In this case, the video sequence rearrangement module 140 defines the entire frame of the third original video sequence (sequence_video_original_3rd) as a subset video sequence (subset_sequence_video).

마지막으로, 재배치 비디오 컨텐츠 저장 모듈(150)은 제 1 원본 비디오 시퀀스(sequence_video_original), 제 3 원본 비디오 시퀀스(sequence_video_original_3rd), 제 2 원본 비디오 시퀀스(sequence_video_original_2nd)의 순서로 재배치된 재배치 비디오 컨텐츠(content_video_shuffled)를 저장한다.Finally, the rearranged video content storage module 150 stores rearranged video content (content_video_shuffled) rearranged in the order of a first original video sequence (sequence_video_original), a third original video sequence (sequence_video_original_3rd), and a second original video sequence (sequence_video_original_nd) .

도 2에 도시된 바와 같이 재배치 비디오 컨텐츠(content_video_shuffled)는 연속되는 장면의 중간에 다른 장면이 삽입되기 때문에 역동적인 영상으로 변경되고, 사용자의 의도적인 편집행위 없이 재배치 비디오 컨텐츠(content_video_shuffled)가 생성되기 때문에 컨텐츠의 의외성이 부가되는 효과를 제공한다.As shown in FIG. 2, since the rearranged video content (content_video_shuffled) is changed to a dynamic image because another scene is inserted in the middle of the sequential scene, the rearranged video content (content_video_shuffled) is generated without intentionally editing the user Thereby providing an effect of adding unexpectedness of contents.

도 3은 본 발명의 다른 실시예에 따른 재배치 비디오 컨텐츠의 생성례를 도시하는 비디오 컨텐츠 예시도이다. 도 3에 도시된 바와 같이, 원본 비디오 컨텐츠(content_video_original)의 프레임 구성 및 비디오 시퀀스 설정 모듈(130)에 의한 시퀀스 구분은 도 2의 실시예와 동일하므로 중복된 설명은 생략한다.3 is a diagram illustrating an example of video contents showing a generation example of rearranged video contents according to another embodiment of the present invention. As shown in FIG. 3, the frame structure of the original video content (content_video_original) and the sequence classification by the video sequence setting module 130 are the same as those in the embodiment of FIG. 2, so duplicated description will be omitted.

비디오 시퀀스 재배치 모듈(140)은 제 3 원본 비디오 시퀀스(sequence_video_original_3rd)의 프레임 7(frame 7)을 제 1 서브셋 비디오 시퀀스(subset_sequence_video_1st)로, 제 3 원본 비디오 시퀀스(sequence_video_original_3rd)의 프레임 8(frame 8) 및 프레임 9(frame 9)를 제 2 서브셋 비디오 시퀀스(subset_sequence_video_2nd)로 구분한다. 비디오 시퀀스 재배치 모듈(140)은 제 1 서브셋 비디오 시퀀스(subset_sequence_video_1st)를 제 1 원본 비디오 시퀀스(sequence_video_original_1st)의 선행하도록 재배치하고, 제 2 서브셋 비디오 시퀀스(subset_sequence_video_2nd)를 제 1 원본 비디오 시퀀스(sequence_video_original_1st)와 제 2 원본 비디오 시퀀스(sequence_video_original_2nd) 사이에 재배치한다. 비디오 시퀀스 재패지 모듈의 비디오 시퀀스 재배치는 랜덤하게 이루어진다. The video sequence rearrangement module 140 rearranges the frame 7 of the third original video sequence sequence_video_original_rd into the first subset video sequence subset_sequence_video_1st, the frame 8 of the third original video sequence sequence_video_original_rd, And frame 9 (frame 9) is divided into a second subset video sequence (subset_sequence_video_2nd). The video sequence rearrangement module 140 rearranges the first subset video sequence (subset_sequence_video_1st) so as to precede the first original video sequence (sequence_video_original_1st) and outputs the second subset video sequence (subset_sequence_video_2nd) as the first original video sequence (sequence_video_original_1st) 2 < / RTI > original video sequence (sequence_video_original_2nd). Video Sequence Relocation The video sequence relocation of the module is done randomly.

마지막으로, 재배치 비디오 컨텐츠 저장 모듈(150)은 제 1 서브셋 비디오 시퀀스(subset_sequence_video_1st), 제 1 원본 비디오 시퀀스(sequence_video_original_1st), 제 2 서브셋 비디오 시퀀스(subset_sequence_video_2nd), 제 2 원본 비디오 시퀀스(sequence_video_original_2nd)의 순서로 재배치된 재배치 비디오 컨텐츠(content_video_shuffled)를 저장한다.Finally, the relocatable video content storage module 150 stores the first subset video sequence (subset_sequence_video_1st), the first original video sequence (sequence_video_original_1st), the second subset video sequence (subset_sequence_video_2nd), and the second original video sequence (sequence_video_original_2nd) And stores the rearranged rearranged video content (content_video_shuffled).

도 3에 도시된 바와 같이 재배치 비디오 컨텐츠(content_video_shuffled)는 단일의 원본 비디오 시퀀스(sequence_video_original)를 복수의 서브셋 비디오 시퀀스(subset_sequence_video)들로 분할하여 각각 분산배치하기 때문에 도 2의 실시예보다 더욱 역동적인 영상으로 변경되고, 재배치 비디오 컨텐츠(content_video_shuffled)의 의외성 역시 도 2의 실시예보다 증가하는 효과를 제공한다.As shown in FIG. 3, the relocation video content (content_video_shuffled) divides a single original video sequence (sequence_video_original) into a plurality of subset video sequences (subset_sequence_video) And the unexpectedness of the relocation video content content_video_shuffled also provides an increased effect over the embodiment of FIG.

한편, 도 2 및 도 3에서는 단일의 원본 비디오 컨텐츠(content_video_original)의 비디오 시퀀스들을 재배치하는 경우를 설명하였지만 복수의 원본 비디오 컨텐츠(content_video_original)들의 비디오 시퀀스들을 교차하여 재배치하면 재배치 비디오 컨텐츠(content_video_shuffled)의 역동성 및 의외성이 더욱 증가한다.Although FIGS. 2 and 3 illustrate the case of rearranging the video sequences of a single original video content (content_video_original), if the video sequences of a plurality of original video contents (content_video_original) are crossed and rearranged, the inverse of the rearranged video content content_video_shuffled The same sex and unexpectedness increase.

이를 위해, 프레임 이미지 처리 모듈(120)은 복수의 원본 비디오 컨텐츠(content_video_original) 별로 프레임 코릴레이션(correlation_frame)을 연산하고, 비디오 시퀀스 설정 모듈(130)은, 복수의 원본 비디오 컨텐츠(content_video_original)들을 제 1 원본 비디오 시퀀스(sequence_video_original_1st) 내지 제 n 원본 비디오 시퀀스(sequence_video_original_nth)로 구분하고, 비디오 시퀀스 재배치 모듈(140)은, 단일의 재배치 비디오 컨텐츠(content_video_shuffled)를 생성하도록 구성한다. 즉, 복수의 원본 비디오 컨텐츠(content_video_original)를 자동 편집하는 실시예에 있어서 각 원본 비디오 컨텐츠(content_video_original)별로 원본 비디오 시퀀스(sequence_video_original)들을 구분한 후 이러한 원본 비디오 시퀀스(sequence_video_original)들을 모두 랜덤하게 재배치하여 단일의 재배치 비디오 컨텐츠(content_video_shuffled)를 생성한다.To this end, the frame image processing module 120 calculates a frame correlation for each of a plurality of original video contents (content_video_original), and the video sequence setting module 130 sets a plurality of original video contents (content_video_original) And the video sequence rearrangement module 140 is configured to generate a single rearranged video content (content_video_shuffled). The video sequence rearrangement module 140 divides the original video sequence (sequence_video_original_1st) to the nth original video sequence (sequence_video_original_nth). That is, in an embodiment where a plurality of original video contents (content_video_original) are automatically edited, original video sequences (sequence_video_original) are divided for each original video content (content_video_original), and all of the original video sequences (sequence_video_original) (Content_video_shuffled) of the video content.

이때 복수의 원본 비디오 컨텐츠(content_video_original)들이 서로 프레임 종횡비가 다른 경우 비디오 컨텐츠 자동 편집 시스템(100)은 이를 균일하게 자동으로 조정하는 것이 바람직하다.In this case, when the plurality of original video contents (content_video_original) have different frame aspect ratios, the automatic video content editing system 100 preferably adjusts them uniformly and automatically.

이하에서는 도 4를 참조하여 복수의 원본 비디오 컨텐츠(content_video_original)들을 자동 편집하여 단일의 재배치 비디오 컨텐츠(content_video_shuffled)를 생성하는 실시예를 설명한다. Hereinafter, an embodiment in which a plurality of original video contents (content_video_original) are automatically edited to generate a single relocated video content (content_video_shuffled) will be described with reference to FIG.

도 4는 본 발명의 다른 실시예에 따른 복수의 원본 비디오 컨텐츠를 이용한 재배치 비디오 컨텐츠의 생성례를 도시하는 비디오 컨텐츠 예시도이다. 도 4에 도시된 바와 같이, 제 1 원본 비디오 컨텐츠(content_video_original_1st)는 프레임 1-1(frame 1-1) 내지 프레임 1-6(frame 1-6)으로 구성되고, 제 2 원본 비디오 컨텐츠(content_video_original_2nd)는 프레임 2-1(frame 2-1) 내지 프레임 2-3(frame 2-3)으로 구성된다. 프레임 1-1(frame 1-1) 내지 프레임 1-3(frame 1-3)에서는 한 명의 사람이 촬영되었고, 프레임 1-4(frame 1-4) 내지 프레임 1-6(frame 1-6)에서는 두 명의 사람들이 촬영되었고, 프레임 2-1(frame 2-1) 내지 프레임 2-3(frame 2-3)에서는 집이 촬영되었다.FIG. 4 is a diagram illustrating an example of video content showing creation of rearranged video contents using a plurality of original video contents according to another embodiment of the present invention. 4, the first original video content (content_video_original_1st) is composed of a frame 1-1 (frame 1-1) to a frame 1-6 (frame 1-6), and a second original video content (content_video_original_nd) (Frame 2-1) to frame 2-3 (frame 2-3). One person was photographed in frames 1-1 (frame 1-1) to 1-3 (frames 1-3), and frames 1-4 (frames 1-4) to 1-6 (frames 1-6) Two people were photographed, and the house was photographed in frames 2-1 (frame 2-1) to frame 2-3 (frame 2-3).

사용자가 본 발명에 따른 비디오 컨텐츠 자동 편집 시스템(100)이 구현된 애플리케이션을 구동하고 복수의 원본 비디오 컨텐츠(content_video_original)들을 선택하여 터치스크린 등의 입력 인터페이스 모듈(110)을 비디오 편집 활성화 입력(input_activation_edit)을 입력하면, 프레임 이미지 처리 모듈(120)은 연속 프레임들간 프레임 코릴레이션(correlation_frame)을 연산한다. 이때 예컨대 프레임 1-1(frame 1-1) 및 프레임 1-2(frame 1-2) 또는 프레임 2-2(frame 2-2) 및 프레임 2-3(frame 2-3)은 유사한 프레임들이기 때문에 상대적으로 높은 프레임 코릴레이션(correlation_frame)을 갖는다. 반대로 프레임 1-4(frame 1-4)에는 새로운 피사체가 추가되었고, 프레임 2-1(frame 2-1)은 다른 원본 비디오 컨텐츠(content_video_original_2nd)이기 때문에 프레임 1-3(frame 1-3) 및 프레임 1-4(frame 1-4)와 프레임 1-6(frame 1-6) 및 프레임 2-1(frame 2-1)은 상대적으로 낮은 프레임 코릴레이션(correlation_frame)을 갖는다. 한편 서로 다른 원본 비디오 컨텐츠(content_video_original)들은 서로 상관관계가 거의 없으며, 연속되는 프레임이 아니기 때문에 실시예에 따라서는 프레임 이미지 처리 모듈(120)은 프레임 1-6(frame 1-6)과 프레임 2-1(frame 2-1) 간의 프레임 코릴레이션(correlation_frame) 연산을 하지 않을 수도 있다.The user operates an application in which the video content automatic editing system 100 according to the present invention is implemented and selects a plurality of original video contents (content_video_original) to input the video editing active input (input_activation_edit) The frame image processing module 120 calculates a frame correlation between consecutive frames. At this time, for example, since the frame 1-1 (frame 1-1) and the frame 1-2 (frame 1-2) or the frame 2-2 (frame 2-2) and the frame 2-3 (frame 2-3) are similar frames And has a relatively high frame correlation (correlation_frame). On the other hand, a new object is added to the frame 1-4 (frame 1-4), and since the frame 2-1 (frame 2-1) is another original video content (content_video_original_2nd) 1-4 (frame 1-4), frames 1-6 (frame 1-6), and frame 2-1 (frame 2-1) have a relatively low frame correlation correlation. On the other hand, since different original video contents (content_video_original) are not correlated with each other and are not consecutive frames, according to an embodiment, the frame image processing module 120 transmits the frame 1-6 (frame 1-6) 1 (frame 2 - 1).

프레임 이미지 처리 모듈(120)의 프레임 코릴레이션(correlation_frame) 연산 결과에 따라 비디오 시퀀스 설정 모듈(130)은 제 1 설정치 보다 높은 프레임 코릴레이션(correlation_frame)을 갖는 프레임 1-1(frame 1-1) 내지 프레임 1-3(frame 1-3)을 제 1 원본 비디오 시퀀스(sequence_video_original_1st), 프레임 1-4(frame 1-4) 내지 프레임 1-6(frame 1-6)을 제 2 원본 비디오 시퀀스(sequence_video_original_2nd), 프레임 2-1(frame 2-1) 내지 프레임 2-3(frame 2-3)을 제 3 원본 비디오 시퀀스(sequence_video_original_3rd)로 묶고, 제 1 설정치 보다 낮은 프레임 코릴레이션(correlation_frame)을 갖는 연속 프레임인 프레임 1-3(frame 1-3) 및 프레임 1-4(frame 1-4), 프레임 1-6(frame 1-6) 및 프레임 2-1(frame 2-1)은 별개의 원본 비디오 시퀀스(sequence_video_original)로 구분한다.In accordance with the result of the correlation_frame operation of the frame image processing module 120, the video sequence setting module 130 sets the frame 1-1 (frame 1-1) to frame 1-1 having the frame correlation higher than the first set value (Frame 1-3) to a second original video sequence (sequence_video_original_2nd), frames 1-4 (frames 1-4) to 1-6 (frames 1-6) , Frame 2-1 (frame 2-1) to frame 2-3 (frame 2-3) into a third original video sequence (sequence_video_original_3rd), and a continuous frame having a frame correlation lower than the first set value (correlation_frame) The frames 1-3 (frames 1-3) and 1-4 (frames 1-4), frames 1-6 (frames 1-6), and frames 2-1 (frame 2-1) sequence_video_original).

다음으로, 비디오 시퀀스 재배치 모듈(140)은 제 3 원본 비디오 시퀀스(sequence_video_original_3rd)를 제 1 원본 비디오 시퀀스(sequence_video_original_1st)와 제 2 원본 비디오 시퀀스(sequence_video_original_2nd) 사이에 재배치한다. 비디오 시퀀스 재배치 모듈(140)의 비디오 시퀀스 재배치는 랜덤하게 이루어진다. 이 경우는 비디오 시퀀스 재배치 모듈(140)은 제 3 원본 비디오 시퀀스(sequence_video_original_3rd)의 전체 프레임을 서브셋 비디오 시퀀스(subset_sequence_video)로 정의한 것이다.Next, the video sequence rearrangement module 140 rearranges the third original video sequence (sequence_video_original_3rd) between the first original video sequence (sequence_video_original_1st) and the second original video sequence (sequence_video_original_2nd). The video sequence rearrangement of the video sequence rearrangement module 140 is performed randomly. In this case, the video sequence rearrangement module 140 defines the entire frame of the third original video sequence (sequence_video_original_3rd) as a subset video sequence (subset_sequence_video).

마지막으로, 재배치 비디오 컨텐츠 저장 모듈(150)은 제 1 원본 비디오 시퀀스(sequence_video_original_1st), 제 3 원본 비디오 시퀀스(sequence_video_original_3rd), 제 2 원본 비디오 시퀀스(sequence_video_original_2nd)의 순서로 재배치된 재배치 비디오 컨텐츠(content_video_shuffled)를 저장한다.Finally, the rearrangement video content storage module 150 stores rearranged video content (content_video_shuffled) rearranged in the order of a first original video sequence (sequence_video_original_1st), a third original video sequence (sequence_video_original_3rd), and a second original video sequence (sequence_video_original_nd) .

한편 랜덤하게 자동 편집된 재배치 비디오 컨텐츠(content_video_shuffled) 관람 후, 사용자가 또 다른 재배치 비디오 컨텐츠(content_video_shuffled)를 요청하는 경우, 첫 번째로는 원본 비디오 시퀀스(sequence_video_original)를 다시 랜덤하게 재배치하여 2차 재배치 비디오 컨텐츠(content_video_shuffled_2nd)를 생성할 수 있고, 두 번째로는 프레임 코릴레이션(correlation_frame) 연산을 재실행하여 2차 재배치 비디오 컨텐츠(content_video_shuffled_2nd)를 생성한다.On the other hand, if the user requests another relocatable video content (content_video_shuffled) after viewing the randomly edited relocatable video content (content_video_shuffled), firstly, the original video sequence (sequence_video_original) is relocated again, Content_video_shuffled_2nd, and secondly re-executes the correlation_frame operation to generate secondary relocation video content content_video_shuffled_2nd.

원본 비디오 컨텐츠를 다시 랜덤하게 자동 편집하여 2차 재배치 비디오 컨텐츠를 생성할 수 있고, 두 번째로는 재배치 비디오 컨텐츠를 다시 랜덤하게 재배치하여 자동 편집하도록 구성할 수 있다. 전술한 도 2의 실시예의 경우 각각의 원본 비디오 시퀀스는 동일하게 유지되기 때문에 첫 번째 방법과 두 번째 방법은 실질적으로 차이가 없을 수 있다. 그러나 도 3의 실시예와 같이 원본 비디오 시퀀스를 복수의 서브셋 비디오 시퀀스들로 분할한 경우 첫 번째 방법과 두 번째 방법은 차기가 있게 된다.It is possible to automatically rearrange the original video contents again automatically to generate secondary rearranged video contents, and secondly to rearrange the rearranged video contents at random and automatically edit the rearranged video contents. In the embodiment of FIG. 2 described above, since each original video sequence remains the same, the first method and the second method may be substantially different. However, when the original video sequence is divided into a plurality of subset video sequences as in the embodiment of FIG. 3, the first method and the second method are next.

먼저, 재배치 비디오 컨텐츠(content_video_shuffled) 생성 후 사용자의 요청에 따라 원본 비디오 시퀀스(sequence_video_original)를 다시 랜덤하게 재배치하여 2차 재배치 비디오 컨텐츠(content_video_shuffled_2nd)를 생성는 실시예를 설명한다.First, an embodiment will be described in which after the generation of the rearrangement video content (content_video_shuffled), the original video sequence (sequence_video_original) is relocated again at random according to the user's request to generate the secondary rearrangement video content (content_video_shuffled_2nd).

이를 위해 비디오 시퀀스 재배치 모듈(140)은 재배치 비디오 컨텐츠(content_video_shuffled)의 생성 이후 입력 인터페이스 모듈(110)로부터 추가 재배치 활성화 입력(input_activation_shuffle_renewal)의 수신에 따라 원본 비디오 시퀀스(sequence_video_original) 및/또는 서브셋 비디오 시퀀스(subset_sequence_video)를 다시 랜덤하게 재배치하여 2차 재배치 비디오 컨텐츠(content_video_shuffled_2nd)를 생성하도록 구성한다.To this end, the video sequence reordering module 140 generates an original video sequence (sequence_video_original) and / or a subset video sequence (input_activation_shuffle_reiginal) according to reception of an additional relocation activation input (input_activation_shuffle_renewal) from the input interface module 110 after generation of the rearranged video content (content_video_shuffled) subset_sequence_video) is re-randomly rearranged to generate secondary rearranged video content (content_video_shuffled_2nd).

예컨대 사용자는 사용자 단말기에서 재배치 비디오 컨텐츠(content_video_shuffled)를 플레이하여 확인하는 중 또는 확인한 후 사용자 단말기를 흔들거나 추가 재배치 활성화 입력(input_activation_shuffle_renewal) 객체를 선택하는 방법을 이용하여 비디오 컨텐츠 자동 편집 시스템(100)은 재배치 비디오 컨텐츠(content_video_shuffled)와 다르게 랜덤하게 편집된 2차 재배치 비디오 컨텐츠(content_video_shuffled_2nd)를 생성할 수 있다.For example, the user may play the relocation video content (content_video_shuffled) in the user terminal, or confirm or confirm the video content automatic editing system 100 using the method of shaking the user terminal or selecting the input_activation_shuffle_renewal object It is possible to generate secondary rearranged video content (content_video_shuffled_2nd) that is edited randomly from rearranged video content (content_video_shuffled).

실시예에 따라서는 비디오 시퀀스 설정 모듈(130)이 처음 재배치 비디오 컨텐츠(content_video_shuffled)에서와 다른 제 1 설정치를 적용함으로써 2차 재배치 비디오 컨텐츠(content_video_shuffled_2nd)가 처음 재배치 비디오 컨텐츠(content_video_shuffled)에 비해 많은 변화가 발생하도록 구성할 수도 있다.Depending on the embodiment, the video sequence setting module 130 applies a first set value different from that of the originally reordering video content (content_video_shuffled), so that the secondary reordering video content content_video_shuffled_2nd changes much more than the first reordering video content content_video_shuffled . ≪ / RTI >

다음으로, 재배치 비디오 컨텐츠(content_video_shuffled) 생성 후 사용자의 요청에 따라 프레임 코릴레이션(correlation_frame) 연산을 재실행하여 2차 재배치 비디오 컨텐츠(content_video_shuffled_2nd)를 생성하는 실시예를 설명한다.Next, an embodiment will be described in which secondary relocation video content (content_video_shuffled_2nd) is generated by re-executing a correlation_frame operation in response to a user's request after generating relocation video content (content_video_shuffled).

이를 위해 프레임 이미지 처리 모듈(120)은 재배치 비디오 컨텐츠(content_video_shuffled)의 생성 이후 입력 인터페이스 모듈(110)로부터 비디오 추가 편집 활성화 입력(input_activation_iteration)의 수신에 따라 재배치 비디오 컨텐츠(content_video_shuffled)를 새로운 원본 비디오 컨텐츠(content_video_original)로 인지하고 각 프레임을 분석하여 프레임 코릴레이션(correlation_frame)을 연산하고, 비디오 시퀀스 설정 모듈(130), 비디오 시퀀스 재배치 모듈(140) 및/또는 재배치 비디오 컨텐츠 저장 모듈(150)은 전술한 기능을 동일하게 수행함으로써 2중으로 자동 편집된 2차 재배치 비디오 컨텐츠(content_video_shuffled_2nd)를 얻을 수 있다.To this end, the frame image processing module 120 converts the rearranged video content content_video_shuffled into new original video content (content_video_shuffled) in response to receiving a video additional editing activation input (input_activation_iteration) from the input interface module 110 after the generation of the rearranged video content the video sequence setting module 130, the video sequence rearrangement module 140, and / or the rearranged video content storage module 150 perform the above-described function (content_video_original), and analyze each frame to calculate a frame correlation_frame. The secondary rearranged video contents (content_video_shuffled_2nd) can be obtained.

한편, 사용자의 선택에 따라 제 1 설정치를 증감함으로써 랜덤으로 자동 편집되는 원본 비디오 시퀀스(sequence_video_original)의 개수를 조정하는 것이 바람직하다. 사용자가 원본 비디오 컨텐츠(content_video_original)에서 적은 변화만 원하는 경우 제 1 설정치를 낮추고, 사용자가 원본 비디오 컨텐츠(content_video_original)에서 많은 변화를 원하는 경우 제 1 설정치를 높이도록 구성할 수 있다. 사용자는 재배치 비디오 컨텐츠(content_video_shuffled)에 많은 변화가 발생하기를 원할 수도 있지만, 경우에 따라서는 원본 비디오 컨텐츠(content_video_original)의 맥락을 심하게 변화하지 않는 정도의 재배치 비디오 컨텐츠(content_video_shuffled)를 원할 수도 있다. On the other hand, it is preferable to adjust the number of original video sequences (sequence_video_original) randomly and automatically edited by increasing or decreasing the first set value according to the user's selection. The first setting value may be lowered when the user wants only a small change in the original video content (content_video_original), and the first setting value may be increased when the user desires a lot of change in the original video content (content_video_original). The user may want to make many changes to the relocatable video content (content_video_shuffled), but in some cases may want to have relocated video content content_video_shuffled to a degree that does not significantly change the context of the original video content (content_video_original).

예컨대 제 1 설정치를 높이면 원본 비디오 컨텐츠(content_video_original)에서 동일한 원본 비디오 시퀀스를 구성하는 프레임의 수가 적어지기 때문에 생성되는 원본 비디오 시퀀스의 수는 보다 많아진다. 이에 따라 랜덤하게 재배치되는 원본 비디오 시퀀스가 적어지게 되어 재배치 비디오 컨텐츠(content_video_shuffled)의 역동성 및 의외성이 보다 높아진다.For example, if the first set value is increased, the number of frames constituting the same original video sequence in the original video content (content_video_original) becomes smaller, so that the number of original video sequences generated becomes larger. Accordingly, the original video sequence to be randomly rearranged is reduced, and the dynamism and unexpectedness of the rearranged video content (content_video_shuffled) are further enhanced.

반대로 제 1 설정치를 낮추면 동일한 원본 비디오 컨텐츠(content_video_original)에서 동일한 비디오 시퀀스 프레임으로 분류되는 프레임의 수가 많아지고, 비디오 시퀀스 프레임은 보다 성기게 구분된다. 이에 따라 랜덤하게 재배치되는 비디오 시퀀스 프레임이 적어져서 재배치 비디오 컨텐츠(content_video_shuffled)의 역동성 및 의외성이 보다 낮아진다.Conversely, if the first set value is lowered, the number of frames classified into the same video sequence frame in the same original video content (content_video_original) increases, and the video sequence frames are more discriminated. This reduces the number of video sequence frames that are randomly relocated, thereby further reducing the dynamics and unexpectedness of the relocatable video content (content_video_shuffled).

이를 위해, 비디오 시퀀스 재배치 모듈(140)은 비디오 편집 활성화 입력(input_activation_edit)에 따라 제 1 설정치를 조정하도록 구성할 수 있다. 보다 구체적으로는 사용자 입력 인터페이스 모듈(110)은 디스플레이에 대한 사용자의 터치를 비디오 편집 활성화 입력(input_activation_edit)으로 인식하는 터치 센싱부를 포함하고, 비디오 시퀀스 재배치 모듈(140)은 사용자의 터치 시간의 증가 또는 터치 압력의 증가에 따라 제 1 설정치를 높이도록 구성하는 것이 바람직하다.To this end, the video sequence rearrangement module 140 may be configured to adjust the first set value according to the video editing activation input (input_activation_edit). More specifically, the user input interface module 110 includes a touch sensing unit for recognizing a user's touch on the display as a video editing activation input (input_activation_edit), and the video sequence rearrangement module 140 can increase It is preferable to increase the first set value in accordance with the increase of the touch pressure.

이러한 실시예에 따르면 사용자는 원본 비디오 컨텐츠(content_video_original)를 선택하고, 예컨대 사용자가 터치스크린 상에서 비디오 편집 활성화 입력(input_activation_edit) 객체를 터치하는 시간을 증가시키면 제 1 설정치가 점진적으로 높아져서 재배치 비디오 컨텐츠(content_video_shuffled)의 변화율을 증가시킬 수 있다. 또는 터치압력을 구분하는 터치스크린에 있어서 사용자가 터치스크린 상에서 비디오 편집 활성화 입력(input_activation_edit) 객체를 터치하는 압력을 증가시키면 제 1 설정치가 점진적으로 높아져서 재배치 비디오 컨텐츠(content_video_shuffled)의 변화율을 증가시킬 수 있다.According to this embodiment, the user selects the original video content (content_video_original), and for example, when the user increases the time for touching the video editing activation input (input_activation_edit) object on the touch screen, the first set value gradually rises to the rearranged video content content_video_shuffled ) Can be increased. Or touch pressure, the first set value gradually increases to increase the rate of change of the rearranged video content (content_video_shuffled) when the user increases the pressure of touching the video editing activation input (input_activation_edit) object on the touch screen .

다른 실시예로는 사용자 입력 인터페이스 모듈(110)은 디바이스 흔들림을 감지하여 비디오 편집 활성화 입력(input_activation_edit)으로 인식하는 움직임 센싱부를 포함하고, 비디오 시퀀스 재배치 모듈(140)은 디바이스 흔들림 시간 또는 흔들림 세기의 증가에 따라 제 1 설정치를 높이도록 구성하는 것이 바람직하다. 움직임 센싱부는 가속도 센서 등으로 구현할 수 있다.In another embodiment, the user input interface module 110 includes a motion sensing unit for sensing a device shake and recognizing the device shake as a video editing activation input (input_activation_edit), and the video sequence rearrangement module 140 may increase the device shake time or the shake intensity The first set value is increased. The motion sensing unit can be implemented by an acceleration sensor or the like.

이러한 실시예에 따르면 사용자는 원본 비디오 시퀀스(sequence_video_original)를 선택하고, 예컨대 사용자가 움직임 센싱부가 포함된 스마트폰을 흔드는 시간을 증가시키면 제 1 설정치가 점진적으로 높아져서 재배치 비디오 컨텐츠(content_video_shuffled)의 변화율을 증가시킬 수 있다. 또는 예컨대 사용자가 움직임 센싱부가 포함된 스마트폰을 흔드는 세기를 증가시키면 제 1 설정치가 점진적으로 높아져서 재배치 비디오 컨텐츠(content_video_shuffled)의 변화율을 증가시킬 수 있다.According to this embodiment, the user selects the original video sequence (sequence_video_original), for example, when the user increases the time for shaking the smartphone including the motion sensing unit, the first set value gradually increases to increase the rate of change of the rearranged video content (content_video_shuffled) . Alternatively, for example, if the user increases the intensity of shaking the smartphone including the motion sensing unit, the first set value may gradually increase to increase the rate of change of the rearranged video content (content_video_shuffled).

한편, 일반 사용자가 촬영한 비디오 컨텐츠에는 예컨대 불필요하게 정적인 장면이 지속되거나 화면의 흔들림, 초점이탈을 야기하는 카메라의 이동, 회전 등으로 비디오 컨텐츠의 가치를 떨어뜨리고 감상을 지루하게 하는 요소가 다수 포함될 수 있다. 본 발명의 바람직한 실시예에 따르면 정적인 장면으로만 촬영된 원본 비디오 시퀀스(sequence_video_original) 전체 또는 원본 비디오 시퀀스(sequence_video_original) 중 정적인 프레임들 또는 카메라 이동 또는 회전에 의해 발생된 프레임들을 자동으로 제거할 수 있다.On the other hand, in the video contents photographed by the general user, for example, unnecessary static scenes are continued or the elements of the video content are diminished due to movement and rotation of the camera causing the screen shake, . According to a preferred embodiment of the present invention, static frames among the original video sequence (sequence_video_original) or the original video sequence (sequence_video_original) captured only in a static scene or frames generated by camera movement or rotation can be automatically removed have.

정적인 장면으로만 구성된 원본 비디오 시퀀스(sequence_video_original) 전체를 자동으로 제거하기 위해, 비디오 컨텐츠 자동 편집 시스템(100)은 연속하는 원본 비디오 시퀀스(sequence_video_original)들 간의 코릴레이션인 시퀀스 코릴레이션(correlation_sequence)이 제 2 설정치 이상인 원본 비디오 시퀀스(sequence_video_original)들 중 적어도 어느 하나를 제거하는 비디오 시퀀스 제거 모듈(142)을 더 포함하는 것이 바람직하다.In order to automatically remove the entire original video sequence (sequence_video_original) composed only of a static scene, the video content auto-editing system (100) automatically detects whether or not a sequence correlation (sequence_video_original), which is a correlation between successive original video sequences (sequence_video_original) And a video sequence elimination module 142 for eliminating at least one of original video sequences (sequence_video_original) that is equal to or larger than a set value.

연속하는 프레임 간의 상관도를 연산하기 위한 프레임 코릴레이션(correlation_frame)과 달리, 시퀀스 코릴레이션(correlation_sequence)은 연속하는 시퀀스들간의 상관관계를 연산하기 위한 코릴레이션으로 차이가 있다. 이러한 시퀀스 코릴레이션(correlation_sequence)은 예컨대 원본 비디오 시퀀스(sequence_video_original)를 구성하는 모든 프레임들에 대한 통계적인 이미지 특성치를 사용한 상관도이거나 선행하는 원본 비디오 시퀀스(sequence_video_original)의 최종 프레임과 연속으로 후행하는 원본 비디오 시퀀스(sequence_video_original)의 최초 프레임 간의 이미지 특성치를 사용한 상관도이거나 그 둘의 조합으로 구현할 수 있다.Unlike the frame correlation for calculating the correlation between consecutive frames, the correlation_sequence is different from the correlation for calculating the correlation between consecutive sequences. This sequence correlation may be correlated using, for example, statistical image characteristic values of all the frames constituting the original video sequence (sequence_video_original), or may be correlated with the original video sequence (sequence_video_original) A correlation using the image characteristic value between the first frames of the sequence (sequence_video_original), or a combination of both.

이러한 실시예에 따르면 재배치 비디오 컨텐츠(content_video_shuffled)의 전체 재생시간을 단축하고, 불필요하게 지속되는 정적인 구간을 제거하여 재배치 비디오 컨텐츠(content_video_shuffled)에 대한 사용자의 몰입도를 증가할 수 있는 효과가 있다. According to this embodiment, there is an effect that the total playback time of the rearranged video content (content_video_shuffled) is shortened and the unnecessary duration of the static section is removed, thereby increasing the user's immersion level for the rearranged video content (content_video_shuffled).

정적인 장면으로만 구성된 원본 비디오 시퀀스(sequence_video_original)의 일부 프레임들을 자동으로 제거하기 위해, 비디오 컨텐츠 자동 편집 시스템(100)은, 제 k 원본 비디오 시퀀스(sequence_video_original_kth) 또는 서브셋 비디오 시퀀스(subset_sequence_video) 중 프레임 코릴레이션(correlation_frame)이 제 3 설정치(제 3 설정치는 제 1 설정치 보다 높음) 이상인 프레임들을 제거하는 비디오 프레임 제거 모듈(132)을 더 포함하는 것이 바람직하다.In order to automatically remove some frames of the original video sequence (sequence_video_original) composed only of a static scene, the video content auto-editing system 100 performs automatic video editing of the frame k of the k-th original video sequence (sequence_video_original_kth) or the subset video sequence (subset_sequence_video) And a video frame removal module 132 for removing frames whose correlation_frame is equal to or greater than a third set value (the third set value is higher than the first set value).

예를 들어 동일한 원본 비디오 시퀀스(sequence_video_original)로 설정된 프레임들은 시퀀스 설정의 프레임 코릴레이션(correlation_frame) 하한인 0.8의 제 1 설정치를 갖는 경우 해당 원본 비디오 시퀀스(sequence_video_original)에서 정적인 프레임들의 설정의 프레임 코릴레이션(correlation_frame) 하한인 제 3 설정치는 0.97이 될 수 있다. 즉, 정적인 프레임들의 하한인 제 3 설정치는 동일 시퀀스 설정의 하한보다는 높게 설정되어야 한다. 그런데, 비디오 컨텐츠의 속성상 인접한 프레임간의 프레임 코릴레이션(correlation_frame)은 매우 높기 때문에 인접하는 프레임들간에만 프레임 코릴레이션(correlation_frame)을 계산하지 않고 특정 구간 예컨대 최소 50개의 프레임 수에서 최초 프레임과 이후 49개의 프레임들 간의 프레임 코릴레이션(correlation_frame)을 연산하는 방법으로 정적인 구간을 찾아내는 것이 더욱 바람직하다.For example, if frames having the same original video sequence (sequence_video_original) have a first set value of 0.8, which is the lower limit of the frame correlation of frame sequence (correlation_frame), frame correlation of setting of static frames in the original video sequence (sequence_video_original) (correlation_frame) lower limit may be 0.97. That is, the third set value, which is the lower limit of the static frames, should be set higher than the lower limit of the same sequence setting. However, since the correlation_frame between adjacent frames on the attribute of the video content is very high, it is not necessary to calculate a correlation_frame between adjacent frames, It is more preferable to find a static section by calculating the frame correlation between the frames.

이러한 실시예에 따르면, 불필요하게 지속되는 정적인 구간을 제거하여 재배치 비디오 컨텐츠(content_video_shuffled)에 대한 사용자의 몰입도를 증가할 수 있는 효과가 있다. According to this embodiment, it is possible to increase the immersion degree of the user for the relocation video content (content_video_shuffled) by eliminating the unnecessary static section.

그런데, 비디오 편집의 결과물은 불필요하고 반복적인 부분이 제거되기 때문에 원본 비디오 보다 짧은 재생시간을 갖는 것이 일반적이다. 이때 재배치 비디오 컨텐츠(content_video_shuffled)의 재생시간을 예컨대 1분 30초와 같은 사용자가 설정한 설정시간에 맞추고 싶거나 재배치 비디오 컨텐츠(content_video_shuffled)에 삽입하고자 하는 배경음악의 연주시간에 부합하도록 불필요한 부분을 제거하는 것이 바람직하다.However, since the result of video editing is unnecessary and repetitive portions are removed, it is common to have a shorter playback time than the original video. At this time, unnecessary portions are removed to match the playing time of the rearranged video content (content_video_shuffled) to the set time set by the user such as 1 minute and 30 seconds or the background music to be inserted into the rearranged video content (content_video_shuffled) .

사용자의 설정시간에 부합하는 재생시간을 갖는 재배치 비디오 컨텐츠(content_video_shuffled)를 생성하기 위해, 비디오 컨텐츠 자동 편집 시스템(100)은 재배치 비디오 컨텐츠(content_video_shuffled)의 목표 재생시간을 설정하는 재생시간 설정 모듈(134)을 더 포함하고, 비디오 프레임 제거 모듈(132)은 목표 재생시간에 부합하도록 프레임 코릴레이션(correlation_frame)이 제 3 설정치 이상인 프레임들을 제거하도록 구성할 수 있다.In order to generate the rearranged video content (content_video_shuffled) having a playback time that matches the set time of the user, the video content automatic editing system 100 includes a playback time setting module 134 , And the video frame removal module 132 may be configured to remove frames whose frame correlation correlation value is equal to or greater than the third set value so as to match the target playback time.

배경음악의 연주시간에 부합하는 재배치 비디오 컨텐츠(content_video_shuffled)를 생성하기 위해, 비디오 컨텐츠 자동 편집 시스템(100)은 재배치 비디오 컨텐츠(content_video_shuffled)의 오디오 트랙에 포함될 배경음악을 설정하는 배경음악 설정 모듈(136)을 더 포함하고, 비디오 프레임 제거 모듈(132)은 배경음악의 연주시간에 부합하도록 프레임 코릴레이션(correlation_frame)이 제 3 설정치 이상인 프레임들을 제거하도록 구성할 수 있다.In order to generate the rearranged video content (content_video_shuffled) corresponding to the playing time of the background music, the video content automatic editing system 100 includes a background music setting module 136 for setting background music to be included in the audio track of the rearranged video content (content_video_shuffled) , And the video frame elimination module 132 may be configured to remove frames whose frame correlation correlation value is equal to or greater than the third set value so as to match the playing time of the background music.

카메라 이동 중 또는 카메라 회전 중 촬영된 장면으로만 구성된 원본 비디오 시퀀스(sequence_video_original) 전체를 자동으로 제거하기 위해, 비디오 시퀀스 설정 모듈(130)은 프레임 이미지 처리 모듈(120)의 연산 결과 카메라 이동 중 촬영된 프레임들 또는 카메라 회전 중 촬영된 프레임들을 카메라 조정 비디오 시퀀스(sequence_video_moving)로 더 구분하고, 비디오 컨텐츠 자동 편집 시스템(100)은 카메라 조정 비디오 시퀀스(sequence_video_moving)를 제거하는 비디오 시퀀스 제거 모듈(142)을 더 포함하는 것이 바람직하다.In order to automatically remove the entire original video sequence (sequence_video_original) composed only of the taken scenes while moving the camera or rotating the camera, the video sequence setting module 130 sets the video sequence Frames or frames photographed during camera rotation are further classified into a camera adjustment video sequence (sequence_video_moving), and the video content automatic editing system 100 further includes a video sequence elimination module 142 for eliminating a camera adjustment video sequence (sequence_video_moving) .

이때 프레임 이미지 처리 모듈(120)은 비디오 컨텐츠에서 동작 정보를 검출하는 알려진 기법 예컨대 차영상 분석(analysis of difference image), 블럭 정합 알고리즘(block matching algorithm), 광류기반 분석(optical flow analysis) 등을 적용하여 카메라 이동 중 촬영된 프레임들 또는 카메라 회전 중 촬영된 프레임들을 검출할 수 있다.At this time, the frame image processing module 120 applies known techniques for detecting motion information in video contents such as an analysis of difference image, a block matching algorithm, and an optical flow analysis So that frames photographed during camera movement or frames photographed during camera rotation can be detected.

이러한 실시예에 따르면 재배치 비디오 컨텐츠(content_video_shuffled)의 전체 재생시간을 단축하고, 불필요한 카메라 조정 구간을 제거하여 재배치 비디오 컨텐츠(content_video_shuffled)에 대한 사용자의 몰입도를 증가할 수 있는 효과가 있다.According to this embodiment, there is an effect that the total playback time of the rearranged video content (content_video_shuffled) is shortened and the unnecessary camera adjustment period is eliminated, thereby increasing the user's immersion level for the rearranged video content (content_video_shuffled).

카메라 이동 중 또는 카메라 회전 중 촬영된 장면으로만 구성된 원본 비디오 시퀀스(sequence_video_original) 전체를 자동으로 제거하기 위해, 비디오 시퀀스 설정 모듈(130)은 프레임 이미지 처리 모듈(120)의 연산 결과에 따라 카메라 이동 중 촬영된 프레임들 또는 카메라 회전 중 촬영된 프레임들을 카메라 조정 비디오 시퀀스(sequence_video_moving)로 더 구분하고, 비디오 컨텐츠 자동 편집 시스템(100)은 카메라 조정 비디오 시퀀스(sequence_video_moving)를 제거하는 비디오 시퀀스 제거 모듈(142)을 더 포함하는 것이 바람직하다.In order to automatically remove the entire original video sequence (sequence_video_original) composed only of the taken scenes during camera movement or camera rotation, the video sequence setting module 130 determines whether or not the camera is moving in accordance with the calculation result of the frame image processing module 120 The video content auto-editing system 100 further includes a video sequence elimination module 142 for eliminating the camera adjustment video sequence (sequence_video_moving), and the video sequence elimination module 142 separates the photographed frames or the frames photographed during camera rotation into a camera adjustment video sequence (sequence_video_moving) .

이때 프레임 이미지 처리 모듈(120)은 비디오 컨텐츠에서 동작 정보를 검출하는 알려진 기법 예컨대 차영상 분석(analysis of difference image), 블럭 정합 알고리즘(block matching algorithm), 광류기반 분석(optical flow analysis) 등을 적용하여 카메라 이동 중 촬영된 프레임들 또는 카메라 회전 중 촬영된 프레임들을 검출할 수 있다.At this time, the frame image processing module 120 applies known techniques for detecting motion information in video contents such as an analysis of difference image, a block matching algorithm, and an optical flow analysis So that frames photographed during camera movement or frames photographed during camera rotation can be detected.

이러한 실시예에 따르면 재배치 비디오 컨텐츠(content_video_shuffled)의 전체 재생시간을 단축하고, 불필요한 카메라 조정 구간을 제거하여 재배치 비디오 컨텐츠(content_video_shuffled)에 대한 사용자의 몰입도를 증가할 수 있는 효과가 있다.According to this embodiment, there is an effect that the total playback time of the rearranged video content (content_video_shuffled) is shortened and the unnecessary camera adjustment period is eliminated, thereby increasing the user's immersion level for the rearranged video content (content_video_shuffled).

카메라 이동 중 또는 카메라 회전 중 촬영된 프레임들을 자동으로 제거하기 위해, 비디오 컨텐츠 자동 편집 시스템(100)은 제 k 원본 비디오 시퀀스(sequence_video_original_kth) 또는 서브셋 비디오 시퀀스(subset_sequence_video) 중 프레임 이미지 처리 모듈(120)의 연산 결과에 따라 카메라 이동 중 촬영된 비디오 프레임 또는 카메라 회전 중 촬영된 프레임인 카메라 조정 프레임(frame_moving)을 제거하는 비디오 프레임 제거 모듈(132)을 더 포함하도록 구성할 수 있다.In order to automatically remove the frames photographed during camera movement or camera rotation, the video content auto-editing system 100 may be configured to automatically remove frames captured during the camera movement or camera rotation, And a video frame removal module 132 for removing a camera frame (frame_moving), which is a photographed video frame during camera movement or a frame photographed during camera rotation, according to the calculation result.

이러한 실시예에 따르면 재배치 비디오 컨텐츠(content_video_shuffled)의 전체 재생시간을 단축하고, 불필요한 카메라 조정 구간을 제거하여 재배치 비디오 컨텐츠(content_video_shuffled)에 대한 사용자의 몰입도를 증가할 수 있는 효과가 있다.According to this embodiment, there is an effect that the total playback time of the rearranged video content (content_video_shuffled) is shortened and the unnecessary camera adjustment period is eliminated, thereby increasing the user's immersion level for the rearranged video content (content_video_shuffled).

한편, 재배치 비디오 컨텐츠(content_video_shuffled)의 일부 구간에서 빨리 재생, 천천히 재생, 또는 역 재생을 함으로써 컨텐츠의 역동성 및 의외성을 높일 수 있다. 이를 위해 비디오 컨텐츠 자동 편집 시스템(100)은, 원본 비디오 시퀀스(sequence_video_original)들 또는 서브셋 비디오 시퀀스(subset_sequence_video) 중 적어도 어느 하나에 압축 재생하는 방법, 연장 재생하는 방법, 또는 역 재생하는 방법 중 적어도 하나의 방법을 랜덤하게 적용하는 재생모드 변경 모듈(148)을 더 포함하는 것이 바람직하다.On the other hand, it is possible to improve the dynamics and unexpectedness of contents by performing fast playback, slow playback, or reverse playback in a part of the rearranged video content (content_video_shuffled). To this end, the video content auto-editing system 100 may include at least one of a compression playback method, an extended playback method, and a reverse playback method in at least one of original video sequences (sequence_video_original) or subset video sequence (subset_sequence_video) It is preferable to further include a playback mode change module 148 for randomly applying the method.

한편, 동일한 장면을 복수의 카메라를 통해 촬영하여 교차 편집하는 경우 영화 또는 TV 드라마와 같은 고품질 영상으로 인식된다. 비디오 촬영 기능이 포함된 스마트폰의 보급으로 인해 예컨대 공연장과 같은 곳에서 복수의 사용자들이 서로 다른 각도 및 화각으로 동일한 피사체에 대한 비디오 촬영을 하는 경우가 있다. 이 때 이러한 각각의 비디오 컨텐츠들을 동기화하여 결합하면 다중 카메라 편집을 한 것과 동일한 효과를 제공할 수 있다. 본 발명의 실시예에 따르면 복수의 원본 비디오 컨텐츠(content_video_original)를 자동으로 교차 편집함으로써 재배치 비디오 컨텐츠(content_video_shuffled)의 영상 품질을 향상시킬 수 있다.On the other hand, when the same scene is shot through a plurality of cameras and cross-edited, it is recognized as a high-quality image such as a movie or a TV drama. There is a case where a plurality of users take a video of the same object at different angles and angle of view at a place such as a venue due to the spread of a smart phone including a video shooting function. At this time, synchronizing and combining these respective video contents can provide the same effect as editing of multiple cameras. According to the embodiment of the present invention, the video quality of the rearranged video content (content_video_shuffled) can be improved by automatically cross-editing a plurality of original video contents (content_video_original).

이를 위해, 비디오 컨텐츠 자동 편집 시스템(100)은 원본 비디오 컨텐츠(content_video_original)가 촬영된 시간대와 실질적으로 동일한 시간대에 다른 카메라 장치에 의해 촬영된 추가 비디오 컨텐츠(content_video_additional)를 로딩하여 추가 비디오 컨텐츠(content_video_additional)의 적어도 일부의 추가 비디오 시퀀스(sequence_video_additional)를 추출하는 추가 비디오 시퀀스 추출 모듈(122) 및 추가 비디오 시퀀스(sequence_video_additional)를 추가 비디오 시퀀스(sequence_video_additional)가 촬영된 시간대에 선행 또는 후행하는 원본 비디오 시퀀스(sequence_video_original) 중 적어도 어느 하나와 교체하거나 추가 비디오 시퀀스(sequence_video_additional)가 촬영된 시간대에 인접하게 선행 또는 인접하게 후행하는 원본 비디오 시퀀스(sequence_video_original)의 일부 프레임들과 교체하는 추가 비디오 시퀀스 삽입 모듈(146)을 더 포함하여 구성된다.To this end, the video content auto-editing system 100 loads additional video content (content_video_additional) taken by another camera device at substantially the same time zone as the original video content (content_video_original) An additional video sequence extraction module 122 for extracting at least a portion of the additional video sequence sequence_video_additional and an original video sequence sequence_video_original preceding or following the additional video sequence sequence_video_additional at the time the additional video sequence sequence_video_additional was taken, (Sequence_video_additional) is replaced with some frames of the original video sequence (sequence_video_original) preceding or following the adjacent time zone at which the additional video sequence Further it includes a switch insertion module 146.

이러한 실시예에 있어서, 추가 비디오 컨텐츠(content_video_additional)의 개수는 특별히 제한되지 않으며 단일의 추가 비디오 컨텐츠(content_video_additional) 또는 복수의 추가 비디오 컨텐츠(content_video_additional)들일 수 있다. 또한 단일의 추가 비디오 컨텐츠(content_video_additional)에서 추출되는 추가 비디오 시퀀스(sequence_video_additional)의 개수는 특별히 제한되지 않으며 단일의 추가 비디오 시퀀스(sequence_video_additional)가 추출되거나 복수의 추가 비디오 시퀀스(sequence_video_additional)가 추출될 수 있다. 추출되는 비디오 시퀀스의 시작지점과 종료지점은 랜덤하게 선택되거나 미리 설정된 규칙에 의해 자동적으로 추출될 수 있다. 예컨대 프레임 이미지 처리 모듈(120)의 원본 이미지 컨텐츠에 대한 이미지 프로세싱을 통해 주요객체로 분류할 수 있는 인물, 장소, 건물 등이 포함된 프레임들을 검출하고, 주요객체가 포함된 프레임들의 50% 되는 지점부터 100% 되는 지점까지의 구간을 동기화된 추가 비디오 컨텐츠(content_video_additional)의 추가 비디오 컨텐츠(content_video_additional)로 추출할 수 있다.In this embodiment, the number of additional video content (content_video_additional) is not particularly limited and may be a single additional video content (content_video_additional) or a plurality of additional video content (content_video_additional). Also, the number of additional video sequences (sequence_video_additional) extracted from a single additional video content (content_video_additional) is not particularly limited, and a single additional video sequence (sequence_video_additional) may be extracted or a plurality of additional video sequences (sequence_video_additional) may be extracted. The starting point and the ending point of the video sequence to be extracted may be selected randomly or automatically extracted by a predetermined rule. For example, a frame, which includes a person, a place, and a building, which can be classified as a main object through image processing of the original image content of the frame image processing module 120, detects 50% To 100% is extracted as additional video content (content_video_additional) of the synchronized additional video content (content_video_additional).

이때 추가 비디오 시퀀스(sequence_video_additional)가 삽입된 구간은 원본 비디오 컨텐츠(content_video_original)와 연속성을 갖도록 보여지는 것이 바람직하기 때문에 비디오 시퀀스 재배치 모듈(140)은 추가 비디오 시퀀스(sequence_video_additional)가 삽입된 구간에서 일정 범위의 영역에 대해서는 재배치를 하지 않도록 하는 것이 보다 바람직하다.In this case, since it is preferable that the section in which the additional video sequence (sequence_video_additional) is inserted is viewed to have continuity with the original video content (content_video_original), the video sequence rearrangement module 140 determines that the additional video sequence (sequence_video_additional) It is more preferable not to rearrange the area.

이러한 실시예에 있어서, 원본 비디오 컨텐츠(content_video_original)와 추가 비디오 컨텐츠(content_video_additional)간의 동기화가 필요하다. 이를 위해 추가 비디오 시퀀스 삽입 모듈(144)은 원본 비디오 시퀀스(sequence_video_original)에 포함된 제 1 오디오 신호 및 추가 비디오 시퀀스(sequence_video_additional)에 포함된 제 2 오디오 신호를 비교하여 추가 비디오 시퀀스(sequence_video_additional)를 교체하도록 구성하거나, 추가 비디오 시퀀스 삽입 모듈(146)은 원본 비디오 시퀀스(sequence_video_original)에 포함된 제 1 촬영시간 정보 및 추가 비디오 시퀀스(sequence_video_additional)에 포함된 제 2 촬영시간 정보를 비교하여 추가 비디오 시퀀스(sequence_video_additional)를 교체하도록 하는 것이 바람직하다.In this embodiment, synchronization between the original video content (content_video_original) and the additional video content (content_video_additional) is required. To this end, the additional video sequence insertion module 144 compares the first audio signal contained in the original video sequence (sequence_video_original) with the second audio signal included in the additional video sequence (sequence_video_additional) to replace the additional video sequence (sequence_video_additional) Or the additional video sequence insertion module 146 compares the first shooting time information included in the original video sequence (sequence_video_original) with the second shooting time information included in the additional video sequence (sequence_video_additional) to generate an additional video sequence (sequence_video_additional) To be replaced.

실시예에 따라서 추가 비디오 시퀀스 삽입 모듈(146)의 추가 비디오 시퀀스(sequence_video_additional) 삽입은 비디오 시퀀스 설정 모듈(130)의 원본 비디오 시퀀스(sequence_video_original) 설정 전 또는 설정 후이거나 비디오 시퀀스 재배치 모듈(140)의 서브셋 비디오 시퀀스(subset_sequence_video)의 재배치 전 또는 재배치 후에 이루어질 수 있다.The insertion of the additional video sequence insert module 146 by the additional video sequence insertion module 146 may be performed before or after the setting of the original video sequence sequence sequence video sequence setting module 130 or after the setting of the subsequence of the video sequence re- Can be made before or after rearrangement of the video sequence (subset_sequence_video).

원본 비디오 컨텐츠(content_video_original)와 추가 비디오 컨텐츠(content_video_additional)가 프레임 종횡비가 다른 경우 비디오 컨텐츠 자동 편집 시스템(100)은 이를 균일하게 자동으로 조정하는 것이 바람직하다.If the original video content (content_video_original) and the additional video content (content_video_additional) have different frame aspect ratios, the automatic video content editing system 100 may automatically and uniformly adjust the same.

이하에서는, 도 5를 참고하여 추가 비디오 시퀀스(sequence_video_additional)의 삽입을 상세히 설명한다. 도 5는 본 발명의 다른 실시예에 따른 추가 비디오 컨텐츠를 이용한 재배치 비디오 컨텐츠의 생성례를 도시하는 비디오 컨텐츠 예시도이다. 도 5에 도시된 바와 같이, 먼저 사용자는 예컨대 본 발명에 따른 비디오 컨텐츠 자동 편집 시스템(100)이 구현된 애플리케이션을 구동한다. 다음으로, 유사한 시간에 유사한 장소에서 촬영된 2 개의 동영상을 각각 원본 비디오 컨텐츠(content_video_original) 및 추가 비디오 컨텐츠(content_video_additional)로 선택한다. 이때 실시예에 따라서는 비디오 컨텐츠 자동 편집 시스템(100)이 사용자 단말기의 저장장치 또는 웹브라우징을 통해 원본 비디오 컨텐츠(content_video_original)의 메타 데이터에 포함된 촬영시간 정보, GPS 정보와 같은 촬영지역 정보를 참조하여 유사 시간 및 유사 장소에서 촬영된 비디오 컨텐츠를 자동으로 검색하여 이를 추가 비디오 컨텐츠(content_video_additional)로 선택하도록 구현할 수 있다.Hereinafter, the insertion of the additional video sequence (sequence_video_additional) will be described in detail with reference to FIG. FIG. 5 is a diagram illustrating an example of video content showing creation of rearranged video content using additional video content according to another embodiment of the present invention. As shown in FIG. 5, the user first drives an application in which the video content automatic editing system 100 according to the present invention is implemented, for example. Next, two videos photographed at a similar place at a similar time are selected as the original video content (content_video_original) and the additional video content (content_video_additional), respectively. At this time, according to the embodiment, the video content automatic editing system 100 refers to the photographing area information such as photographing time information and GPS information included in the metadata of the original video content (content_video_original) through the storage device or web browsing of the user terminal So that the video content photographed at similar time and similar place is automatically searched and selected as additional video content (content_video_additional).

이때 원본 비디오 컨텐츠(content_video_original)는 두 명의 인물이 프레임에 들어오도록 멀리서 촬영되었고, 추가 비디오 컨텐츠(content_video_additional)는 한 명의 인물만 프레임에 들어오도록 가까이서 촬영되었다. 비디오 시퀀스 설정 모듈(130)은 프레임 1-1(frame 1-1) 내지 프레임 1-5(frame 1-5)를 제 1 원본 비디오 시퀀스(sequence_video_original_1st)로 설정한다. 추가 비디오 시퀀스 추출 모듈(122)은 원본 비디오 컨텐츠(content_video_original)의 프레임 1-3(frame 1-3) 및 프레임 1-4(frame 1-4)이 촬영된 시간에 해당하는 추가 비디오 컨텐츠(content_video_additional)의 프레임 2-3(frame 2-3) 및 프레임 2-4(frame 2-4)를 추가 비디오 시퀀스(sequence_video_additional)로서 추출한다.At this time, the original video content (content_video_original) was photographed at a distance so that two persons entered the frame, and the additional video content (content_video_additional) was taken close to one person only in the frame. The video sequence setting module 130 sets the frame 1-1 (frame 1-1) to the frame 1-5 (frame 1-5) as the first original video sequence (sequence_video_original_1st). The additional video sequence extraction module 122 extracts additional video content (content_video_additional) corresponding to the time at which the frames 1-3 (frame 1-3) and frames 1-4 (frame 1-4) of the original video content (content_video_original) The frame 2-3 (frame 2-3) and the frame 2-4 (frame 2-4) are extracted as an additional video sequence (sequence_video_additional).

추가 비디오 시퀀스 삽입 모듈(146)은 이렇게 추출된 추가 비디오 시퀀스(sequence_video_additional)의 프레임들로 동기화된 지점의 원본 비디오 시퀀스(sequence_video_original)의 프레임들을 교체하고, 재배치 비디오 컨텐츠(content_video_shuffled)는 프레임 1-1, 프레임 1-2, 프레임 2-3, 프레임 2-4, 프레임 1-5의 순서로 구성된다. 이를 통해 2 명이 촬영된 단순한 구성의 원본 비디오 컨텐츠(content_video_original)를 추가 비디오 컨텐츠(content_video_additional)를 통해 2명이 촬영된 영상에서 1명이 클로즈 업된 영상으로 변환되고 다시 2명이 촬영된 영상으로 구성되는 재배치 비디오 컨텐츠(content_video_shuffled)로 자동 편집할 수 있다.The additional video sequence insertion module 146 replaces the frames of the original video sequence (sequence_video_original) of the synchronized point with the frames of the thus extracted additional video sequence (sequence_video_additional), and the rearranged video content (content_video_shuffled) Frame 1-2, frame 2-3, frame 2-4, and frame 1-5. Thus, the original video content (content_video_original) of a simple configuration in which two persons are photographed is converted into a video in which one person is photographed close-up in the video image obtained by two persons through the additional video content (content_video_additional) (content_video_shuffled).

에펠탑, 자유의 여신상과 갈은 유명한 장소로 인식될 수 있는 지역에서 촬영된 비디오 컨텐츠의 경우 전문가에 의해 촬영된 해당 장소의 비디오 또는 사진을 추가함으로써 비디오 컨텐츠의 영상품질을 향상시키는 것이 바람직하다. 예컨대 에펠탑 앞에서 일반인이 촬영한 비디오 컨텐츠는 촬영장소의 한계로 인해 제한적인 모습만 프레임에 담을 수 있다. 이때 전문가에 의해 항공 촬영된 에펠탑의 비디오 컨텐츠 또는 사진이 해당 비디오 컨텐츠에 추가되면 영상품질이 향상된다.In the case of video content photographed in areas where the Eiffel Tower, the Statue of Liberty and the Galle can be perceived as a famous place, it is desirable to improve the video quality of the video content by adding video or photos of that location, which is taken by a professional. For example, video content shot by the general public in front of the Eiffel Tower can only be framed in a limited manner due to the limitations of the shooting location. At this time, the video quality of the Eiffel Tower aerial photographed by the specialist is improved when the video content or the photograph is added to the corresponding video content.

이를 위해 비디오 컨텐츠 자동 편집 시스템(100)은 원본 비디오 컨텐츠(content_video_original)가 촬영된 장소에 해당하는 자료화면 비디오 시퀀스(sequence_video_external)를 입력받는 자료화면 입력 모듈(124) 및 재배치 비디오 컨텐츠(content_video_shuffled)에 자료화면 비디오 시퀀스(sequence_video_external)를 삽입하는 자료화면 삽입 모듈(146)을 더 포함할 수 있다. 자료화면 입력 모듈(124)은 사용자가 선택한 사진 또는 비디오 컨텐츠를 자료화면 비디오 시퀀스(sequence_video_external)로서 입력받을 수도 있고, 원본 비디오 컨텐츠(content_video_original)의 메타정보를 통해 확인한 촬영장소 정보를 통해 해당 장소에 관한 비디오 컨텐츠를 통신망을 통해 검색하여 자동으로 자료화면 비디오 시퀀스(sequence_video_external)로서 입력할 수도 있다.To this end, the video content auto-editing system 100 includes a data screen input module 124 for receiving a data screen video sequence (sequence_video_external) corresponding to a place where the original video content (content_video_original) And a data screen insertion module 146 for inserting a screen video sequence (sequence_video_external). The data screen input module 124 may receive the photo or video content selected by the user as a data screen video sequence (sequence_video_external) or may receive the selected video or audio content through the location information obtained through the meta information of the original video content (content_video_original) The video contents may be retrieved through a communication network and automatically input as a data screen video sequence (sequence_video_external).

이하에서는, 도 6 내지 도 10을 참조하여 본 발명에 따른 비디오 컨텐츠 자동 편집 방법을 설명한다.Hereinafter, a method of automatically editing video contents according to the present invention will be described with reference to FIGS. 6 to 10. FIG.

도 6은 본 발명의 실시예에 따른 비디오 컨텐츠 자동 편집 방법을 도시하는 흐름도이다. 도 6에 도시된 바와 같이, 비디오 컨텐츠 자동 편집 시스템(100)이 사용자로부터 비디오 편집 활성화 입력(input_activation_edit)을 수신받아 원본 비디오 컨텐츠(content_video_original)를 로딩하는 제 1 단계(s10)를 수행한다. 이러한 동작은 단일의 정보 단말기에서 구현된 실시예에서는 사용자가 정보 단말기에서 자동 편집 애플리케이션을 구동하고, 자동 편집 애플리케이션을 통해 정보 단말기의 저장수단에서 자동 편집의 대상이 되는 원본 비디오 컨텐츠(content_video_original)를 선택하고, “자동 편집” 메뉴를 선택하는 방법으로 이루어질 수 있고, 서버-클라이언트 시스템에서 구현된 실시예에서는 사용자가 정보 단말기의 웹브라우저를 통해 자동 편집 서비스 웹사이트에 접속하여 원본 비디오 컨텐츠(content_video_original)를 선택한 후 “자동 편집” 메뉴를 선택하는 방법으로 이루어질 수 있다.6 is a flowchart illustrating a method of automatically editing video contents according to an embodiment of the present invention. As shown in FIG. 6, the video content automatic editing system 100 receives a video editing activation input (input_activation_edit) from a user and performs a first step (s10) of loading original video content (content_video_original). In this embodiment, the user operates the automatic editing application in the information terminal and selects the original video content (content_video_original) to be automatically edited in the storage means of the information terminal through the automatic editing application In the embodiment implemented in the server-client system, the user accesses the automatic editing service web site through the web browser of the information terminal, and transmits the original video content (content_video_original) And then selecting the " Auto Edit " menu.

다음으로, 비디오 컨텐츠 자동 편집 시스템(100)이 원본 비디오 컨텐츠(content_video_original)의 각 프레임을 분석하여 연속 프레임들 간의 코릴레이션인 프레임 코릴레이션(correlation_frame)을 연산하는 제 2 단계(s20)를 수행한다. 프레임 코릴레이션(correlation_frame)은 특별히 제한되지 않으며, 전술한 바와 같이 화소 변화율, 블럭 간 변화율, 히스토그램 변화율, 화소 순환 알고리즘, 블럭 매칭 알고리즘 등의 알려진 프레임 코릴레이션(correlation_frame) 기법을 사용할 수 있다.Next, the automatic video content editing system 100 performs a second step (s20) of analyzing each frame of the original video content (content_video_original) to calculate a frame correlation (correlation_frame) that is a correlation between consecutive frames. The frame correlation correlation is not particularly limited, and a known frame correlation correlation method such as a pixel change rate, an inter-block change rate, a histogram change rate, a pixel recurrence algorithm, and a block matching algorithm can be used.

다음으로, 비디오 컨텐츠 자동 편집 시스템(100)이 프레임 코릴레이션(correlation_frame)이 제 1 설정치 이상인 연속적인 프레임들의 집합을 단일의 원본 비디오 시퀀스(sequence_video_original)로 정의하여 원본 비디오 컨텐츠(content_video_original)를 제 1 원본 비디오 시퀀스(sequence_video_original_1st) 내지 제 n 원본 비디오 시퀀스(sequence_video_original_nth)(n은 2 이상의 정수)로 구분하는 제 3 단계(s30)를 수행한다. 제 1 설정치는 모든 비디오 컨텐츠에 동일하게 적용될 수도 있지만, 비디오 컨텐츠에 따라 적응적으로 적용하는 것이 바람직하다. 실시예에 따라서는 동일한 비디오 컨텐츠에서 구간별로 제 1 설정치를 적응적으로 적용할 수도 있다.Next, the video content auto-editing system 100 defines a set of consecutive frames whose frame correlation correlation value is equal to or greater than a first set value as a single original video sequence (sequence_video_original) so that the original video content (content_video_original) (S30) of dividing the video sequence (sequence_video_original_1st) to the n-th original video sequence (sequence_video_original_nth) (n is an integer of 2 or more). The first set value may be applied to all video contents equally, but it is preferably applied adaptively according to the video contents. According to an embodiment, the first set value may be adaptively applied for each section in the same video content.

다음으로, 비디오 컨텐츠 자동 편집 시스템(100)이 적어도 제 k 원본 비디오 시퀀스(sequence_video_original_kth)(k는 1 이상 n-1 이하의 정수)의 적어도 일부로 구성되는 서브셋 비디오 시퀀스(subset_sequence_video)가 제 k+1 원본 비디오 시퀀스(sequence_video_original_k+1th)(k는 1 이상 n-1 이하의 정수)에 후행하거나 제 k-1 원본 비디오 시퀀스(sequence_video_original_k-1th)에 선행하도록 랜덤하게 재배치하여 재배치 비디오 컨텐츠(content_video_shuffled)를 생성하는 제 4 단계(s40)를 수행한다. Subsequently, the automatic editing system 100 of video content automatically generates a subset video sequence (subset_sequence_video) composed of at least a part of a kth original video sequence (sequence_video_original_kth) (k is an integer equal to or greater than 1 and equal to or smaller than n-1) Video content (video_video_shuffled) by rearranging the video sequence (sequence_video_original_k + 1th) (k is an integer equal to or greater than 1 and equal to or smaller than n-1) or randomly rearranging the k-1 original video sequence (sequence_video_original_k-1th) A fourth step (s40) is performed.

서브셋 비디오 시퀀스(subset_sequence_video)의 프레임 개수는 원본 비디오 시퀀스(sequence_video_original)의 프레임 개수와 같거나 적게 설정되며, 서브셋 비디오 시퀀스(subset_sequence_video)의 프레임 개수는 비디오 컨텐츠 자동 편집 시스템(100)에 의해 랜덤하게 적용될 수 있다.The frame number of the subset video sequence (subset_sequence_video) is set to be equal to or less than the number of frames of the original video sequence (sequence_video_original), and the frame number of the subset video sequence (subset_sequence_video) can be randomly applied by the video content automatic editing system 100 have.

단일의 원본 비디오 시퀀스(sequence_video_original)에서 단일의 서브셋 비디오 시퀀스(subset_sequence_video)가 선택될 수도 있고, 복수의 서브셋 비디오 시퀀스(subset_sequence_video)들이 선택될 수 있으며, 선택되는 서브셋 비디오 시퀀스(subset_sequence_video)의 개수는 비디오 컨텐츠 자동 편집 시스템(100)에 의해 랜덤하게 선택될 수 있다.A single subset video sequence (subset_sequence_video) may be selected in a single original video sequence (sequence_video_original), a plurality of subset video sequences (subset_sequence_video) may be selected and the number of selected subset video sequences (subset_sequence_video) Can be randomly selected by the auto-editing system 100. [

비디오 컨텐츠 자동 편집 시스템(100)은 단일의 원본 비디오 시퀀스(sequence_video_original)에 대해서만 재배치를 적용할 수도 있고, 복수의 원본 비디오 시퀀스(sequence_video_original)들에 대해서 재배치를 적용할 수 있다. 재배치가 적용되는 원본 비디오 시퀀스(sequence_video_original)의 개수는 비디오 컨텐츠 자동 편집 시스템(100)에 의해 랜덤하게 선택될 수 있다.The video content auto-editing system 100 may apply relocation only to a single original video sequence (sequence_video_original) and apply relocation to a plurality of original video sequences (sequence_video_original). The number of original video sequences (sequence_video_original) to which the rearrangement is applied can be randomly selected by the video content auto-editing system 100.

서브셋 비디오 시퀀스(subset_sequence_video)가 재배치되는 위치는 비디오 컨텐츠 자동 편집 시스템(100)에 의해 랜덤하게 선택된다. 하지만 생성되는 재배치 비디오 컨텐츠(content_video_shuffled)의 의외성 및 역동성을 제고하기 위해 추가적인 규칙이 적용될 수 있다. 예컨대 단일의 원본 비디오 시퀀스(sequence_video_original)에서 선택된 복수의 서브셋 비디오 시퀀스(subset_sequence_video)들은 최소 300 프레임 이상 서로 이격되는 규칙 등이 부가될 수 있다.The position at which the subset video sequence (subset_sequence_video) is rearranged is randomly selected by the video content automatic editing system 100. However, additional rules may be applied to enhance the unexpectedness and dynamism of the generated relocation video content (content_video_shuffled). For example, a plurality of subset video sequences (subset_sequence_video) selected from a single original video sequence (sequence_video_original) may be added such that a minimum of 300 frames are spaced apart from each other.

한편, 재배치되는 서브셋 비디오 시퀀스(subset_sequence_video)가 기본 원본 비디오 시퀀스(sequence_video_original)들과 자연스럽게 연결되도록 페이드-인, 페이드-아웃, 화면 넘기기 애니메이션 등의 화면 전환 효과가 자동으로 적용되는 것이 바람직하다. 이를 위해 제 4 단계(s40)는 비디오 컨텐츠 자동 편집 시스템(100)이 재배치된 서브셋 비디오 시퀀스(subset_sequence_video)의 시작지점 또는 종료지점 중 적어도 하나에 화면 전환 효과를 적용하도록 구성할 수 있다.On the other hand, it is preferable that a screen switching effect such as a fade-in, a fade-out, and a screen flick animation is automatically applied so that the rearranged subset video sequence (subset_sequence_video) is naturally connected to the basic original video sequences (sequence_video_original). For this, the fourth step (s40) may be configured to apply the screen switching effect to at least one of the start point or the end point of the subset video sequence (subset_sequence_video) rearranged by the automatic video editing system 100.

마지막으로, 비디오 컨텐츠 자동 편집 시스템(100)이 재배치 비디오 컨텐츠(content_video_shuffled) 또는 재배치 비디오 컨텐츠(content_video_shuffled)의 비디오 시퀀스들 및 서브셋 비디오 시퀀스(subset_sequence_video)의 배치 순서에 대한 정보인 시퀀스 배치 정보(info_arrange_sequences)를 저장하는 제 5 단계(s50)를 수행한다. 시퀀스 배치 정보(info_arrange_sequences)는 예컨대 원본 비디오 시퀀스(sequence_video_original)들 및 서브셋 비디오 시퀀스(subset_sequence_video)의 식별 정보, 시작시간 정보, 종료시간 정보, 비디오 시퀀스들 및 서브셋 비디오 시퀀스(subset_sequence_video)의 배치 순서를 포함하여 구성될 수 있으며, 재배치 비디오 컨텐츠(content_video_shuffled)를 저장하는 경우와 비교하여 시퀀스 배치 정보(info_arrange_sequences)만 저장하는 경우 저장공간의 점유를 최소화할 수 있는 효과가 있다.Lastly, the automatic content editing system 100 sets sequence arrangement information (info_arrange_sequences), which is information on the arrangement order of the video sequences of the rearranged video content (content_video_shuffled) or the rearranged video content (content_video_shuffled) and the subset video sequence (subset_sequence_video) (Step S50). The sequence arrangement information info_arrange_sequences includes, for example, identification information of the original video sequence (sequence_video_original) and the subset video sequence (subset_sequence_video), the order of arrangement of the start time information, the end time information, the video sequences and the subset video sequence (subset_sequence_video) , And occupancy of the storage space can be minimized when storing only the sequence arrangement information (info_arrange_sequences) as compared with the case of storing the rearranged video content (content_video_shuffled).

복수의 원본 비디오 컨텐츠(content_video_original)들을 사용하여 비디오 시퀀스들을 교차하여 재배치하면 단일의 원본 비디오 컨텐츠(content_video_original)를 사용한 경우 보다 재배치 비디오 컨텐츠(content_video_shuffled)의 역동성 및 의외성이 더욱 증가한다. 이를 위해 제 1 단계(s10)는, 비디오 컨텐츠 자동 편집 시스템(100)이 복수의 원본 비디오 컨텐츠(content_video_original)들을 로딩한다. 제 2 단계(s20)는, 비디오 컨텐츠 자동 편집 시스템(100)이 원본 비디오 컨텐츠(content_video_original) 별로 프레임 코릴레이션(correlation_frame)을 연산한다. 제 3 단계(s30)는, 비디오 컨텐츠 자동 편집 시스템(100)이 제 1 설정치 이상인 연속적인 프레임들의 집합을 하나의 원본 비디오 시퀀스로 정의하여 복수의 원본 비디오 컨텐츠(content_video_original)들을 제 1 원본 비디오 시퀀스(sequence_video_original_1st) 내지 제 n 원본 비디오 시퀀스(sequence_video_original_nth)로 구분한다. Crossing and reordering video sequences using a plurality of original video contents (content_video_original) further increases the dynamics and unexpectedness of the relocated video content (content_video_shuffled) than when using a single original video content (content_video_original). To this end, the first step s10 loads the plurality of original video contents (content_video_original) by the automatic video content editing system 100. [ In a second step s20, the video content automatic editing system 100 calculates a frame correlation_frame for each original video content (content_video_original). In a third step s30, the video content auto-editing system 100 defines a set of consecutive frames over a first set value as one original video sequence, and stores a plurality of original video contents (content_video_original) sequence_video_original_1st) to the n-th original video sequence (sequence_video_original_nth).

제 4 단계(s40)는, 비디오 컨텐츠 자동 편집 시스템(100)이 단일의 재배치 비디오 컨텐츠(content_video_shuffled)를 생성한다. 제 5 단계(s50)는, 비디오 컨텐츠 자동 편집 시스템(100)이 생성한 재배치 비디오 컨텐츠(content_video_shuffled)를 저장한다.In a fourth step s40, the video content auto-editing system 100 generates a single relocatable video content (content_video_shuffled). The fifth step (s50) stores the rearranged video content (content_video_shuffled) generated by the automatic editing system 100 for video contents.

한편 랜덤하게 자동 편집된 재배치 비디오 컨텐츠(content_video_shuffled) 관람 후, 사용자가 또 다른 재배치 비디오 컨텐츠(content_video_shuffled)를 요청하는 경우, 첫 번째로는 원본 비디오 시퀀스(sequence_video_original)를 다시 랜덤하게 재배치하여 2차 재배치 비디오 컨텐츠(content_video_shuffled_2nd)를 생성할 수 있고, 두 번째로는 프레임 코릴레이션(correlation_frame) 연산을 재실행하여 2차 재배치 비디오 컨텐츠(content_video_shuffled_2nd)를 생성한다.On the other hand, if the user requests another relocatable video content (content_video_shuffled) after viewing the randomly edited relocatable video content (content_video_shuffled), firstly, the original video sequence (sequence_video_original) is relocated again, Content_video_shuffled_2nd, and secondly re-executes the correlation_frame operation to generate secondary relocation video content content_video_shuffled_2nd.

원본 비디오 컨텐츠(content_video_original)를 다시 랜덤하게 자동 편집하기 위해, 비디오 컨텐츠 자동 편집 시스템(100)이, 사용자로부터 추가 재배치 활성화 입력(input_activation_shuffle_renewal)을 받는 제 6 단계(s60)를 수행한다. 이후, 제 4 단계와 제 5 단계를 차례로 재수행함으로써, 서브셋 비디오 시퀀스(subset_sequence_video)를 다시 랜덤하게 재배치하여 2차 재배치 비디오 컨텐츠(content_video_shuffled_2nd)를 생성한다.To automatically re-randomly edit the original video content (content_video_original), the video content automatic editing system 100 performs a sixth step (s60) of receiving an additional relocation activation input (input_activation_shuffle_renewal) from the user. Thereafter, the fourth and fifth steps are performed again in order to randomly rearrange the subset video sequence (subset_sequence_video) to generate secondary rearranged video content (content_video_shuffled_2nd).

또한, 재배치 비디오 컨텐츠(content_video_shuffled)를 다시 랜덤하게 자동 편집하기 위해, 제 5 단계(s50) 이후에, 비디오 컨텐츠 자동 편집 시스템(100)이, 사용자로부터 비디오 추가 편집 활성화 입력(input_activation_edit_iteration)을 수신받아(s70) 재배치 비디오 컨텐츠(content_video_shuffled)를 새로운 원본 비디오 컨텐츠(content_video_original)로서(s80) 각 프레임을 분석하여 프레임 코릴레이션(correlation_frame)을 연산하는 제 7 단계 및 비디오 컨텐츠 자동 편집 시스템(100)이 재배치 비디오 컨텐츠(content_video_shuffled)에 대해 제 3 단계(s30) 내지 제 5 단계(s50)를 수행하는 제 8 단계를 수행한다.Further, in order to automatically and automatically edit the rearranged video content content_video_shuffled again, after the fifth step s50, the video content automatic editing system 100 receives a video additional editing activation input (input_activation_edit_iteration) from the user s70) a seventh step of calculating frame correlation by analyzing each frame using the rearranged video content (content_video_shuffled) as new original video content (s_video_original) (s80) (s30) to a fifth step (s50) with respect to the content_video_shuffled (content_video_shuffled).

한편, 사용자의 선택에 따라 제 1 설정치를 증감함으로써 랜덤으로 자동 편집되는 원본 비디오 시퀀스(sequence_video_original)의 개수를 조정하는 것이 바람직하다. 사용자가 원본 비디오 컨텐츠(content_video_original)에서 적은 변화만 원하는 경우 제 1 설정치를 낮추고, 사용자가 원본 비디오 컨텐츠(content_video_original)에서 많은 변화를 원하는 경우 제 1 설정치를 높이도록 구성할 수 있다.On the other hand, it is preferable to adjust the number of original video sequences (sequence_video_original) randomly and automatically edited by increasing or decreasing the first set value according to the user's selection. The first setting value may be lowered when the user wants only a small change in the original video content (content_video_original), and the first setting value may be increased when the user desires a lot of change in the original video content (content_video_original).

이를 위해, 제 3 단계(s30)는 비디오 컨텐츠 자동 편집 시스템(100)이 제 1 단계(s10)의 비디오 편집 활성화 입력(input_activation_edit)에 따라 제 1 설정치를 조정하도로 구성한다.To this end, the third step s30 is configured so that the video content automatic editing system 100 adjusts the first set value according to the video editing activation input (input_activation_edit) of the first step s10.

사용자의 터치 스크린의 터치 시간의 증감에 따라 제 1 설정치를 증감하는 실시예의 경우, 제 1 단계(s10)는 비디오 컨텐츠 자동 편집 시스템(100)이 디스플레이에 대한 사용자의 터치를 비디오 편집 활성화 입력(input_activation_edit)으로 수신받고, 제 3 단계는(s30) 사용자의 터치 시간의 증가에 따라 비디오 컨텐츠 자동 편집 시스템(100)이 제 1 설정치를 높이도록 구성한다.In the case of the embodiment in which the first set value is increased or decreased according to the increase or decrease of the touch time of the touch screen of the user, the first step s10 is a step in which the video content automatic editing system 100 transmits the user's touch to the display to the video editing activation input input_activation_edit The third step (s30) configures the video content automatic editing system 100 to increase the first set value in accordance with the increase of the user's touch time.

사용자의 터치 스크린의 터치 압력의 증감에 따라 제 1 설정치를 증감하는 실시예의 경우, 제 1 단계(s10)는 비디오 컨텐츠 자동 편집 시스템(100)이 디스플레이에 대한 사용자의 터치를 비디오 편집 활성화 입력(input_activation_edit)으로 수신받고, 제 3 단계(s30)는 사용자의 터치 압력의 증가에 따라 비디오 컨텐츠 자동 편집 시스템(100)이 제 1 설정치를 높이도록 구성한다.In the embodiment in which the first set value is increased or decreased in accordance with the increase or decrease of the touch pressure of the touch screen of the user, the first step s10 is a step for automatically editing the video content by the video content automatic editing system 100, , And the third step s30 is configured to increase the first set value by the automatic video editing system 100 according to the increase of the user's touch pressure.

디바이스 흔들림 시간의 증감에 따라 제 1 설정치를 증감하는 실시예의 경우, 제 1 단계(s10)는 비디오 컨텐츠 자동 편집 시스템(100)이 디바이스의 흔들림을 비디오 편집 활성화 입력(input_activation_edit)으로 수신 받고, 제 3 단계(s30)는 디바이스 흔들림 시간의 증가에 따라 비디오 컨텐츠 자동 편집 시스템(100)이 제 1 설정치를 높이도록 구성한다.In the embodiment in which the first set value is increased or decreased according to the increase / decrease of the device shake time, the first step s10 is a step in which the video content automatic editing system 100 receives the shake of the device as a video editing activation input (input_activation_edit) In step s30, the video content automatic editing system 100 increases the first set value in accordance with the increase of the device shake time.

디바이스 흔들림 세기의 증감에 따라 제 1 설정치를 증감하는 실시예의 경우, 제 1 단계(s10)는 비디오 컨텐츠 자동 편집 시스템(100)이 디바이스의 흔들림을 비디오 편집 활성화 입력(input_activation_edit)으로 수신받고, 제 3 단계(s30)는 디바이스 흔들림 세기의 증가에 따라 비디오 컨텐츠 자동 편집 시스템(100)이 제 1 설정치를 높이도록 구성한다.In the embodiment in which the first set value is increased or decreased according to the increase or decrease of the device shake intensity, the first step s10 is a step in which the video content automatic editing system 100 receives the shake of the device as a video editing activation input (input_activation_edit) Step s30 configures the video content automatic editing system 100 to increase the first set value as the device shake intensity increases.

정적인 장면의 연속은 비디오 컨텐츠 감상자의 몰입도를 떨어뜨리는 요인이 된다. 따라서 정적인 장면을 자동으로 제거하는 것이 바람직하다.The continuity of static scenes is a factor that deteriorates the immersion of the video contents viewer. Therefore, it is desirable to automatically remove static scenes.

첫 번째로, 특정한 원본 비디오 시퀀스(sequence_video_original)가 정적인 장면으로만 구성된 것으로 판단되는 경우 해당 원본 비디오 시퀀스(sequence_video_original) 전체를 제거하는 것이 바람직하다. 이를 위해 제 3 단계(s30) 이후에, 비디오 컨텐츠 자동 편집 시스템(100)이 연속하는 원본 비디오 시퀀스(sequence_video_original)들 간의 코릴레이션인 시퀀스 코릴레이션(correlation_sequence)이 제 2 설정치 이상인 원본 비디오 시퀀스(sequence_video_original)들 중 적어도 어느 하나를 제거하는 제 9 단계(s90, s92)를 더 수행한다.First, when it is determined that a specific original video sequence (sequence_video_original) is composed only of static scenes, it is preferable to remove the entire original video sequence (sequence_video_original). In order to achieve this, after the third step s30, the video content automatic editing system 100 transmits the original video sequence sequence_video_original whose correlation_sequence is a correlation between consecutive original video sequences (sequence_video_original) (S90, s92) for removing at least one of the first to n < th >

연속하는 프레임간의 코릴레이션인 프레임 코릴레이션(correlation_frame)과는 달리 시퀀스 코릴레이션(correlation_sequence)은 연속하는 시퀀스간의 코릴레이션을 의미한다. 시퀀스 코릴레이션(correlation_sequence)은 예컨대 원본 비디오 시퀀스(sequence_video_original)를 구성하는 모든 프레임들에 대한 통계적인 이미지 특성치를 사용한 상관도이거나 선행하는 원본 비디오 시퀀스(sequence_video_original)의 최종 프레임과 연속으로 후행하는 원본 비디오 시퀀스(sequence_video_original)의 최초 프레임 간의 이미지 특성치를 사용한 상관도이거나 그 둘의 조합으로 구현할 수 있다.Unlike frame correlation, which is a correlation between consecutive frames, a correlation_sequence is a correlation between consecutive sequences. The sequence correlation is a correlation using, for example, a statistical image characteristic value for all the frames constituting the original video sequence (sequence_video_original), or a correlation between the original video sequence (consecutively trailing the last frame of the preceding original video sequence (sequence_video_original) (sequence_video_original), or a combination of the two.

두 번째로, 원본 비디오 시퀀스(sequence_video_original)의 일부 프레임들이 정적인 장면으로만 구성된 것으로 판단되는 경우 해당 프레임들을 제거하는 것이 바람직하다. 이를 위해 제 2 단계(s20) 이후에, 비디오 컨텐츠 자동 편집 시스템(100)이 제 k 원본 비디오 시퀀스(sequence_video_original_kth) 중 프레임 코릴레이션(correlation_frame)이 제 3 설정치(제 3 설정치는 제 1 설정치 보다 높음) 이상인 프레임들을 제거하는 제 10 단계(s100, s102)를 수행하도록 구성한다.Second, if it is determined that some frames of the original video sequence (sequence_video_original) are composed of only static scenes, it is desirable to remove the frames. For this, after the second step s20, the video content automatic editing system 100 sets the frame correlation of the k-th original video sequence (sequence_video_original_kth) to the third set value (the third set value is higher than the first set value) (S100, s102) for removing frames having a size equal to or larger than a predetermined size.

한편, 제 9 단계(s90, s92)에 의한 정적인 원본 비디오 시퀀스(sequence_video_original)의 제거 또는 제 10 단계(s100, s102)의 정적인 프레임들의 제거에도 불구하고 재배치 비디오 컨텐츠(content_video_shuffled)가 여전히 너무 길거나, 반대로 너무 짧아지는 문제가 발생할 수 있다. 따라서 목표 재생시간을 설정하거나 배경음악의 연주시간에 맞도록 자동으로 재배치 비디오 컨텐츠(content_video_shuffled)를 생성하는 것이 바람직하다.On the other hand, in spite of the removal of the static original video sequence sequence_video_original by the ninth steps s90 and s92 or the removal of the static frames of the tenth step s100 and s102, the relocation video content content_video_shuffled is still too long , Conversely, the problem of becoming too short may occur. Therefore, it is desirable to set the target playback time or automatically generate the rearranged video content (content_video_shuffled) to match the playing time of the background music.

도 7은 본 발명의 다른 실시예에 따른 목표 재생시간 설정에 따른 정적 프레임의 제거방법을 도시하는 흐름도이다. 목표 재생시간에 부합하는 재생길이를 갖는 재배치 비디오 컨텐츠(content_video_shuffled)의 생성을 위해 도 7에 도시된 바와 같이 제 1 단계(s10) 내지 제 3 단계(s30) 중에 비디오 컨텐츠 자동 편집 시스템(100)이 재배치 비디오 컨텐츠(content_video_shuffled)의 목표 재생시간을 설정하는 제 11 단계(s110)를 더 포함하고, 제 10 단계(s100, s102)는, 비디오 컨텐츠 자동 편집 시스템(100)이 목표 재생시간에 부합하도록 프레임 코릴레이션(correlation_frame)이 제 3 설정치 이상인 프레임들을 제거하도록 구성한다. 목표 재생시간에 부합하도록 하기 위해서는 비교적 높은 제 3 설정치를 처음에 설정하고, 점진적으로 제 3 설정치를 낮추는 방법(s104, s106)을 통해 재배치 비디오 컨텐츠(content_video_shuffled)의 재생시간을 조절할 수 있다.7 is a flowchart illustrating a method of removing a static frame according to a target playback time setting according to another embodiment of the present invention. The automatic video content editing system 100 during the first step (s10) to the third step (s30) as shown in Fig. 7, for generating the rearranged video content (content_video_shuffled) having the reproduction length corresponding to the target reproduction time The system further includes an eleventh step of setting a target playback time of the rearranged video content content_video_shuffled at step S110, And to remove frames whose correlation_frame is equal to or greater than the third set value. The playback time of the rearranged video content content_video_shuffled can be adjusted through the method of setting the relatively higher third set value at the beginning and gradually lowering the third set value at steps s104 and s106 in order to match the target playback time.

도 8은 본 발명의 다른 실시예에 따른 배경음악 설정에 따른 정적 프레임의 제거방법을 도시하는 흐름도이다. 배경음악의 연주시간에 부합하는 재생길이를 갖는 재배치 비디오 컨텐츠(content_video_shuffled)의 생성을 위해 도 8에 도시된 바와 같이 제 1 단계(s10) 내지 제 3 단계(s30) 중에 비디오 컨텐츠 자동 편집 시스템(100)이 재배치 비디오 컨텐츠(content_video_shuffled)의 오디오 트랙에 포함될 배경음악을 설정하는 제 12 단계(s120)를 더 포함하고, 제 10 단계(s100, s102)는 비디오 컨텐츠 자동 편집 시스템(100)이 배경음악의 연주시간에 부합하도록 프레임 코릴레이션(correlation_frame)이 제 3 설정치 이상인 프레임들을 제거하도록 구성한다. 연주시간에 부합하도록 하기 위해서는 비교적 높은 제 3 설정치를 처음에 설정하고, 점진적으로 제 3 설정치를 낮추는 방법(s108, s106)을 통해 재배치 비디오 컨텐츠(content_video_shuffled)의 재생시간을 조절할 수 있다.한편, 카메라 이동 또는 카메라 회전 중에 촬영된 영상은 화면의 흔들림, 초점이탈이 발생하여 비디오 컨텐츠의 영상품질을 저하시키기 때문에 이러한 영상부분을 자동으로 제거하는 것이 바람직하다.8 is a flowchart illustrating a method of removing a static frame according to background music setting according to another embodiment of the present invention. (S10) to a third step (s30) as shown in FIG. 8 for the generation of rearranged video content (content_video_shuffled) having a reproduction length corresponding to the playing time of the background music, (S120) of setting a background music to be included in the audio track of the rearranged video content (content_video_shuffled). In a tenth step (s100, s102), the system for automatically editing the video content (100) And to remove frames whose frame correlation correlation (frame_frame) is equal to or greater than the third set value so as to match the playing time. The playback time of the rearranged video content content_video_shuffled can be adjusted by setting a relatively high third set value at first and lowering the third set value gradually (s108, s106) It is desirable to automatically remove the image portion of the image captured during the movement or the camera rotation because the image is shaken or out of focus to degrade the image quality of the video contents.

카메라 조정 중 촬영된 프레임들로만 구성되는 원본 비디오 시퀀스(sequence_video_original)를 제거하기 위해, 제 3 단계(s30)는 비디오 컨텐츠 자동 편집 시스템(100)이 제 2 단계(s20)의 연산 결과 카메라 이동 중 촬영된 프레임들 또는 카메라 회전 중 촬영된 프레임들을 카메라 조정 비디오 시퀀스(sequence_video_moving)로 더 구분하고, 제 4 단계(s40)는, 비디오 컨텐츠 자동 편집 시스템(100)이 카메라 조정 비디오 시퀀스(sequence_video_moving)를 제거하고, 서브셋 비디오 시퀀스(subset_sequence_video)를 랜덤하게 재배치 하도록 한다.In order to remove the original video sequence (sequence_video_original) composed only of the frames photographed during the camera adjustment, the third step s30 is a step in which the video content automatic editing system 100 records Frames or frames photographed during camera rotation are further divided into a camera adjustment video sequence (sequence_video_moving), and a fourth step (s40) is performed in which the video content automatic editing system 100 removes the camera adjustment video sequence (sequence_video_moving) The subset video sequence (subset_sequence_video) is rearranged at random.

원본 비디오 시퀀스(sequence_video_original) 중 카메라 조정 중 촬영된 일부 프레임들을 제거하기 위해, 제 4 단계(s40)는, 비디오 컨텐츠 자동 편집 시스템(100)이 제 k 원본 비디오 시퀀스(sequence_video_original_kth) 또는 서브셋 비디오 시퀀스(subset_sequence_video) 중 제 2 단계(s20)의 연산 결과 카메라 이동 중 촬영된 비디오 프레임 또는 카메라 회전 중 촬영된 프레임인 카메라 조정 프레임(frame_moving)을 제거하도록 하는 구성을 더 포함한다.In order to remove some frames photographed during camera adjustment among the original video sequence (sequence_video_original), the fourth step (s40) is performed in such a manner that the video content automatic editing system 100 generates a k-th original video sequence (sequence_video_original_kth) or a subset_sequence_video (S20), a camera frame (m_moving), which is a photographed video frame or a frame photographed during camera rotation, is removed.

제 2 단계(s20)에 있어서 비디오 컨텐츠 자동 편집 시스템(100)은 비디오 컨텐츠에서 동작 정보를 검출하는 알려진 기법 예컨대 차영상 분석(analysis of difference image), 블럭 정합 알고리즘(block matching algorithm), 광류기반 분석(optical flow analysis) 등을 적용하여 카메라 이동 중 촬영된 프레임들 또는 카메라 회전 중 촬영된 프레임들을 검출할 수 있다.In a second step s20, the automatic video content editing system 100 may use known techniques for detecting motion information in video content such as analysis of difference image, block matching algorithm, (optical flow analysis) may be applied to detect frames photographed during camera movement or frames photographed during camera rotation.

재배치 비디오 컨텐츠(content_video_shuffled)의 일부 구간에서 빨리 재생, 천천히 재생, 또는 역 재생을 함으로써 컨텐츠의 역동성 및 의외성을 높일 수 있다. 이를 위해 제 4 단계(s40)는, 비디오 컨텐츠 자동 편집 시스템(100)이 원본 비디오 시퀀스(sequence_video_original)들 또는 서브셋 비디오 시퀀스(subset_sequence_video) 중 적어도 어느 하나에 압축 재생하는 방법, 연장 재생하는 방법, 또는 역 재생하는 방법 중 적어도 하나의 방법을 랜덤하게 적용하도록 구성하는 것을 더 포함할 수 있다.It is possible to improve the dynamics and unexpectedness of contents by performing fast playback, slow playback, or reverse playback in a part of the rearranged video content (content_video_shuffled). For this, the fourth step (s40) is a method of automatically compressing and reproducing at least one of the original video sequences (sequence_video_original) or the subset video sequence (subset_sequence_video) The method may further comprise configuring at least one of the methods to be applied at random.

도 9는 본 발명의 다른 실시예에 따른 추가 비디오 컨텐츠를 이용한 재배치 비디오 컨텐츠의 생성방법을 도시하는 흐름도이다. 도 9에 도시된 바와 같이, 동일한 장면을 촬영한 복수의 비디오 컨텐츠들을 교차 편집함으로써 영상품질을 높일 수 있다. 이를 위해 제 1 단계(s10) 이후에, 비디오 컨텐츠 자동 편집 시스템(100)이 원본 비디오 컨텐츠(content_video_original)가 촬영된 시간대와 실질적으로 동일한 시간대에 다른 카메라 장치에 의해 촬영된 추가 비디오 컨텐츠(content_video_additional)를 로딩하는 제 13 단계(s130)를 수행한다. 다음으로, 비디오 컨텐츠 자동 편집 시스템(100)이 추가 비디오 컨텐츠(content_video_additional)의 적어도 일부의 추가 비디오 시퀀스(sequence_video_additional)를 추출하는 제 14 단계(s140)를 수행한다. 다음으로, 비디오 컨텐츠 자동 편집 시스템(100)이 추가 비디오 시퀀스(sequence_video_additional)를 추가 비디오 시퀀스(sequence_video_additional)가 촬영된 시간대에 선행 또는 후행하는 원본 비디오 시퀀스(sequence_video_original) 중 적어도 어느 하나와 교체하거나 추가 비디오 시퀀스(sequence_video_additional)가 촬영된 시간대에 인접하게 선행 또는 인접하게 후행하는 원본 비디오 시퀀스(sequence_video_original)의 일부 프레임들과 교체하는 제 15 단계(s150)을 더 수행한다.9 is a flowchart illustrating a method of generating relocatable video content using additional video content according to another embodiment of the present invention. As shown in FIG. 9, the video quality can be improved by cross-editing a plurality of video contents photographed in the same scene. To this end, after the first step s10, the automatic video content editing system 100 records additional video content (content_video_additional) photographed by another camera device at substantially the same time zone in which the original video content (content_video_original) was photographed (Step s130). Next, the video content auto-editing system 100 performs a fourteenth step (S140) of extracting at least a part of the additional video sequence (sequence_video_additional) of the additional video content (content_video_additional). Next, the video content automatic editing system 100 may replace the additional video sequence sequence_video_additional with at least one of the original video sequence sequence_video_original preceding or following the time when the additional video sequence_video_additional was taken, (step s150) of replacing the first video sequence (sequence_video_additional) with some frames of the original video sequence (sequence_video_original) preceding or following the adjacent time zone.

이때 추가 비디오 시퀀스(sequence_video_additional)가 삽입된 구간은 원본 비디오 컨텐츠(content_video_original)와 연속성을 갖도록 보여지는 것이 바람직하기 때문에 비디오 컨텐츠 자동 편집 시스템(100)은 추가 비디오 시퀀스(sequence_video_additional)가 삽입된 구간에서 일정 범위의 영역에 대해서는 재배치를 하지 않도록 하는 것이 보다 바람직하다.In this case, since it is preferable that the section in which the additional video sequence (sequence_video_additional) is inserted is viewed to have continuity with the original video content (content_video_original), the video content automatic editing system 100 automatically sets the additional video sequence (sequence_video_additional) It is more preferable not to rearrange the area of the area.

이러한 실시예에 있어서, 원본 비디오 컨텐츠(content_video_original)와 추가 비디오 컨텐츠(content_video_additional)간의 동기화가 필요하다. 이를 위해 제 15 단계(s150)는, 비디오 컨텐츠 자동 편집 시스템(100)이 원본 비디오 시퀀스(sequence_video_original)에 포함된 제 1 오디오 신호 및 추가 비디오 시퀀스(sequence_video_additional)에 포함된 제 2 오디오 신호를 비교하여 추가 비디오 시퀀스(sequence_video_additional)를 교체하도록 구성하거나, 원본 비디오 시퀀스(sequence_video_original)에 포함된 제 1 촬영시간 정보 및 추가 비디오 시퀀스(sequence_video_additional)에 포함된 제 2 촬영시간 정보를 비교하여 추가 비디오 시퀀스(sequence_video_additional)를 교체하도록 구성한다.In this embodiment, synchronization between the original video content (content_video_original) and the additional video content (content_video_additional) is required. To do so, a fifteenth step (s150) compares the first audio signal included in the original video sequence (sequence_video_original) with the second audio signal included in the additional video sequence (sequence_video_additional) Video sequence (sequence_video_additional), or compares the first shooting time information included in the original video sequence (sequence_video_original) with the second shooting time information included in the additional video sequence (sequence_video_additional) to obtain an additional video sequence (sequence_video_additional) To be replaced.

원본 비디오 컨텐츠(content_video_original)와 추가 비디오 컨텐츠(content_video_additional)가 프레임 종횡비가 다른 경우 비디오 컨텐츠 자동 편집 시스템(100)은 이를 균일하게 자동으로 조정하는 것이 바람직하다.If the original video content (content_video_original) and the additional video content (content_video_additional) have different frame aspect ratios, the automatic video content editing system 100 may automatically and uniformly adjust the same.

도 10은 본 발명의 다른 실시예에 따른 원본 비디오 컨텐츠에 자료화면 비디오 컨텐츠를 추가하여 재배치 비디오 컨텐츠를 생성하는 방법을 도시하는 흐름도이다. 사용자가 촬영한 원본 비디오 컨텐츠(content_video_original)에 전문가가 촬영한 자료화면 비디오 컨텐츠를 더 추가함으로써 재배치 비디오 컨텐츠(content_video_shuffled)의 영상품질을 제고할 수 있다. 이를 위해 도 10에 도시된 바와 같이 제 1 단계(s10) 이후에, 비디오 컨텐츠 자동 편집 시스템(100)이 원본 비디오 컨텐츠(content_video_original)가 촬영된 장소에 해당하는 자료화면 비디오 시퀀스(sequence_video_external)를 로딩하는 제 16 단계(s160)를 수행한다. 이때 사용자가 선택한 사진 또는 비디오 컨텐츠를 자료화면 비디오 시퀀스(sequence_video_external)로서 입력받을 수도 있고, 원본 비디오 컨텐츠(content_video_original)의 메타정보를 통해 확인한 촬영장소 정보를 통해 해당 장소에 관한 비디오 컨텐츠를 통신망을 통해 검색하여 자동으로 자료화면 비디오 시퀀스(sequence_video_external)로서 입력할 수도 있다.FIG. 10 is a flowchart illustrating a method of generating rearranged video content by adding video content to a source video content according to another embodiment of the present invention. The video quality of the rearranged video content (content_video_shuffled) can be improved by further adding the video screen content taken by the expert to the original video content (content_video_original) photographed by the user. To this end, as shown in FIG. 10, after the first step (s10), the video content automatic editing system 100 loads a data screen video sequence (sequence_video_external) corresponding to the place where the original video content (content_video_original) Step 16 (S160) is performed. At this time, the user may receive the photo or video content selected by the user as the data sequence video sequence (sequence_video_external), or may search the video content related to the location through the communication network through the shooting location information confirmed through the meta information of the original video content (content_video_original) And automatically input it as a data screen video sequence (sequence_video_external).

다음으로, 비디오 컨텐츠 자동 편집 시스템(100)이 자료화면 비디오 시퀀스(sequence_video_external)를 삽입하는 제 17 단계(s170)를 수행하여, 자료화면 비디오 시퀀스(sequence_video_external)가 삽입된 재배치 비디오 컨텐츠(content_video_shuffled)를 생성한다.Next, the video content automatic editing system 100 performs a seventeenth step (S170) of inserting a data screen video sequence (sequence_video_external) to generate a relocation video content (content_video_shuffled) in which a data screen video sequence (sequence_video_external) is inserted do.

본 발명은 이상에서 살펴본 바와 같이 바람직한 실시예를 들어 도시하고 설명하였으나, 상기 실시예에 한정되지 아니하며 본 발명의 정신을 벗어나지 않는 범위 내에서 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변경과 수정이 가능할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, Various changes and modifications will be possible.

100 : 비디오 컨텐츠 자동 편집 시스템
110 : 입력 인터페이스 모듈 120 : 프레임 이미지 처리 모듈
122 : 추가 비디오 시퀀스 추출 모듈 124 : 자료화면 입력 모듈
130 : 비디오 시퀀스 설정 모듈 132 : 비디오 프레임 제거 모듈
134 : 재생시간 설정 모듈 136 : 배경음악 설정 모듈
140 : 비디오 시퀀스 재배치 모듈 142 : 비디오 시퀀스 제거 모듈
144 : 추가 비디오 시퀀스 삽입 모듈 146 : 자료화면 삽입 모듈
148 : 재생모드 변경 모듈 149 : 화면 전환 효과 모듈
150 : 재배치 비디오 컨텐츠 저장 모듈
100: Video content auto-editing system
110: input interface module 120: frame image processing module
122: additional video sequence extraction module 124: data screen input module
130: video sequence setting module 132: video frame removal module
134: Playback time setting module 136: Background music setting module
140: Video Sequence Relocation Module 142: Video Sequence Removal Module
144: Insert Additional Video Sequence Module 146: Insert Data Screen Sequence Module
148: Playback mode changing module 149: Screen switching effecting module
150: Relocation video content storage module

Claims (42)

사용자 입력을 수신하는 입력 인터페이스 모듈;
상기 입력 인터페이스 모듈로부터 비디오 편집 활성화 입력의 수신에 따라 원본 비디오 컨텐츠의 각 프레임을 분석하여 연속 프레임들 간의 코릴레이션인 프레임 코릴레이션을 연산하는 프레임 이미지 처리 모듈;
상기 프레임 코릴레이션이 제 1 설정치 이상인 연속적인 프레임들의 집합을 하나의 원본 비디오 시퀀스로 정의하여 상기 원본 비디오 컨텐츠를 제 1 원본 비디오 시퀀스 내지 제 n 원본 비디오 시퀀스(n은 2 이상의 정수)로 구분하는 비디오 시퀀스 설정 모듈;
적어도 제 k 원본 비디오 시퀀스(k는 1 이상 n-1 이하의 정수)의 적어도 일부로 구성되는 서브셋 비디오 시퀀스가 제 k+1 원본 비디오 시퀀스(k는 1 이상 n-1 이하의 정수)에 후행하거나 제 k-1 원본 비디오 시퀀스에 선행하도록 랜덤하게 재배치하여 재배치 비디오 컨텐츠를 생성하는 비디오 시퀀스 재배치 모듈; 및
상기 재배치 비디오 컨텐츠 또는 상기 재배치 비디오 컨텐츠의 상기 비디오 시퀀스들 및 상기 서브셋 비디오 시퀀스의 배치 순서에 대한 정보인 시퀀스 배치 정보를 저장하는 재배치 비디오 컨텐츠 저장 모듈;을 포함하여 구성되는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
An input interface module for receiving user input;
A frame image processing module for analyzing each frame of the original video content according to reception of a video editing activation input from the input interface module to calculate a frame correlation that is a correlation between successive frames;
Wherein the set of consecutive frames in which the frame correlation is equal to or greater than a first set value is defined as one original video sequence to divide the original video content into a first original video sequence to an nth original video sequence A sequence setting module;
A subset video sequence composed of at least a part of a k-th original video sequence (k is an integer equal to or greater than 1 and equal to or less than n-1) traces a k + 1 original video sequence (k is an integer equal to or greater than 1 and equal to or smaller than n-1) a video sequence rearrangement module for randomly rearranging to lead the k-1 original video sequence to generate rearranged video content; And
And a rearranged video content storage module for storing the rearranged video content or the sequence arrangement information which is information on the arrangement order of the video sequences of the rearranged video content and the subset video sequence. Editing system.
제 1 항에 있어서,
상기 프레임 이미지 처리 모듈은, 복수의 상기 원본 비디오 컨텐츠 별로 프레임 코릴레이션을 연산하고,
상기 비디오 시퀀스 설정 모듈은, 복수의 상기 원본 비디오 컨텐츠들을 상기 제 1 원본 비디오 시퀀스 내지 상기 제 n 원본 비디오 시퀀스로 구분하고,
상기 비디오 시퀀스 재배치 모듈은, 단일의 상기 재배치 비디오 컨텐츠를 생성하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
The method according to claim 1,
Wherein the frame image processing module calculates a frame correlation for each of the plurality of original video contents,
Wherein the video sequence setting module divides the plurality of original video contents into the first original video sequence to the nth original video sequence,
Wherein the video sequence rearrangement module generates a single, relocated video content.
제 1 항에 있어서, 상기 비디오 시퀀스 재배치 모듈은,
상기 재배치 비디오 컨텐츠의 생성 이후 상기 입력 인터페이스 모듈로부터 추가 재배치 활성화 입력의 수신에 따라 상기 서브셋 비디오 시퀀스를 다시 랜덤하게 재배치하여 2차 재배치 비디오 컨텐츠를 생성하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
The video sequence reordering module according to claim 1,
Wherein the second rearrangement video content is generated by randomly rearranging the subset video sequence according to reception of the additional rearrangement activation input from the input interface module after the generation of the rearranged video content.
제 1 항에 있어서, 상기 프레임 이미지 처리 모듈은,
상기 재배치 비디오 컨텐츠의 생성 이후 상기 입력 인터페이스 모듈로부터 비디오 추가 편집 활성화 입력의 수신에 따라 상기 재배치 비디오 컨텐츠를 새로운 원본 비디오 컨텐츠로서 각 프레임을 분석하여 프레임 코릴레이션을 연산하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
The image processing apparatus according to claim 1,
Wherein the video content editing unit analyzes the frames of the rearranged video content as new original video contents according to reception of a video additional editing activation input from the input interface module after the generation of the rearranged video content, system.
제 1 항에 있어서,
상기 비디오 시퀀스 재배치 모듈은, 상기 비디오 편집 활성화 입력에 따라 상기 제 1 설정치를 조정하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
The method according to claim 1,
Wherein the video sequence rearrangement module adjusts the first set value according to the video editing activation input.
제 5 항에 있어서,
상기 사용자 입력 인터페이스 모듈은, 디스플레이에 대한 사용자의 터치를 상기 비디오 편집 활성화 입력으로 인식하는 터치 센싱부;를 포함하고,
상기 비디오 시퀀스 재배치 모듈은, 상기 사용자의 터치 시간의 증가에 따라 상기 제 1 설정치를 높이는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
6. The method of claim 5,
Wherein the user input interface module includes a touch sensing unit for recognizing a user's touch on the display as the video editing activation input,
Wherein the video sequence rearrangement module increases the first set value as the user's touch time increases.
제 5 항에 있어서,
상기 사용자 입력 인터페이스 모듈은, 디스플레이에 대한 사용자의 터치를 상기 비디오 편집 활성화 입력으로 인식하는 터치 센싱부;를 포함하고,
상기 비디오 시퀀스 재배치 모듈은, 상기 사용자의 터치 압력의 중가에 따라 상기 제 1 설정치를 높이는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
6. The method of claim 5,
Wherein the user input interface module includes a touch sensing unit for recognizing a user's touch on the display as the video editing activation input,
Wherein the video sequence rearrangement module increases the first set value according to a weighted value of the touch pressure of the user.
제 5 항에 있어서,
상기 사용자 입력 인터페이스 모듈은, 디바이스 흔들림을 감지하여 상기 비디오 편집 활성화 입력으로 인식하는 움직임 센싱부;를 포함하고,
상기 비디오 시퀀스 재배치 모듈은, 상기 디바이스 흔들림 시간의 증가에 따라 상기 제 1 설정치를 높이는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
6. The method of claim 5,
Wherein the user input interface module includes a motion sensing unit for sensing a device shake and recognizing the device shake as the video editing activation input,
Wherein the video sequence rearrangement module increases the first set value in accordance with an increase in the device shake time.
제 5 항에 있어서,
상기 사용자 입력 인터페이스 모듈은, 디바이스 흔들림을 감지하여 상기 비디오 편집 활성화 입력으로 인식하는 움직임 센싱부;를 포함하고,
상기 비디오 시퀀스 재배치 모듈은, 상기 디바이스 흔들림 세기의 증가에 따라 상기 제 1 설정치를 높이는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
6. The method of claim 5,
Wherein the user input interface module includes a motion sensing unit for sensing a device shake and recognizing the device shake as the video editing activation input,
Wherein the video sequence rearrangement module increases the first set value as the device shake intensity increases.
제 1 항에 있어서, 상기 비디오 컨텐츠 자동 편집 시스템은,
연속하는 상기 원본 비디오 시퀀스 간들 간의 코릴레이션인 시퀀스 코릴레이션이 제 2 설정치 이상인 원본 비디오 시퀀스들 중 적어도 어느 하나를 제거하는 비디오 시퀀스 제거 모듈;을 더 포함하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
The video editing apparatus according to claim 1,
Further comprising a video sequence elimination module for removing at least one of the original video sequences whose sequence correlation is equal to or greater than a second set value, which is a correlation between consecutive original video sequences.
제 1 항에 있어서, 상기 비디오 컨텐츠 자동 편집 시스템은,
제 k 원본 비디오 시퀀스 또는 상기 서브셋 비디오 시퀀스 중 프레임 코릴레이션이 제 3 설정치(상기 제 3 설정치는 상기 제 1 설정치 보다 높음) 이상인 프레임들을 제거하는 비디오 프레임 제거 모듈;을 더 포함하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
The video editing apparatus according to claim 1,
Further comprising a video frame removal module for removing frames from the k-th original video sequence or the subset video sequence whose frame correlation is equal to or greater than a third set value (the third set value is higher than the first set value) Content automatic editing system.
제 11 항에 있어서,
상기 비디오 컨텐츠 자동 편집 시스템은, 상기 재배치 비디오 컨텐츠의 목표 재생시간을 설정하는 재생시간 설정 모듈;을 더 포함하고,
상기 비디오 프레임 제거 모듈은, 상기 목표 재생시간에 부합하도록 상기 제 3 설정치 이상인 프레임들을 제거하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
12. The method of claim 11,
Wherein the video content automatic editing system further comprises a playback time setting module for setting a target playback time of the rearranged video content,
Wherein the video frame removal module removes frames that are equal to or larger than the third set value to match the target playback time.
제 11 항에 있어서,
상기 비디오 컨텐츠 자동 편집 시스템은, 상기 재배치 비디오 컨텐츠의 오디오 트랙에 포함될 배경음악을 설정하는 배경음악 설정 모듈;을 더 포함하고,
상기 비디오 프레임 제거 모듈은 상기 배경음악의 연주시간에 부합하도록 상기 제 3 설정치 이상인 프레임들을 제거하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
12. The method of claim 11,
Wherein the video content automatic editing system further comprises a background music setting module for setting background music to be included in an audio track of the rearranged video contents,
Wherein the video frame erasure module removes frames that are equal to or greater than the third set value to match the performance time of the background music.
제 1 항에 있어서,
상기 비디오 시퀀스 설정 모듈은, 상기 프레임 이미지 처리 모듈의 연산 결과 카메라 이동 중 촬영된 프레임들 또는 카메라 회전 중 촬영된 프레임들을 카메라 조정 비디오 시퀀스로 더 구분하고,
상기 비디오 컨텐츠 자동 편집 시스템은, 상기 카메라 조정 비디오 시퀀스를 제거하는 비디오 시퀀스 제거 모듈;을 더 포함하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
The method according to claim 1,
The video sequence setting module may further classify frames photographed during camera movement or frames photographed during camera rotation as a calculation result of the frame image processing module into a camera adjustment video sequence,
Wherein the video content automatic editing system further comprises a video sequence elimination module for removing the camera adjustment video sequence.
제 1 항에 있어서, 상기 비디오 컨텐츠 자동 편집 시스템은,
제 k 원본 비디오 시퀀스 또는 상기 서브셋 비디오 시퀀스 중 상기 프레임 이미지 처리 모듈의 연산 결과 카메라 이동 중 촬영된 비디오 프레임 또는 카메라 회전 중 촬영된 프레임인 카메라 조정 프레임을 제거하는 비디오 프레임 제거 모듈;을 더 포함하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
The video editing apparatus according to claim 1,
And a video frame removal module that removes the k-th original video sequence or the camera adjustment frame, which is a photographed video frame during the movement of the camera or a photographed frame during camera rotation, of the frame image processing module among the subset video sequence Features automatic video editing system.
제 1 항에 있어서, 상기 비디오 컨텐츠 자동 편집 시스템은,
상기 원본 비디오 시퀀스들 또는 상기 서브셋 비디오 시퀀스 중 적어도 어느 하나에 압축 재생하는 방법, 연장 재생하는 방법, 또는 역 재생하는 방법 중 적어도 하나의 방법을 랜덤하게 적용하는 재생모드 변경 모듈;을 더 포함하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
The video editing apparatus according to claim 1,
And a playback mode changing module for randomly applying at least one of a method of compressing and reproducing to at least one of the original video sequences or the subset video sequence, an extended reproducing method, or a reverse reproducing method Features automatic video editing system.
제 1 항에 있어서, 상기 비디오 컨텐츠 자동 편집 시스템은,
상기 원본 비디오 컨텐츠가 촬영된 시간대와 실질적으로 동일한 시간대에 다른 카메라 장치에 의해 촬영된 추가 비디오 컨텐츠를 로딩하여 상기 추가 비디오 컨텐츠의 적어도 일부의 추가 비디오 시퀀스를 추출하는 추가 비디오 시퀀스 추출 모듈; 및
상기 추가 비디오 시퀀스를 상기 추가 비디오 시퀀스가 촬영된 시간대에 선행 또는 후행하는 상기 원본 비디오 시퀀스 중 적어도 어느 하나와 교체하거나 상기 추가 비디오 시퀀스가 촬영된 시간대에 인접하게 선행 또는 인접하게 후행하는 상기 원본 비디오 시퀀스의 일부 프레임들과 교체하는 추가 비디오 시퀀스 삽입 모듈;을 더 포함하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
The video editing apparatus according to claim 1,
An additional video sequence extraction module for loading additional video content photographed by another camera device in a time zone substantially coincident with the time zone at which the original video content was photographed, thereby extracting at least a portion of the additional video sequence of the additional video content; And
The additional video sequence being replaced with at least one of the original video sequences preceding or following the time at which the additional video sequence was photographed, or the original video sequence being traced immediately preceding or following the adjacent video sequence at the time of shooting, Further comprising: an additional video sequence insertion module for replacing some frames of the video content.
제 17 항에 있어서, 상기 추가 비디오 시퀀스 삽입 모듈은,
상기 원본 비디오 시퀀스에 포함된 제 1 오디오 신호 및 상기 추가 비디오 시퀀스에 포함된 제 2 오디오 신호를 비교하여 상기 추가 비디오 시퀀스를 교체하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
18. The apparatus of claim 17, wherein the additional video sequence insertion module further comprises:
Wherein the additional video sequence is replaced by comparing a first audio signal included in the original video sequence and a second audio signal included in the additional video sequence to replace the additional video sequence.
제 17 항에 있어서, 상기 추가 비디오 시퀀스 삽입 모듈은,
상기 원본 비디오 시퀀스에 포함된 제 1 촬영시간 정보 및 상기 추가 비디오 시퀀스에 포함된 제 2 촬영시간 정보를 비교하여 상기 추가 비디오 시퀀스를 교체하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
18. The apparatus of claim 17, wherein the additional video sequence insertion module further comprises:
Wherein the additional video sequence is replaced by comparing first shooting time information included in the original video sequence and second shooting time information included in the additional video sequence.
제 12 항에 있어서, 상기 비디오 컨텐츠 자동 편집 시스템은,
상기 원본 비디오 컨텐츠가 촬영된 장소에 해당하는 자료화면 비디오 시퀀스를 입력받는 자료화면 입력 모듈; 및
상기 재배치 비디오 컨텐츠에 상기 자료화면 비디오 시퀀스를 삽입하는 자료화면 삽입 모듈;을 더 포함하여 구성되는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
13. The system of claim 12, wherein the video content automatic editing system comprises:
A data screen input module receiving a data screen video sequence corresponding to a place where the original video content is captured; And
And a data screen inserting module for inserting the data screen video sequence into the rearranged video contents.
제 12 항에 있어서, 상기 비디오 컨텐츠 자동 편집 시스템은,
상기 재배치된 상기 서브셋 비디오 시퀀스의 시작지점 또는 종료지점 중 적어도 하나에 화면 전환 효과를 적용하는 화면 전환 효과 모듈을 더 포함하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 시스템.
13. The system of claim 12, wherein the video content automatic editing system comprises:
Further comprising a screen switching effect module for applying a screen switching effect to at least one of a start point and an end point of the rearranged subset video sequence.
비디오 컨텐츠 자동 편집 시스템이, 사용자로부터 비디오 편집 활성화 입력을 수신받아 원본 비디오 컨텐츠를 로딩하는 제 1 단계;
상기 비디오 컨텐츠 자동 편집 시스템이, 상기 원본 비디오 컨텐츠의 각 프레임을 분석하여 연속 프레임들 간의 코릴레이션인 프레임 코릴레이션을 연산하는 제 2 단계;
상기 비디오 컨텐츠 자동 편집 시스템이, 상기 프레임 코릴레이션이 제 1 설정치 이상인 연속적인 프레임들의 집합을 단일의 원본 비디오 시퀀스로 정의하여 상기 원본 비디오 컨텐츠를 제 1 원본 비디오 시퀀스 내지 제 n 원본 비디오 시퀀스(n은 2 이상의 정수)로 구분하는 제 3 단계;
상기 비디오 컨텐츠 자동 편집 시스템이, 적어도 제 k 원본 비디오 시퀀스(k는 1 이상 n-1 이하의 정수)의 적어도 일부로 구성되는 서브셋 비디오 시퀀스가 제 k+1 원본 비디오 시퀀스(k는 1 이상 n-1 이하의 정수)에 후행하거나 제 k-1 원본 비디오 시퀀스에 선행하도록 랜덤하게 재배치하여 재배치 비디오 컨텐츠를 생성하는 제 4 단계; 및
상기 비디오 컨텐츠 자동 편집 시스템이, 상기 재배치 비디오 컨텐츠 또는 상기 재배치 비디오 컨텐츠의 상기 비디오 시퀀스들 및 상기 서브셋 비디오 시퀀스의 배치 순서에 대한 정보인 시퀀스 배치 정보를 저장하는 제 5 단계;를 포함하여 구성되는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
There is provided a video editing system comprising: a first step of receiving a video editing activation input from a user and loading original video contents;
A second step of the automatic video content editing system analyzing each frame of the original video content to calculate a frame correlation that is a correlation between consecutive frames;
Wherein the video content auto-editing system defines the set of consecutive frames in which the frame correlation is equal to or greater than a first set value as a single original video sequence so that the original video content is divided into a first original video sequence to an nth original video sequence A second step of dividing the input signal into an integer of 2 or more);
Wherein the subset video sequence composed of at least a part of at least a kth original video sequence (k is an integer equal to or greater than 1 and equal to or less than n-1) is a k + 1 original video sequence A first step of rearranging the k-1 original video sequence so as to precede the (k-1) original video sequence to generate rearranged video contents; And
And a fifth step of storing the sequence arrangement information which is information on the arrangement order of the video sequences of the rearranged video content or the rearranged video content and the sequence of the subset video sequences, A method for automatically editing video content.
제 22 항에 있어서,
상기 제 1 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 복수의 상기 원본 비디오 컨텐츠들을 로딩하고,
상기 제 2 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 상기 원본 비디오 컨텐츠 별로 프레임 코릴레이션을 연산하고,
상기 제 3 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 복수의 상기 원본 비디오 컨텐츠들을 상기 제 1 원본 비디오 시퀀스 내지 상기 제 n 원본 비디오 시퀀스로 구분하고,
상기 제 4 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 단일의 상기 재배치 비디오 컨텐츠를 생성하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
23. The method of claim 22,
The first step may include: the automatic video content editing system loading a plurality of original video contents,
Wherein the second step includes a step of the automatic editing system for video contents calculating a frame correlation for each of the original video contents,
Wherein the third step comprises a step of dividing the plurality of original video contents into the first original video sequence to the n-th original video sequence,
And the fourth step is characterized in that the video content automatic editing system generates a single re-arranged video content.
제 22 항에 있어서, 상기 비디오 컨텐츠 자동 편집 방법은, 상기 제 5 단계 이후에,
상기 비디오 컨텐츠 자동 편집 시스템이, 사용자로부터 추가 재배치 활성화 입력을 수신받아 상기 서브셋 비디오 시퀀스를 다시 랜덤하게 재배치하여 2차 재배치 비디오 컨텐츠를 생성하는 제 6 단계;를 더 포함하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
23. The method of claim 22, wherein the automatic video content editing method further comprises, after the fifth step,
Further comprising a sixth step of receiving the rearrangement activation input from the user and randomly rearranging the subset video sequence to generate secondary rearranged video contents, How to edit.
제 22 항에 있어서, 상기 비디오 컨텐츠 자동 편집 방법은, 상기 제 5 단계 이후에,
상기 비디오 컨텐츠 자동 편집 시스템이, 사용자로부터 비디오 추가 편집 활성화 입력을 수신받아 상기 재배치 비디오 컨텐츠를 새로운 원본 비디오 컨텐츠로서 각 프레임을 분석하여 프레임 코릴레이션을 연산하는 제 7 단계; 및
상기 비디오 컨텐츠 자동 편집 시스템이 상기 재배치 비디오 컨텐츠에 대해 상기 제 3 단계 내지 제 5 단계를 수행하는 제 8 단계;를 포함하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
23. The method of claim 22, wherein the automatic video content editing method further comprises, after the fifth step,
A seventh step of the automatic video editing system comprising: receiving a video additional editing activation input from a user and analyzing each of the relocated video contents as new original video contents to calculate frame correlation; And
And the automatic video editing system performs the third to fifth steps on the relocated video contents.
제 22 항에 있어서, 상기 제 3 단계는,
상기 비디오 컨텐츠 자동 편집 시스템이 상기 제 1 단계의 상기 비디오 편집 활성화 입력에 따라 상기 제 1 설정치를 조정하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
23. The method of claim 22,
Wherein the video content automatic editing system adjusts the first set value according to the video editing activation input of the first step.
제 26 항에 있어서,
상기 제 1 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 디스플레이에 대한 사용자의 터치를 상기 비디오 편집 활성화 입력으로 수신받고,
상기 제 3 단계는, 상기 사용자의 터치 시간의 증가에 따라 상기 비디오 컨텐츠 자동 편집 시스템이 상기 제 1 설정치를 높이는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
27. The method of claim 26,
Wherein the first step is a step in which the video content automatic editing system receives the user's touch on the display as the video editing activation input,
Wherein the third step is to increase the first set value by the automatic video content editing system according to the increase of the user's touch time.
제 26 항에 있어서,
상기 제 1 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 디스플레이에 대한 사용자의 터치를 상기 비디오 편집 활성화 입력으로 수신받고,
상기 제 3 단계는, 상기 사용자의 터치 압력의 증가에 따라 상기 비디오 컨텐츠 자동 편집 시스템이 상기 제 1 설정치를 높이는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
27. The method of claim 26,
Wherein the first step is a step in which the video content automatic editing system receives the user's touch on the display as the video editing activation input,
Wherein the third step is to increase the first set value by the automatic video editing system in response to an increase in the touch pressure of the user.
제 26 항에 있어서,
상기 제 1 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 디바이스의 흔들림을 상기 비디오 편집 활성화 입력으로 수신 받고,
상기 제 3 단계는, 상기 디바이스 흔들림 시간의 증가에 따라 상기 비디오 컨텐츠 자동 편집 시스템이 상기 제 1 설정치를 높이는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
27. The method of claim 26,
Wherein the first step is a step in which the video content automatic editing system receives the shake of the device as the video editing activation input,
Wherein the third step is to increase the first set value by the automatic video editing system in accordance with an increase in the device shake time.
제 26 항에 있어서,
상기 제 1 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 디바이스의 흔들림을 상기 비디오 편집 활성화 입력으로 수신받고,
상기 제 3 단계는, 상기 디바이스 흔들림 세기의 증가에 따라 상기 비디오 컨텐츠 자동 편집 시스템이 상기 제 1 설정치를 높이는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
27. The method of claim 26,
Wherein the first step is a step in which the video content automatic editing system receives the shake of the device as the video editing activation input,
Wherein the third step is to increase the first set value by the automatic video editing system according to the increase of the device shake intensity.
제 22 항에 있어서, 상기 비디오 컨텐츠 자동 편집 방법은, 상기 제 3 단계 이후에,
상기 비디오 컨텐츠 자동 편집 시스템이, 연속하는 상기 원본 비디오 시퀀스들 간의 코릴레이션인 시퀀스 코릴레이션이 제 2 설정치 이상인 원본 비디오 시퀀스들 중 적어도 어느 하나를 제거하는 상기 제 9 단계;를 더 포함하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
The video editing method of claim 22, wherein, after the third step,
And the ninth step wherein the automatic video editing system further comprises a step of removing at least one of the original video sequences whose sequence correlation is equal to or greater than a second set value as a correlation between the original video sequences, To automatically edit video content.
제 22 항에 있어서, 상기 비디오 컨텐츠 자동 편집 방법은, 상기 제 2 단계 이후에,
상기 비디오 컨텐츠 자동 편집 시스템이 제 k 원본 비디오 시퀀스 중 프레임 코릴레이션이 제 3 설정치(상기 제 3 설정치는 상기 제 1 설정치 보다 높음) 이상인 프레임들을 제거하는 제 10 단계;를 더 포함하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
The video editing method of claim 22, wherein after the second step,
And the automatic video editing system further comprises a step of removing frames having a frame correlation of the k-th original video sequence equal to or greater than a third set value (the third set value is higher than the first set value) How to automatically edit video content.
제 32 항에 있어서,
상기 비디오 컨텐츠 자동 편집 방법은, 상기 제 1 단계 내지 상기 제 3 단계 중에 상기 비디오 컨텐츠 자동 편집 시스템이, 상기 재배치 비디오 컨텐츠의 목표 재생시간을 설정하는 제 11 단계;를 더 포함하고,
상기 제 10 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 상기 목표 재생시간에 부합하도록 프레임 코릴레이션이 상기 제 3 설정치 이상인 프레임들을 제거하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
33. The method of claim 32,
The automatic video editing method further comprises an eleventh step of setting the target playback time of the relocated video content during the first step to the third step,
Wherein the step (c) includes the step of removing the frames whose frame correlation is equal to or greater than the third set value so that the automatic video editing system conforms to the target playback time.
제 32 항에 있어서,
상기 비디오 컨텐츠 자동 편집 방법은, 상기 제 1 단계 내지 상기 제 3 단계 중에 상기 비디오 컨텐츠 자동 편집 시스템이, 상기 재배치 비디오 컨텐츠의 오디오 트랙에 포함될 배경음악을 설정하는 제 12 단계;를 더 포함하고,
상기 제 10 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 상기 배경음악의 연주시간에 부합하도록 프레임 코릴레이션이 상기 제 3 설정치 이상인 프레임들을 제거하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
33. The method of claim 32,
The automatic video editing method further comprises a twelfth step of setting the background music to be included in the audio track of the rearranged video content during the first step to the third step,
Wherein the step (c) removes the frames whose frame correlation is equal to or greater than the third set value so that the video content automatic editing system matches the playing time of the background music.
제 22 항에 있어서,
상기 제 3 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 상기 제 2 단계의 연산 결과 카메라 이동 중 촬영된 프레임들 또는 카메라 회전 중 촬영된 프레임들을 카메라 조정 비디오 시퀀스로 더 구분하고,
상기 제 4 단계는, 상기 비디오 컨텐츠 자동 편집 시스템이 상기 카메라 조정 비디오 시퀀스를 제거하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
23. The method of claim 22,
The third step may further include a step of dividing the frames photographed during camera movement or frames photographed during camera rotation into the camera adjustment video sequence,
Wherein the fourth step is for the automatic video content editing system to remove the camera adjustment video sequence.
제 22 항에 있어서, 상기 제 4 단계는,
상기 비디오 컨텐츠 자동 편집 시스템이 상기 제 k 원본 비디오 시퀀스 또는 상기 서브셋 비디오 시퀀스 중 상기 제 2 단계의 연산 결과 카메라 이동 중 촬영된 비디오 프레임 또는 카메라 회전 중 촬영된 프레임인 카메라 조정 프레임을 제거하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
23. The method of claim 22,
Wherein the automatic video editing system removes a camera adjustment frame, which is a photographed video frame or a photographed frame during camera rotation, of the kth original video sequence or the subset video sequence during the movement of the camera as a result of the calculation of the second step To automatically edit video content.
제 22 항에 있어서, 상기 제 4 단계는,
상기 비디오 컨텐츠 자동 편집 시스템이, 상기 원본 비디오 시퀀스들 또는 상기 서브셋 비디오 시퀀스 중 적어도 어느 하나에 압축 재생하는 방법, 연장 재생하는 방법, 또는 역 재생하는 방법 중 적어도 하나의 방법을 랜덤하게 적용하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
23. The method of claim 22,
The automatic video editing system may randomly apply at least one of the method of compressing and reproducing to at least one of the original video sequences or the subset video sequence, The method comprising:
제 22 항에 있어서, 상기 비디오 컨텐츠 자동 편집 방법은, 상기 제 2 단계 이후에,
상기 비디오 컨텐츠 자동 편집 시스템이, 상기 원본 비디오 컨텐츠가 촬영된 시간대와 실질적으로 동일한 시간대에 다른 카메라 장치에 의해 촬영된 추가 비디오 컨텐츠를 로딩하는 제 13 단계;
상기 비디오 컨텐츠 자동 편집 시스템이, 상기 추가 비디오 컨텐츠의 적어도 일부의 추가 비디오 시퀀스를 추출하는 제 14 단계; 및
상기 비디오 컨텐츠 자동 편집 시스템이, 상기 추가 비디오 시퀀스를 상기 추가 비디오 시퀀스가 촬영된 시간대에 선행 또는 후행하는 상기 원본 비디오 시퀀스 중 적어도 어느 하나와 교체하거나 상기 추가 비디오 시퀀스가 촬영된 시간대에 인접하게 선행 또는 인접하게 후행하는 상기 원본 비디오 시퀀스의 일부 프레임들과 교체하는 제 15 단계;를 더 포함하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
The video editing method of claim 22, wherein after the second step,
The automatic video editing system further comprises: a thirteenth step of loading additional video content photographed by another camera device in a time zone substantially equal to a time zone in which the original video content was photographed;
(14) extracting at least a part of the additional video sequence of the additional video content; And
Wherein the video content auto-editing system comprises means for replacing the additional video sequence with at least one of the original video sequences preceding or following the time at which the additional video sequence was taken, And replacing the original video sequence with some of the frames of the original video sequence that are adjacent to each other.
제 38 항에 있어서, 상기 제 15 단계는,
상기 비디오 컨텐츠 자동 편집 시스템이 상기 원본 비디오 시퀀스에 포함된 제 1 오디오 신호 및 상기 추가 비디오 시퀀스에 포함된 제 2 오디오 신호를 비교하여 상기 추가 비디오 시퀀스를 교체하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
39. The method of claim 38,
Wherein the automatic video editing system replaces the additional video sequence by comparing a first audio signal included in the original video sequence and a second audio signal included in the additional video sequence.
제 38 항에 있어서, 상기 제 15 단계는,
상기 원본 비디오 시퀀스에 포함된 제 1 촬영시간 정보 및 상기 추가 비디오 시퀀스에 포함된 제 2 촬영시간 정보를 비교하여 상기 추가 비디오 시퀀스를 교체하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
39. The method of claim 38,
Wherein the additional video sequence is replaced by comparing first shooting time information included in the original video sequence and second shooting time information included in the additional video sequence.
제 22 항에 있어서, 상기 비디오 컨텐츠 자동 편집 방법은, 상기 제 2 단계 이후에,
상기 비디오 컨텐츠 자동 편집 시스템이, 상기 원본 비디오 컨텐츠가 촬영된 장소에 해당하는 자료화면 비디오 시퀀스를 로딩하는 제 16 단계;
상기 비디오 컨텐츠 자동 편집 시스템이, 상기 원본 비디오 컨텐츠에 상기 자료화면 비디오 시퀀스를 삽입하는 제 17 단계;를 더 포함하여 구성되는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
The video editing method of claim 22, wherein after the second step,
The automatic video editing system of claim 16, further comprising: a 16th step of loading a data screen video sequence corresponding to a place where the original video content is photographed;
Wherein the automatic video editing system further comprises a seventeenth step of inserting the data screen video sequence into the original video content.
제 22 항에 있어서, 상기 제 4 단계는,
상기 비디오 컨텐츠 자동 편집 시스템이 상기 재배치된 상기 서브셋 비디오 시퀀스의 시작지점 또는 종료지점 중 적어도 하나에 화면 전환 효과를 적용하는 것을 특징으로 하는 비디오 컨텐츠 자동 편집 방법.
23. The method of claim 22,
Wherein the video content automatic editing system applies a screen transition effect to at least one of a start point and an end point of the rearranged subset video sequence.
KR1020160034287A 2016-03-22 2016-03-22 Server for editing video contents automatically and method thereof KR101828601B1 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020160034287A KR101828601B1 (en) 2016-03-22 2016-03-22 Server for editing video contents automatically and method thereof
US16/087,167 US11438510B2 (en) 2016-03-22 2017-03-22 System and method for editing video contents automatically technical field
PCT/KR2017/003062 WO2017164640A1 (en) 2016-03-22 2017-03-22 System and method for editing video contents automatically technical field
KR1020180014765A KR102361811B1 (en) 2016-03-22 2018-02-06 Server for editing video contents automatically and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160034287A KR101828601B1 (en) 2016-03-22 2016-03-22 Server for editing video contents automatically and method thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020180014765A Division KR102361811B1 (en) 2016-03-22 2018-02-06 Server for editing video contents automatically and method thereof

Publications (2)

Publication Number Publication Date
KR20170121747A true KR20170121747A (en) 2017-11-03
KR101828601B1 KR101828601B1 (en) 2018-02-12

Family

ID=60383782

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160034287A KR101828601B1 (en) 2016-03-22 2016-03-22 Server for editing video contents automatically and method thereof

Country Status (1)

Country Link
KR (1) KR101828601B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116896654A (en) * 2023-09-11 2023-10-17 腾讯科技(深圳)有限公司 Video processing method and related device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5209593B2 (en) * 2009-12-09 2013-06-12 日本電信電話株式会社 Video editing apparatus, video editing method, and video editing program
CN104809116B (en) 2014-01-24 2018-10-19 腾讯科技(深圳)有限公司 A kind of method, apparatus and terminal of collection content

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116896654A (en) * 2023-09-11 2023-10-17 腾讯科技(深圳)有限公司 Video processing method and related device
CN116896654B (en) * 2023-09-11 2024-01-30 腾讯科技(深圳)有限公司 Video processing method and related device

Also Published As

Publication number Publication date
KR101828601B1 (en) 2018-02-12

Similar Documents

Publication Publication Date Title
US11438510B2 (en) System and method for editing video contents automatically technical field
JP5355422B2 (en) Method and system for video indexing and video synopsis
KR101396409B1 (en) Moving-image photographing apparatus and method thereof
JP5092000B2 (en) Video processing apparatus, method, and video processing system
EP2710594B1 (en) Video summary including a feature of interest
KR100564893B1 (en) Frame information description method and apparatus, frame information generating method and apparatus, special reproducing method and apparatus, apparatus for generating a special reproduction control information, and computer-readable recording medium
US8599316B2 (en) Method for determining key video frames
US20160358628A1 (en) Hierarchical segmentation and quality measurement for video editing
US8004594B2 (en) Apparatus, method, and program for controlling display of moving and still images
ITVI20120104A1 (en) METHOD AND APPARATUS TO GENERATE A VISUAL STORYBOARD IN REAL TIME
JP4253139B2 (en) Frame information description method, frame information generation apparatus and method, video reproduction apparatus and method, and recording medium
EP4195658A1 (en) Video processing method and electronic device
JP2013531843A (en) Determining key video snippets using selection criteria
JP5886839B2 (en) Information processing apparatus, information processing method, program, storage medium, and integrated circuit
KR20140010989A (en) Video summary including a particular person
JP2011044140A (en) Generation of video content from image set
US8619150B2 (en) Ranking key video frames using camera fixation
US8862974B2 (en) Image display apparatus and image display method
CN108958592B (en) Video processing method and related product
JP2006140559A (en) Image reproducing apparatus and image reproducing method
JP2008131617A (en) Video processing apparatus
KR101812103B1 (en) Method and program for setting thumbnail image
JP5096259B2 (en) Summary content generation apparatus and summary content generation program
KR101828601B1 (en) Server for editing video contents automatically and method thereof
KR101751863B1 (en) Server for editing video contents automatically and method thereof

Legal Events

Date Code Title Description
AMND Amendment
AMND Amendment
X701 Decision to grant (after re-examination)
A107 Divisional application of patent
GRNT Written decision to grant