KR101947553B1 - Apparatus and Method for video edit based on object - Google Patents

Apparatus and Method for video edit based on object Download PDF

Info

Publication number
KR101947553B1
KR101947553B1 KR1020120099769A KR20120099769A KR101947553B1 KR 101947553 B1 KR101947553 B1 KR 101947553B1 KR 1020120099769 A KR1020120099769 A KR 1020120099769A KR 20120099769 A KR20120099769 A KR 20120099769A KR 101947553 B1 KR101947553 B1 KR 101947553B1
Authority
KR
South Korea
Prior art keywords
editing
moving image
edited
information
unit
Prior art date
Application number
KR1020120099769A
Other languages
Korean (ko)
Other versions
KR20140033667A (en
Inventor
신호철
Original Assignee
에스케이플래닛 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이플래닛 주식회사 filed Critical 에스케이플래닛 주식회사
Priority to KR1020120099769A priority Critical patent/KR101947553B1/en
Publication of KR20140033667A publication Critical patent/KR20140033667A/en
Application granted granted Critical
Publication of KR101947553B1 publication Critical patent/KR101947553B1/en

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs

Landscapes

  • Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

본 발명은 객체 기반 동영상 편집 장치 및 방법에 관한 것으로, 동영상을 촬영하는 촬영부, 동영상 편집 애플리케이션을 구동시켜, 사용자의 조작에 따라 기 저장된 편집 대상 동영상 또는 다른 영상에서 편집 대상 객체와 그 편집 대상 객체의 편집 정보를 설정하는 객체 설정부, 상기 편집 대상 동영상 또는 촬영중인 동영상에서 상기 편집 대상 객체를 추적하고, 상기 추적된 편집 대상 객체를 상기 편집 정보에 따라 자동으로 편집하는 동영상 편집부를 포함한다. The present invention relates to an object-based moving image editing apparatus and method, which drives a shooting section and a moving image editing application for shooting a moving image, And an animation editing unit for tracking the editing object in the moving image or moving image and automatically editing the edited object in accordance with the editing information.

Description

객체 기반 동영상 편집 장치 및 방법{Apparatus and Method for video edit based on object}[0001] APPARATUS AND METHOD FOR VIDEO IMAGE EDITING [0002]

본 발명은 객체 기반 동영상 편집 장치 및 방법에 관한 것으로, 보다 상세하게는 동영상 편집 애플리케이션을 구동시켜, 사용자의 조작에 따라 기 저장된 편집 대상 동영상 또는 다른 영상에서 편집 대상 객체와 그 편집 대상 객체의 편집 정보를 설정하면, 편집 대상 동영상 또는 촬영중인 동영상에서 편집 대상 객체를 추적하고, 추적된 편집 대상 객체를 편집 정보에 따라 자동으로 편집하는 객체 기반 동영상 편집 장치 및 방법에 관한 것이다.
The present invention relates to an object-based moving image editing apparatus and method, and more particularly, to a moving object editing apparatus and method that drives a moving image editing application, Based video editing apparatus and method for tracking an object to be edited in a video to be edited or a movie being taken and automatically editing the edited object in accordance with the editing information.

최근 멀티미디어 정보(Multimedia Information)에 대한 수요가 급증하면서, 멀티미디어 콘텐츠(예를 들어, 동영상)에 대한 편집, 검색, 객체화 등에 관련한 다양한 기술이 폭넓게 개발되고 있다.2. Description of the Related Art Recently, as the demand for multimedia information has increased rapidly, various technologies related to editing, searching, objectification, etc. of multimedia contents (e.g., moving pictures) have been widely developed.

동영상에 대하여 인터랙티브(Interactive) 기능을 부여하기 위한 편집은 통상적으로 크게 세 가지 과정으로 이루어진다. 첫 번째 과정은 객체의 위치를 선정하여 분리하는 과정, 두 번째 과정은 객체 정보를 입력하는 과정, 세 번째 과정은 검수하는 과정이다. 이하, 각각의 과정에 대하여 설명하기로 한다.Editing for imparting an interactive function to a moving image is generally performed in three steps. The first step is the process of selecting and separating the object position, the second step is the process of inputting the object information, and the third step is the process of inspecting. Hereinafter, each process will be described.

먼저, 첫 번째 과정(객체의 위치를 선정하여 분리하는 과정)은 입력된 동영상에서 필요로 하는 의미 객체에 대하여 위치 및 영역을 선정하는 과정이다. 이러한 위치 및 영역은 해당 객체가 나타나는 시간 동안에 연속적으로 변화하는 정보를 담고 있어야 한다.First, the first process (process of selecting and separating object positions) is a process of selecting a position and an area for a semantic object required in the input moving image. These locations and areas must contain information that changes continuously over the time the object appears.

다음으로, 두 번째 과정(객체 정보를 입력하는 과정)은 편집자의 의도에 따라 의미 있는 객체를 추출하고, 그 추출된 객체에 다른 데이터(예를 들어, 다른 비디오 데이터, 다른 오디오 데이터, 다른 URL 링크 정보 등과 같은 메타 데이터 등)가 실시간으로 연결될 수 있도록 하는 정보를 입력하는 과정이다.Next, the second process (the process of inputting the object information) extracts a meaningful object according to the intention of the editor, and sends the extracted object another data (for example, another video data, another audio data, Information such as metadata, etc.) can be connected in real time.

다음으로, 세 번째 과정(검수 과정)은 앞의 두 가지 과정에서 이루어진 결과물에 대하여 검증을 하는 과정이다.Next, the third process (verification process) is a process of verifying the results of the two processes.

상기와 같은 세 가지 편집 과정 중에서 가장 많은 노력/시간/비용이 소모되는 과정이 바로 첫 번째 과정인 '객체의 위치를 선정하고 분리하는 과정'이기 때문에, 이러한 과정을 장면 인식, 객체 인식(예를 들면, 얼굴 인식 등), 자동 객체 추적 등의 인식 기반의 영상 처리 알고리즘을 통하여 자동화할 필요가 절실히 요구된다. Since the process of consuming the most effort / time / cost among the above three editing processes is the process of selecting and separating the position of the object, this process is called scene recognition, object recognition (Eg, face recognition), and automatic object tracking.

특히, 종래의 동영상 분석 기술에서는 동영상을 구성하는 모든 프레임들을 동등한 입장에서 취급하기 때문에, 특정 객체를 검색/검출하는데 있어서 많은 시간/노력/비용과 연산 부담이 소요되며, 이로 인하여 해당 동영상을 편집함에 있어서도 많은 시간/노력/비용이 소요되는 문제가 있다.Particularly, in the conventional moving image analysis technology, since all the frames constituting a moving image are treated in an equal position, it takes a lot of time / effort / cost and computation burden to search / detect a specific object, There is a problem that much time / effort / cost is required.

또한, 종래의 동영상 편집 서비스는 핸드폰 등의 mobile device에 대한 고려를 하지 않고, 이로 인해 작은 화면에서는 촬영과 편집이 동시에 일어나기 쉽지 않으며, 편집툴을 따로 사용하는 유저들 또한 많이 있는데, 이는 화면이 작고 조작이 쉽지 않다는 하드웨어(hardware)상의 제약사항이 있기 때문이다.
In addition, the conventional moving picture editing service does not consider a mobile device such as a mobile phone. Therefore, shooting and editing are not easy to occur simultaneously on a small screen, and there are many users who use an editing tool separately. This is because there are restrictions on the hardware that the operation is not easy.

한국등록특허 제10-1123370호, 발명의 명칭 '휴대단말용 객체기반 콘텐츠 제공방법 및 장치'Korean Patent No. 10-1123370, entitled " Method and Apparatus for Providing Object-Based Contents for Portable Terminals "

본 발명은 상기한 문제점을 해결하기 위하여 안출된 것으로, 본 발명의 목적은 기 저장된 동영상에서 편집 대상 객체 및 편집 정보를 설정하면, 그 동영상에서 편집 대상 객체를 추적하고, 추적된 편집 대상 객체를 편집 정보에 따라 자동으로 편집하여, 원본 동영상과는 별개로 편집된 동영상을 생성하는 객체 기반 동영상 편집 장치 및 방법을 제공하는데 있다. The object of the present invention is to solve the above-described problems, and it is an object of the present invention to provide a method and apparatus for editing an object to be edited, And an object-based moving image editing apparatus and method for automatically editing the moving image in accordance with information and generating an edited moving image separately from the original moving image.

본 발명의 다른 목적은 동영상 촬영 전에 편집 대상 객체 및 편집 정보를 설정하면, 동영상의 촬영과 동시에 편집 대상 객체를 포함하는 장면을 편집 정보에 따라 자동으로 편집하여, 촬영된 동영상과 편집된 동영상을 함께 생성하는 객체 기반 동영상 편집 장치 및 방법을 제공하는데 있다. It is another object of the present invention to provide a method and apparatus for editing an object to be edited and editing information before capturing a moving picture, Based video editing apparatus and method.

본 발명의 또 다른 목적은 동영상의 분석 및 편집 과정을 단순화 및 자동화함으로써 분석/편집에 소요되는 시간/노력/비용을 최소화할 수 있게 하는 객체 기반 동영상 편집 장치 및 방법을 제공하는데 있다. Another object of the present invention is to provide an object-based moving image editing apparatus and method that can minimize the time / effort / cost required for analysis / editing by simplifying and automating the process of analyzing and editing moving images.

본 발명의 또 다른 목적은 작은 크기의 LCD 등 제한된 환경을 가진 사용자 단말에서 사용자가 동영상의 편집을 최대한 자연스럽게 하도록 지원할 수 있는 객체 기반 동영상 편집 장치 및 방법을 제공하는데 있다. It is still another object of the present invention to provide an apparatus and method for object-based moving picture editing that can support a user to make editing of a moving picture as natural as possible in a user terminal having a limited environment such as a small size LCD.

본 발명의 또 다른 목적은 인물, 사물 등의 객체에 대한 편집을 자동으로 사용자 단말 상에서 할 수 있게 하는 객체 기반 동영상 편집 장치 및 방법을 제공하는데 있다. It is still another object of the present invention to provide an apparatus and method for object-based moving image editing that enables automatic editing of an object such as a person or object on a user terminal.

본 발명의 또 다른 목적은 동영상의 촬영과 그 동영상의 편집을 동시에 수행할 수 있는 객체 기반 동영상 편집 장치 및 방법을 제공하는데 있다.
Another object of the present invention is to provide an object-based moving image editing apparatus and method that can simultaneously perform shooting of a moving image and editing of the moving image.

본 발명의 일 측면에 따르면, 동영상을 촬영하는 촬영부, 동영상 편집 애플리케이션을 구동시켜, 사용자의 조작에 따라 기 저장된 편집 대상 동영상 또는 다른 영상에서 편집 대상 객체와 그 편집 대상 객체의 편집 정보를 설정하는 객체 설정부, 상기 편집 대상 동영상 또는 촬영중인 동영상에서 상기 편집 대상 객체를 추적하고, 상기 추적된 편집 대상 객체를 상기 편집 정보에 따라 자동으로 편집하는 동영상 편집부를 포함하는 객체 기반 동영상 편집 장치가 제공된다. According to an aspect of the present invention, there is provided a method of editing an object to be edited, comprising the steps of: driving a photographing unit and a moving image editing application for photographing a moving image and setting editing information of the object to be edited and the object to be edited, There is provided an object-based moving image editing apparatus including an object setting unit, a moving image editing unit that tracks the editing object in the moving image or moving image, and automatically edits the tracked object in accordance with the editing information .

상기 객체 설정부는 상기 편집 대상 동영상 또는 다른 영상에서 객체의 태깅 또는 객체 포함 영역의 드래그가 감지된 경우, 상기 태깅된 객체 또는 드래그된 영역에 포함된 객체를 편집 대상 객체로 설정할 수 있다. The object setting unit may set an object included in the tagged object or the dragged region as an edit target object when dragging of an object is detected by dragging the tagging object or the object containing region in the edit target moving image or another image.

상기 편집 정보는 편집 대상 객체의 잘라내기, 편집 대상 객체에 부가 정보 입력을 포함할 수 있다. The editing information may include cutting an object to be edited, and inputting additional information to the object to be edited.

상기 동영상 편집부는 상기 편집 대상 동영상 또는 촬영중인 동영상에서 블록 기반의 추적 방식 또는 특징 기반의 추적 방식을 이용하여 상기 편집 대상 객체를 추적하는 객체 추적 모듈, 상기 편집 대상 동영상 또는 촬영중인 동영상에서 상기 객체 추적 모듈에 의해 추적된 편집 대상 객체를 상기 편집 정보에 따라 자동으로 편집하는 동영상 편집 모듈을 포함할 수 있다. The moving picture editing unit may include an object tracking module that tracks the editing target object using the block-based tracking method or the feature-based tracking method in the editing target moving image or the moving image being captured, And a moving image editing module for automatically editing the editing target object tracked by the module according to the editing information.

본 발명의 다른 측면에 따르면, 동영상 편집 장치가 객체 기반 동영상을 편집하는 방법에 있어서, (a) 동영상 편집 애플리케이션을 구동시켜, 사용자의 조작에 따라 기 저장된 편집 대상 동영상 또는 다른 영상에서 편집 대상 객체와 그 편집 대상 객체의 편집 정보를 설정하는 단계, (b) 상기 편집 대상 동영상 또는 촬영중인 동영상에서 상기 편집 대상 객체를 추적하고, 상기 추적된 편집 대상 객체를 상기 편집 정보에 따라 자동으로 편집하는 단계를 포함하는 객체 기반 동영상 편집 방법이 제공된다. According to another aspect of the present invention, there is provided a method of editing an object-based moving picture, comprising the steps of: (a) driving a moving picture editing application, (B) tracking the editing target object in the moving image or moving image being captured, and automatically editing the tracked editing target object according to the editing information, Based video editing method is provided.

상기 (a) 단계는 기 저장된 편집 대상 동영상 또는 다른 영상에서 객체의 태깅 또는 객체 포함 영역의 드래그가 감지된 경우, 상기 태깅된 객체 또는 드래그된 영역에 포함된 객체를 편집 대상 객체로 설정하는 것을 특징으로 할 수 있다. In the step (a), when the tagging of the object or the dragging of the object-containing region is detected in the pre-stored moving image or another image, an object included in the tagged object or the dragged region is set as an object to be edited .

상기 (b) 단계는, 상기 편집 대상 동영상에서 블록 기반의 추적 방식 또는 특징 기반의 추적 방식을 이용하여 상기 편집 대상 객체를 추적하는 단계, 상기 편집 대상 동영상에서 상기 추적된 편집 대상 객체를 상기 편집 정보에 따라 자동으로 편집하는 단계를 포함할 수 있다. Wherein the step (b) comprises the steps of: tracking the editing target object using a block-based tracking method or a feature-based tracking method in the moving image to be edited; And automatically editing the content according to the content.

또한, 상기 (b) 단계는 촬영부를 통해 동영상을 촬영하는 단계, 상기 촬영중인 동영상에서 블록 기반의 추적 방식 또는 특징 기반의 추적 방식을 이용하여 상기 편집 대상 객체를 추적하고, 상기 추적된 편집 대상 객체를 상기 편집 정보에 따라 자동으로 편집하여, 원본 동영상과 편집된 동영상을 동시에 생성하는 단계를 포함할 수 있다. The step (b) may include capturing a moving image through the photographing unit, tracking the editing object using a block-based tracking method or a feature-based tracking method in the moving image, In accordance with the editing information, and simultaneously generating the original moving image and the edited moving image.

본 발명의 또 다른 측면에 따르면, (a) 동영상 편집 애플리케이션을 구동시켜, 사용자의 조작에 따라 기 저장된 편집 대상 동영상 또는 다른 영상에서 편집 대상 객체와 그 편집 대상 객체의 편집 정보를 설정하는 단계, (b) 상기 편집 대상 동영상 또는 촬영중인 동영상에서 상기 편집 대상 객체를 추적하고, 상기 추적된 편집 대상 객체를 상기 편집 정보에 따라 자동으로 편집하는 단계를 포함하는 객체 기반 동영상 편집 방법이 프로그램으로 기록된 전자장치에서 판독 가능한 기록매체가 제공된다.
According to another aspect of the present invention, there is provided a method of editing an object to be edited, comprising the steps of: (a) driving a moving image editing application, setting editing information of the object to be edited and the object to be edited in a pre- b) tracking the editing target object in the video to be edited or video being taken and automatically editing the edited target in accordance with the editing information, A recording medium readable by a device is provided.

본 발명에 따르면, 기 저장된 동영상에서 편집 대상 객체 및 편집 정보를 설정하면, 그 동영상에서 편집 대상 객체를 추적하고, 추적된 편집 대상 객체를 편집 정보에 따라 자동으로 편집하여, 원본 동영상과는 별개로 편집된 동영상을 생성할 수 있다. According to the present invention, when an object to be edited and edit information are set in a pre-stored movie, an object to be edited is tracked in the movie, the edited object to be edited is automatically edited according to the edit information, You can create an edited movie.

또한, 동영상 촬영 전에 편집 대상 객체 및 편집 정보를 설정하면, 동영상의 촬영과 동시에 편집 대상 객체를 포함하는 장면을 편집 정보에 따라 자동으로 편집하여, 촬영된 동영상과 편집된 동영상을 함께 생성할 수 있다. In addition, when the editing target object and the editing information are set before capturing a moving image, a scene including the object to be edited can be automatically edited according to the editing information at the same time of capturing the moving image, and the captured moving image and the edited moving image can be generated together .

또한, 동영상의 분석 및 편집 과정을 단순화 및 자동화함으로써 분석/편집에 소요되는 시간/노력/비용을 최소화할 수 있다. It also simplifies and automates the process of analyzing and editing videos, minimizing the time, effort, and cost of analysis / editing.

또한, 작은 크기의 LCD 등 제한된 환경을 가진 사용자 단말에서 사용자가 동영상의 편집을 최대한 자연스럽게 하도록 지원할 수 있다. Also, it is possible to support the user to make the editing of the moving picture as natural as possible in a user terminal having a limited environment such as a small size LCD.

또한, 인물, 사물 등의 객체에 대한 편집을 자동으로 사용자 단말 상에서 할 수 있고, 동영상의 촬영과 그 동영상의 편집을 동시에 수행할 수 있다.
Also, editing of an object such as a person or object can be automatically performed on the user terminal, and simultaneous shooting of the moving image and editing of the moving image can be performed simultaneously.

도 1은 본 발명에 따른 객체 기반 동영상 편집 장치를 나타낸 블럭도.
도 2는 본 발명의 일 실시예에 따른 동영상 편집 장치가 객체 기반 동영상을 편집하는 방법을 나타낸 흐름도.
도 3은 본 발명의 다른 실시예에 따른 객체 기반 동영상 편집 방법을 나타낸 흐름도.
1 is a block diagram illustrating an object-based moving image editing apparatus according to the present invention.
FIG. 2 is a flowchart illustrating a method of editing an object-based moving picture according to an embodiment of the present invention. FIG.
3 is a flowchart illustrating an object-based moving image editing method according to another embodiment of the present invention.

본 발명의 전술한 목적과 기술적 구성 및 그에 따른 작용 효과에 관한 자세한 사항은 본 발명의 명세서에 첨부된 도면에 의거한 이하 상세한 설명에 의해 보다 명확하게 이해될 것이다.The foregoing and other objects, features, and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG.

도 1은 본 발명에 따른 객체 기반 동영상 편집 장치를 나타낸 블럭도이다. 1 is a block diagram illustrating an object-based moving image editing apparatus according to the present invention.

도 1을 참조하면, 객체 기반 동영상 편집 장치(100)는 통신망을 통해 통신을 수행하기 위한 통신부(110), 인터페이스부(120), 촬영부(130), 출력부(140), 저장부(150), 동영상 재생부(160), 객체 설정부(170), 동영상 편집부(180)를 포함한다.1, the object-based moving image editing apparatus 100 includes a communication unit 110, an interface unit 120, a photographing unit 130, an output unit 140, a storage unit 150, A moving picture reproducing unit 160, an object setting unit 170, and a moving picture editing unit 180. [

통신부(110)는 동영상 편집 장치(100)와 웹 서비스를 제공하는 웹 서비스 제공 장치를 통신망을 통해 상호 연결시키는 통신 수단으로서, 예를 들어 이동통신, 위성통신 등의 무선 통신모듈, 인터넷 등의 유선 통신모듈, 와이파이 등의 근거리 무선 통신모듈 등을 포함할 수 있다. 통신부(110)를 통해 커뮤니케이션 서비스 장치에 접속하여 편집된 동영상을 업로드 할 수 있다. 여기서, 커뮤니케이션 서비스 장치는 사용자 단말에 커뮤니케이션 서비스를 제공하며, 예컨대 메신저 서비스 장치, SNS 서비스 장치, 개인 홈페이지 서비스 장치 등을 포함할 수 있다.The communication unit 110 is a communication unit that interconnects the moving picture editing apparatus 100 and the web service providing apparatus that provides the web service through a communication network. For example, the communication unit 110 may include a wireless communication module such as mobile communication and satellite communication, A communication module, a short-range wireless communication module such as a WiFi, and the like. The user can access the communication service apparatus through the communication unit 110 and upload the edited moving image. Here, the communication service device provides a communication service to the user terminal, and may include, for example, a messenger service device, an SNS service device, a personal homepage service device, and the like.

인터페이스부(120)는 사용자가 동영상 편집 장치(100)에 각종 데이터를 직접 입력하거나 각종 기능키를 구비하여 동영상 편집 장치(100)를 구동하기 위한 입력장치이다. 이러한 인터페이스부(120)는 키 버튼 형태뿐만 아니라, 출력부(140)상에 표시되는 가상의 버튼을 클릭하는 터치 스크린 형태로 구현될 수도 있다. 또한, 인터페이스부(120)는 사용자가 복잡한 구동을 보다 쉽게 수행할 수 있도록 매크로 값이 지정되어 있는 하나 이상의 단축키가 더 포함될 수 있다.The interface unit 120 is an input device for the user to directly input various data to the moving image editing apparatus 100 or to provide various function keys to drive the moving image editing apparatus 100. The interface unit 120 may be implemented not only in the form of a key button, but also in the form of a touch screen that clicks a virtual button displayed on the output unit 140. In addition, the interface unit 120 may further include one or more shortcut keys to which a macro value is assigned so that the user can more easily perform a complex operation.

촬영부(130)는 소정의 피사체를 촬영하여 사진 또는 동영상을 생성한다. 촬영부(130)는 카메라렌즈 및 아날로그 디지털 컨버터를 포함하고, 사용자의 조작에 따라 카메라 렌즈로 인입하는 촬영대상에 대한 영상을 전기적인 신호로 변환하여 사진 또는 동영상 포맷의 영상을 생성하는 기능을 수행한다.The photographing unit 130 photographs a predetermined subject to generate a photograph or a moving image. The photographing unit 130 includes a camera lens and an analog-to-digital converter. The photographing unit 130 converts an image of an object to be photographed by a camera lens into an electrical signal according to a user operation, do.

출력부(140)는 동영상을 화면상에 표시하는 역할을 수행한다. 출력부(140)는 동영상 편집 장치(100)의 구동시 각종 데이터를 표시하는 기능을 수행한다. 또한 출력부(140)는 촬영부(130)가 현재 촬영하고 있는 피사체와, 사용자의 조작에 따라 저장부(150)에 저장되어 있는 사진 및 동영상을 재생할 수 있다. 사용자는 동영상 편집시 출력부(140)상에 표시된 객체의 영역을 지정하여 편집 대상 객체를 설정할 수 있다. 이러한 출력부(140)는 LCD, OLED 등 소형 평판 디스플레이장치로 구현되는 것이 바람직하며, 전술한 인터페이스부(120)와 겹쳐 터치 스크린 형태로 구현될 수 있다.The output unit 140 plays a role of displaying moving pictures on the screen. The output unit 140 displays various data when the moving picture editing apparatus 100 is operated. Also, the output unit 140 can reproduce the photographed body currently photographed by the photographing unit 130 and the photographs and moving images stored in the storage unit 150 according to the user's operation. A user can set an object to be edited by designating an area of the object displayed on the output unit 140 when editing a moving image. The output unit 140 may be implemented as a small flat panel display device such as an LCD, an OLED, or the like, and may be implemented as a touch screen by overlapping with the interface unit 120 described above.

저장부(150)는 동영상 편집 장치(100)에서 이용되는 각종 데이터를 저장하는 기능을 수행하는 메모리 장치이다. 특히, 저장부(150)는 촬영부(130)가 생성한 동영상을 저장해 두었다가, 사용자가 동영상 편집 작업을 수행하려고 하면 편집툴상에 저장된 동영상을 제공한다.The storage unit 150 is a memory device that stores various data used in the moving picture editing apparatus 100. [ In particular, the storage unit 150 stores the moving image generated by the photographing unit 130, and provides the moving image stored on the editing tool when the user attempts to edit the moving image.

동영상 재생부(160)는 촬영부(130)에 의해 촬영된 동영상을 재생하는 역할을 수행한다. 즉, 동영상 재생부(160)는 저장부(150)에 저장된 하나 이상의 동영상 중, 사용자가 선택한 동영상을 해당 코덱에 맞게 디코딩하여 출렬부(140)를 통해 재생하는 기능을 수행한다. 이를 위해, 동영상 재생부(160)는 AVI 포맷의 동영상 파일 뿐만 아니라, MPEG, MPEG2, MPEG4, WMV, H.264 및 DIVX 등의 다양한 포맷의 동영상 파일을 디코딩할 수 있는 디코더를 포함할 수 있다.The moving image playback unit 160 plays back a moving image shot by the shooting unit 130. That is, the moving picture playback unit 160 decodes the moving picture selected by the user from among the one or more moving pictures stored in the storage unit 150 according to the codec, and plays the decoded moving picture through the arithmetic unit 140. For this, the moving picture playback unit 160 may include a decoder capable of decoding moving picture files in various formats such as MPEG, MPEG2, MPEG4, WMV, H.264, and DIVX as well as moving picture files in the AVI format.

객체 설정부(170)는 동영상 편집 애플리케이션을 구동시켜, 사용자의 조작에 따라 편집 대상 동영상 또는 기 저장된 다른 영상(정지영상 또는 동영상을 포함함)에서 편집 대상 객체를 설정하고, 그 편집 대상 객체의 편집 정보를 설정한다. The object setting unit 170 drives a moving image editing application to set an editing object in a moving image to be edited or another image (including a still image or a moving image) stored in accordance with a user operation, Set the information.

즉, 사용자가 저장부(150)에 저장된 동영상중에서 편집을 원하는 동영상을 선택하고, 그 선택된 동영상에서 편집 대상 객체 및 그 편집 대상 객체의 편집 정보를 입력하면, 객체 설정부(170)는 편집 대상 객체 및 그 편집 대상 객체의 편집 정보를 저장한다. 또한, 사용자는 동영상 촬영전에 저장부(150)에 저장된 정지영상 또는 다른 동영상을 이용하여 편집 대상 객체 및 그 편집 대상 객체의 편집 정보를 설정할 수 있다. 동영상 촬영전에 편집 대상 객체 및 편집 정보를 설정하면, 동영상 촬영과 동시에 촬영중인 동영상에서 상기 편집 대상 객체를 상기 편집 정보에 따라 자동으로 편집할 수 있다.That is, when the user selects a video to be edited from the videos stored in the storage unit 150 and inputs edit object and edit information of the edit object in the selected movie, the object setting unit 170 sets the edit object And edit information of the edit object. In addition, the user can set the edit object and the edit information of the edit object using the still image or other moving image stored in the storage unit 150 before capturing the moving image. If the editing target object and the editing information are set before capturing a moving image, the editing object can be automatically edited in accordance with the editing information in the moving image being captured simultaneously with the moving image capturing.

객체 설정부(170)는 동영상 편집 애플리케이션의 실행 후, 편집 대상 동영상 또는 다른 영상에서 객체의 태깅 또는 객체 포함 영역의 드래그가 감지된 경우, 상기 태깅된 객체 또는 드래그된 영역에 포함된 객체를 편집 대상 객체로 설정한다. 즉, 사용자가 저장부(150)에 저장된 동영상 중에서 편집을 원하는 동영상을 선택하고, 그 편집 대상 동영상의 프레임에서 편집을 원하는 인물, 사물 등의 객체를 선택 및 태깅하면, 객체 설정부(170)는 상기 태깅된 객체를 편집 대상 객체로 설정한다.After the execution of the moving image editing application, if the tagging of the object or the dragging of the object containing area is detected in the moving image to be edited or the other image, the object setting unit 170 sets the object included in the tagged object or the dragged area to the editing object Set it as an object. That is, when the user selects a moving image to be edited from the moving image stored in the storage unit 150 and selects and tags an object such as a person or object desired to be edited in the frame of the moving image to be edited, And sets the tagged object as an edit target object.

또한, 사용자가 저장부(150)에 저장된 동영상 중에서 편집을 원하는 동영상을 선택하고, 그 편집 대상 동영상의 프레임에서 편집을 원하는 인물, 사물 등을 포함하는 일부 영역을 드래그하면, 객체 설정부(170)는 화면상에서 드래그된 영역의 좌표를 판단하고, 그 영역에 포함된 인물 또는 사물의 객체를 인식하여, 그 인식된 객체를 편집 대상 객체로 설정한다. 즉, 객체 설정부(170)는 출력부(140)상에 현재 표시되는 프레임에서 사용자가 사각형 또는 원형 등과 같은 영역 지정 방식으로 일 영역을 선택하면, 그 선택된 영역에 포함된 객체를 편집 대상 객체로 설정한다. 예를 들어, 특정 인물의 얼굴에 있는 "안경"을 선택한 경우, 객체 설정부(170)는 '안경'을 편집 대상 객체로 설정할 수 있다. When the user selects a moving image to be edited from the moving image stored in the storage unit 150 and then dragged a partial area including a person or object to be edited in the frame of the moving image to be edited, Determines the coordinates of the dragged area on the screen, recognizes the object of the person or object included in the area, and sets the recognized object as the edit object. That is, when the user selects one area in an area designation scheme such as a rectangle or a circle in the frame currently displayed on the output unit 140, the object setting unit 170 sets the object included in the selected area as an edit target object Setting. For example, when "glasses" on the face of a specific person is selected, the object setting unit 170 can set 'glasses' as an object to be edited.

상기와 같이 편집 대상 객체를 설정한 후, 객체 설정부(170)는 편집 대상 객체를 편집할 방법에 대한 편집 정보를 입력받아 그 편집 대상 객체와 함께 저장한다. 예를 들어, 동영상에서 편집 대상 객체를 잘라내기 원하는 경우, 사용자는 '잘라내기'를 편집 정보로 설정할 수 있다. 또한, 편집 대상 객체에 부가 정보를 입력하기 원하는 경우, 사용자는 부가정보를 입력하여 그 편집 대상 객체와 링크가 설정되도록 편집 정보를 설정할 수 있다. After setting the object to be edited as described above, the object setting unit 170 receives editing information on how to edit the object to be edited, and stores the edited object together with the edited object. For example, if you want to cut an object to be edited in a movie, the user can set "cut" as the edit information. In addition, when it is desired to input the additional information to the object to be edited, the user can input the additional information and set the editing information so that the link with the object to be edited is set.

동영상 편집부(180)는 기 저장된 편집 대상 동영상 또는 촬영중인 동영상에서 편집 대상 객체를 추적하고, 그 추적된 편집 대상 객체를 기 설정된 편집 정보에 따라 자동으로 편집한다. The moving picture editing unit 180 tracks an object to be edited in the pre-stored moving picture or moving picture being taken, and automatically edits the edited object in accordance with preset editing information.

즉, 저장부(150)에 저장된 편집 대상 동영상에서 편집 대상 객체 및 편집 정보를 설정한 경우, 동영상 편집부(180)는 편집 대상 동영상에서 편집 대상 객체를 검출 및 추적하고, 그 추적된 편집 대상 객체를 상기 편집 정보에 따라 자동으로 편집하여, 원 동영상과는 별개로 편집된 동영상을 생성한다.That is, when the editing target object and the editing information are set in the editing target movie stored in the storage unit 150, the moving image editing unit 180 detects and tracks the editing target object in the editing target movie, Automatically edits according to the editing information, and generates a moving image edited separately from the original moving image.

또한, 편집을 원하는 동영상 촬영 전에, 기 저장된 정지영상 또는 다른 동영상을 이용하여 편집 대상 객체 및 편집 정보를 설정한 경우, 동영상 편집부(180)는 촬영부(130)에 의해 촬영되고 있는 동영상에서 편집 대상 객체를 검출 및 추적하고, 상기 편집 대상 객체를 상기 편집 정보에 따라 자동으로 편집한다. 이때, 촬영부(130)에 의해 촬영되고 있는 동영상은 저장부(150)에 저장됨과 동시에 동영상 편집부(180)에 의해 자동으로 편집되어 촬영 동영상과는 별개로 편집된 동영상이 생성된다. 이를 통해 사용자는 사용자 단말을 이용하여 동영상 촬영과 편집을 동시에 수행할 수 있다.In the case where the editing target object and the editing information are set by using the previously stored still image or another moving image before the moving image to be edited is set, the moving image editing unit 180 sets the editing target object and the editing information in the moving image captured by the photographing unit 130 Detects and tracks an object, and automatically edits the object to be edited according to the editing information. At this time, the moving image photographed by the photographing unit 130 is stored in the storage unit 150, and at the same time, a moving image edited separately from the photographed moving image is automatically generated by the moving image editing unit 180. [ Thus, the user can simultaneously perform video shooting and editing using the user terminal.

상기와 같은 역할을 수행하는 동영상 편집부(180)는 객체 추적모듈(182)과 동영상 편집 모듈(184)을 포함한다.The moving image editing unit 180 includes an object tracking module 182 and a moving image editing module 184.

객체 추적 모듈(182)은 편집 대상 동영상 또는 촬영 중인 동영상에서 객체 설정부(170)에서 설정된 편집 대상 객체를 추적하는 역할을 수행한다.The object tracking module 182 tracks an object to be edited set in the object setting unit 170 in a moving image to be edited or a moving image being taken.

객체 추적 모듈(182)은 소정의 알고리즘을 통해 동영상 내의 객체이동을 추적하는 기능을 수행한다. 이때, 객체 추적 모듈(182)은 Meanshift 알고리즘을 이용하여 객체를 추적하는 데, 먼저 색상공간 양자화를 통해 계산속도를 향상시키고, 가중 히스토그램을 계산한 후 유사성을 이용하여 다음 객체의 위치를 계산한다. 이후, 그 위치로 객체가 이동했다고 가정 후 다시 객체의 위치가 수렴할 때까지 계산을 반복하여 객체의 이동을 추적한다.The object tracking module 182 performs a function of tracking an object movement in a moving picture through a predetermined algorithm. At this time, the object tracking module 182 tracks the object using the Meanshift algorithm. First, the calculation speed is improved through the color space quantization, the weighted histogram is calculated, and the position of the next object is calculated using the similarity. After that, it is assumed that the object has moved to that position, and then the calculation is repeated until the position of the object converges to track the movement of the object.

또한, 객체 추적 모듈(182)은 블록 기반의 추적 방식, 특징 기반의 추적 방식 등을 이용하여 객체 설정부(170)에서 설정된 편집 대상 객체를 추적할 수 있다.In addition, the object tracking module 182 can track an object to be edited set in the object setting unit 170 using a block-based tracking method, a feature-based tracking method, or the like.

또한, 객체 추적 모듈(182)은 각각의 객체 유형별로 특징 추출 함수를 다르게 적용하여 편집 대상 객체를 추적할 수 있다. 객체 추적 모듈(182)은 객체 유형별로 해당 객체를 인식하기 위한 특징 데이터 및 알고리즘(객체 검출/인식 등에 대한 알고리즘)을 다르게 적용하기 위하여 객체별로 특징 데이터 및 특징 추출 알고리즘의 종류를 기억함으로써 정확히 객체 인식을 가능하게 한다. 예컨대, 사물인식과 얼굴 인식의 경우에 대하여 특징 데이터 및 알고리즘을 동일하게 적용하면 인식 자체가 불가능한 경우가 발생할 수 있다. 따라서 객체 유형에 따라 서로 다른 알고리즘과 서로 다른 특징 데이터가 적용되는 것이 바람직하다. 여기서, 객체 유형은 사람얼굴, 동물 얼굴, 의류 등을 포함할 수 있다. 따라서, 객체 추적 모듈(182)은 편집 대상 객체가 얼굴 객체 또는 비얼굴 객체 중 어느 하나에 속하는지에 따라 객체 검색/추적 관련 알고리즘을 다르게 적용할 수 있다. In addition, the object tracking module 182 can track the object to be edited by applying a feature extraction function to each object type differently. The object tracking module 182 stores the types of feature data and feature extraction algorithms for each object to differently apply feature data and algorithms (object detection / recognition algorithms, etc.) . For example, when the feature data and the algorithm are applied to the case of the object recognition and the face recognition in the same manner, the recognition itself may be impossible. Therefore, it is desirable that different algorithm and different characteristic data are applied depending on the object type. Here, the object type may include a human face, an animal face, clothes, and the like. Accordingly, the object tracking module 182 may apply the object search / tracking related algorithm differently depending on whether the object to be edited belongs to a face object or a non-face object.

예를 들어, 얼굴 검출 및 추적의 경우, 객체 추적 모듈(182)은 동영상의 프레임에서 사람의 얼굴 영역을 추출하고, 얼굴의 특징 벡터를 비교하여 동일 인물 여부를 판단하는 것이다. 객체는 그 객체 유형마다 특징 벡터(특징 데이터)가 서로 다르기 때문에 객체 검출/인식을 위한 알고리즘을 객체 유형별로 다르게 적용하는 것이 바람직하다. 특히, 얼굴의 경우에는 다른 유형의 객체(예를 들어, "자동차", "꽃병", "손", "의류" 등과 같은 비얼굴 객체)와는 다른 특성이 존재하는바, 적어도 얼굴과 비얼굴 객체로는 구분하여 서로 다른 알고리즘을 적용하는 것이 바람직하다. For example, in the case of face detection and tracking, the object tracking module 182 extracts a face region of a person from a frame of a moving image and compares the feature vectors of the face to determine whether the face is the same person. Because the object has different feature vectors (feature data) for each object type, it is desirable to apply the algorithm for object detection / recognition differently for each object type. Particularly, in the case of faces, there are characteristics different from those of other types of objects (for example, non-face objects such as "car", "vase", "hand" It is preferable to apply different algorithms.

비얼굴 검출 및 추적의 경우, 객체 추적 모듈(182)은 미리 저장되어 있는 객체의 특징 벡터나 사용자의 인터랙티브에 의해 추출된 객체의 특징 벡터를 이용하여, 비디오 샷 혹은 장면의 대표 프레임에서 동일 객체를 찾는다. 한편, 객체 추적 모듈(182)은 추출된 특징 벡터의 비교를 통하여 비교 대상의 두 객체가 동일한 객체인지 여부를 판단한다.In the case of non-face detection and tracking, the object tracking module 182 uses the feature vector of the object stored beforehand or the feature vector of the object extracted by the user's interactive to detect the same object in the representative frame of the video shot or scene Find. On the other hand, the object tracking module 182 determines whether two objects to be compared are the same object by comparing the extracted feature vectors.

동영상 편집 모듈(184)은 객체 추적 모듈(182)에 의해 추적된 편집 대상 객체를 객체 설정부(170)에서 설정된 편집 정보에 따라 자동으로 편집한다. 즉, 동영상 편집 모듈(184)은 객체 추적 모듈(182)에서 추적된 편집 대상 객체를 잘라내기, 부가 정보 입력 등의 편집을 수행할 수 있다. The video editing module 184 automatically edits the editing target object tracked by the object tracking module 182 according to the editing information set in the object setting unit 170. [ That is, the moving image editing module 184 can perform editing such as cutting the edited object tracked by the object tracking module 182, inputting additional information, and the like.

예를 들어, 특정 동영상에서 편집 대상 객체의 '잘라내기'를 편집 정보로 설정한 경우, 동영상 편집 모듈(184)은 추적된 편집 대상 객체를 그 동영상에서 자동으로 잘라낼 수 있다. 이때, 동영상 편집 모듈(184)은 편집 대상 객체가 포함된 프레임을 잘라내거나, 편집 대상 객체가 포함된 프레임에서 편집 대상 객체만을 잘라낼 수 있다. 또한, 편집 대상 객체에 부가 정보 입력이 편집 정보로 설정된 경우, 동영상 편집 모듈(184)은 편집 대상 객체와 매핑된 부가정보를 그 편집 대상 객체의 일정 영역에 삽입 또는 그 편집 대상 객체에 링크를 설정한다. 여기서, 부가정보에는 객체가 인물일 경우 이름, 전화번호, 이메일 주소 및 촬영날짜 등의 정보 포함할 수 있다. 또한, 객체가 상품일 경우 품명, 제조사, 사양, 구입방법 및 구입절차를 수행할 수 있는 웹 사이트 링크주소를 포함할 수 있다. 또한, 객체가 특정 지역일 경우 지역명, 위치 및 지역홍보 정보를 포함할 수 있다. For example, if the 'cut' of the editing target object is set as the editing information in a specific movie, the movie editing module 184 can automatically cut the tracked editing object from the movie. At this time, the moving image editing module 184 may cut a frame including the object to be edited, or may cut only the object to be edited in the frame including the object to be edited. When the additional information input to the editing object object is set as editing information, the moving image editing module 184 inserts the additional information mapped with the editing object object into a predetermined area of the editing object object or sets a link to the editing object object do. Here, the additional information may include information such as a name, a telephone number, an e-mail address, and a photographing date when the object is a person. Also, if the object is a commodity, it may include a name, a manufacturer, a specification, a purchase method, and a link to a website link that can perform the purchase procedure. In addition, if the object is a specific area, it may include the name of the area, the location, and the area publicity information.

상기와 같은 동영상 편집 장치(100)는 사용자 단말일 수 있다. 예를 들면, 노트북, 이동통신 단말, 스마트폰(Smart phone), PMP(Portable Media Player), PDA(Personal Digital Assistant), 타블렛 PC(Tablet PC), 셋탑박스(Set-top box), 스마트 TV 등 다양한 장치가 될 수 있다.The moving picture editing apparatus 100 may be a user terminal. For example, a notebook computer, a mobile communication terminal, a smart phone, a portable media player (PMP), a personal digital assistant (PDA), a tablet PC, a set- It can be a variety of devices.

도 2는 본 발명의 일 실시예에 따른 동영상 편집 장치가 객체 기반 동영상을 편집하는 방법을 나타낸 흐름도이다. FIG. 2 is a flowchart illustrating a method of editing an object-based moving image according to an embodiment of the present invention.

도 2를 참조하면, 동영상 편집 장치는 구비된 촬영부를 통해 동영상을 촬영하고(S202), 동영상 촬영 완료 후, 동영상 편집 애플리케이션을 실행시켜 상기 동영상에서 편집 대상 객체 및 그 편집 대상 객체의 편집 정보를 설정한다(S204). 이때, 사용자는 동영상에서 편집을 원하는 객체를 선택 및 태깅하여 편집 대상 객체로 설정할 수 있다. 또한, 사용자가 동영상에서 편집을 원하는 객체를 포함하는 영역을 드래그하여 선택하면, 동영상 편집 장치는 그 영역에 포함된 객체를 편집 대상 객체로 설정할 수 있다. 상기와 같이 편집 대상 객체를 설정한 후, 사용자는 편집 대상 객체를 편집할 방법에 대한 편집 정보를 함께 입력할 수 있다. 예를 들어, 동영상에서 편집 대상 객체를 잘라내기 원하는 경우, 사용자는 잘라내기를 편집 정보로 설정할 수 있다. 또한, 편집 대상 객체에 부가 정보를 입력하기 원하는 경우, 사용자는 부가정보를 입력하여 그 편집 대상 객체와 링크가 설정되도록 편집 정보를 설정할 수 있다. Referring to FIG. 2, the moving image editing apparatus captures a moving image through the photographing unit (S202). After completing the moving image shooting, the moving image editing application is executed to set the editing object and the editing information of the editing object in the moving image (S204). At this time, the user can select and tag an object desired to be edited in the moving image and set it as an editing target object. Further, if the user drags and selects an area including an object desired to be edited in the moving image, the moving image editing apparatus can set the object included in the area as the editing target object. After setting the object to be edited as described above, the user can input edit information on how to edit the object to be edited together. For example, if the user desires to cut an object to be edited in a movie, the user can set the cut-off as editing information. In addition, when it is desired to input the additional information to the object to be edited, the user can input the additional information and set the editing information so that the link with the object to be edited is set.

단계 S204가 수행되면, 동영상 편집 장치는 상기 촬영된 동영상에서 편집 대상 객체를 검출 및 추적하고(S206), 상기 추적된 편집 대상 객체를 상기 편집 정보에 따라 자동으로 편집한다(S208). 예를 들어, 편집 대상 객체에 설정된 편집 정보가 편집 대상 객체 잘라내기인 경우, 동영상 편집 장치는 동영상에서 편집 대상 객체를 자동으로 잘라내는 편집을 수행한다. When the step S204 is performed, the moving image editing apparatus detects and tracks an object to be edited in the photographed moving image (S206), and automatically edits the tracked edited object according to the editing information (S208). For example, when the editing information set on the editing target object is the editing target object, the moving image editing device performs editing that automatically cuts the editing target object in the moving image.

상기와 같이 동영상이 편집되면, 동영상 편집 장치는 촬영된 동영상과는 별개로 편집된 동영상을 생성하여 저장한다(S210). 편집된 동영상은 다른 사용자 단말로 전송될 수 있고, 커뮤니케이션 서비스 장치에 업로드 될 수 있다. When the moving image is edited as described above, the moving image editing device generates and stores the edited moving image separately from the captured moving image (S210). The edited moving image can be transmitted to another user terminal and uploaded to the communication service apparatus.

동영상 편집 장치는 편집 대상 동영상에서 편집 대상 객체 및 편집 정보가 설정되면, 그 동영상에서 편집 대상 객체를 추적하고, 추적된 편집 대상 객체를 편집 정보에 따라 자동으로 편집하여, 원본 동영상과는 별개로 편집된 동영상을 생성할 수 있다. The video editing device tracks the object to be edited in the video when the object to be edited and editing information is set in the video to be edited, automatically edits the edited object according to the editing information, and edits Can be generated.

도 3은 본 발명의 다른 실시예에 따른 객체 기반 동영상 편집 방법을 나타낸 흐름도이다. 3 is a flowchart illustrating an object-based moving image editing method according to another embodiment of the present invention.

도 3을 참조하면, 사용자는 동영상 촬영 전에 기 저장된 정지 영상 또는 다른 동영상에서 편집을 원하는 객체를 선택하여, 편집 대상 객체 및 그 편집 대상 객체의 편집 정보를 설정한다(S302).Referring to FIG. 3, the user selects an object to be edited from a still image or other moving image pre-recorded before capturing a moving image, and sets edit information of the object and the object to be edited (S302).

단계 302의 수행 후, 동영상 편집 장치가 동영상을 촬영하면(S304), 동영상 편집 장치는 촬영중인 동영상에서 편집 대상 객체를 추적하고(S306), 상기 추적된 편집 대상 객체를 상기 편집 정보에 따라 자동으로 편집한다(S308).After the step 302 is performed, if the moving image editing device captures a moving image (S304), the moving image editing device tracks the object to be edited in the movie being shot (S306), and automatically updates the tracked edition object in accordance with the editing information (S308).

단계 S308이 수행되면, 동영상 편집 장치는 원본 동영상과 편집된 동영상을 동시에 생성하여 저장한다(S310). When the step S308 is performed, the moving image editing device simultaneously generates and stores the original moving image and the edited moving image (S310).

상기와 같이 동영상 편집 장치는 동영상 촬영 전에 편집 대상 객체 및 편집 정보를 설정하면, 동영상의 촬영과 동시에 편집 대상 객체를 포함하는 장면을 편집 정보에 따라 자동으로 편집하여, 촬영된 동영상과 편집된 동영상을 함께 생성할 수 있다. As described above, when the video editing apparatus sets the editing target object and the editing information before capturing the moving image, the scene including the editing target object is automatically edited according to the editing information at the same time as the moving image is captured, Can be created together.

한편, 본 발명의 다른 측면에 따르면, (a) 동영상 편집 애플리케이션을 구동시켜, 사용자의 조작에 따라 기 저장된 편집 대상 동영상 또는 다른 영상에서 편집 대상 객체와 그 편집 대상 객체의 편집 정보를 설정하는 단계, (b) 상기 편집 대상 동영상 또는 촬영중인 동영상에서 상기 편집 대상 객체를 추적하고, 상기 추적된 편집 대상 객체를 상기 편집 정보에 따라 자동으로 편집하는 단계를 포함하는 객체 기반 동영상 편집 방법이 프로그램으로 기록된 전자장치에서 판독 가능한 기록매체가 제공된다.According to another aspect of the present invention, there is provided a method for editing an object to be edited, the method comprising: (a) operating a moving image editing application, setting editing information of the object to be edited and the object to be edited, (b) tracking the editing target object in the video to be edited or a movie being taken, and automatically editing the edited target in accordance with the editing information, the method comprising: A recording medium readable by an electronic apparatus is provided.

이러한 객체 기반 동영상 편집 방법은 프로그램으로 작성 가능하며, 프로그램을 구성하는 코드들 및 코드 세그먼트들은 당해 분야의 프로그래머에 의하여 용이하게 추론될 수 있다. 또한, 객체 기반 동영상 편집 방법에 관한 프로그램은 전자장치가 읽을 수 있는 정보저장매체(Readable Media)에 저장되고, 전자장치에 의하여 읽혀지고 실행될 수 있다.Such an object-based moving picture editing method can be written in a program, and the codes and code segments constituting the program can be easily deduced by a programmer in the field. In addition, a program relating to an object-based moving picture editing method can be stored in an information storage medium (Readable Media) readable by an electronic apparatus, and read and executed by an electronic apparatus.

이와 같이, 본 발명이 속하는 기술분야의 당업자는 본 발명이 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적인 것이 아닌 것으로서 이해해야만 한다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
Thus, those skilled in the art will appreciate that the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof. It is therefore to be understood that the embodiments described above are to be considered in all respects only as illustrative and not restrictive. The scope of the present invention is defined by the appended claims rather than the detailed description and all changes or modifications derived from the meaning and scope of the claims and their equivalents are to be construed as being included within the scope of the present invention do.

본 발명은 기 저장된 동영상에서 편집 대상 객체 및 편집 정보를 설정하면, 그 동영상에서 편집 대상 객체를 추적하고, 추적된 편집 대상 객체를 편집 정보에 따라 자동으로 편집하여, 원본 동영상과는 별개로 편집된 동영상을 생성할 수 있을 뿐 아니라, 동영상 촬영 전에 편집 대상 객체 및 편집 정보를 설정하면, 동영상의 촬영과 동시에 편집 대상 객체를 포함하는 장면을 편집 정보에 따라 자동으로 편집하여, 촬영된 동영상과 편집된 동영상을 함께 생성할 수 있는 객체 기반 동영상 편집 장치 및 방법에 적용될 수 있다.
According to the present invention, when an object to be edited and edit information are set in a pre-stored movie, the object to be edited is tracked in the movie, the edited object to be edited is automatically edited according to the edit information, Not only can a movie be created, but also an editing target object and editing information are set before the movie shooting, a scene including the editing target object is automatically edited according to the editing information at the same time as the movie is taken, Based video editing apparatus and method capable of generating moving images together.

100 : 동영상 편집 장치 110 : 통신부
120 : 인터페이스부 130 : 촬영부
140 : 출력부 150 : 저장부
160 : 동영상 재생부 170 : 객체 설정부
180 : 동영상 편집부 182 : 객체 추적 모듈
184 : 동영상 편집 모듈
100: video editing apparatus 110: communication unit
120: interface unit 130: photographing unit
140: output unit 150: storage unit
160: Moving picture playback unit 170: Object setting unit
180: Movie editing unit 182: Object tracking module
184: Video editing module

Claims (9)

동영상을 촬영하는 촬영부;
동영상 편집 애플리케이션을 구동시켜, 사용자의 조작에 따라 기 저장된 편집 대상 동영상 또는 다른 영상에서 편집 대상 객체와 그 편집 대상 객체의 편집 정보를 설정하는 객체 설정부; 및
상기 편집 대상 동영상 또는 촬영중인 동영상에서 상기 편집 대상 객체를 추적하고, 상기 추적된 편집 대상 객체를 상기 편집 정보에 따라 자동으로 편집하는 동영상 편집부;
를 포함하고,
상기 동영상 편집부는
상기 객체 설정부를 통해 사전에 설정된 상기 편집 대상 객체에 상응하게 객체를 추적하고, 상기 객체 설정부를 통해 사전에 설정된 상기 편집 정보에 상응하게 편집을 수행하는 것을 특징으로 하는 객체 기반 동영상 편집 장치.
A photographing unit for photographing a moving picture;
An object setting unit for driving a video editing application and setting edit object and edit information of the object to be edited in a pre-stored video or other image to be edited according to a user's operation; And
A moving image editing unit that tracks the editing object in the moving image or moving image being captured and automatically edits the tracked object in accordance with the editing information;
Lt; / RTI >
The moving picture editing unit
Wherein the object editing unit tracks an object in accordance with the editing object set in advance through the object setting unit and performs editing according to the editing information set in advance through the object setting unit.
제1항에 있어서,
상기 객체 설정부는 상기 편집 대상 동영상 또는 다른 영상에서 객체의 태깅 또는 객체 포함 영역의 드래그가 감지된 경우, 상기 태깅된 객체 또는 드래그된 영역에 포함된 객체를 편집 대상 객체로 설정하는 것을 특징으로 하는 객체 기반 동영상 편집 장치.
The method according to claim 1,
Wherein the object setting unit sets an object included in the tagged object or the dragged region as an edit target object when tagging of the object or dragging of the object containing region is detected in the edit target moving image or another image Based video editing device.
제1항에 있어서,
상기 편집 정보는 편집 대상 객체의 잘라내기, 편집 대상 객체에 부가 정보 입력을 포함하는 것을 특징으로 하는 객체 기반 동영상 편집 장치.
The method according to claim 1,
Wherein the editing information comprises a cut of an object to be edited, and an additional information input to the object to be edited.
제1항에 있어서,
상기 동영상 편집부는,
상기 편집 대상 동영상 또는 촬영중인 동영상에서 블록 기반의 추적 방식 또는 특징 기반의 추적 방식을 이용하여 상기 편집 대상 객체를 추적하는 객체 추적 모듈; 및
상기 편집 대상 동영상 또는 촬영중인 동영상에서 상기 객체 추적 모듈에 의해 추적된 편집 대상 객체를 상기 편집 정보에 따라 자동으로 편집하는 동영상 편집 모듈을 포함하는 것을 특징으로 하는 객체 기반 동영상 편집 장치.
The method according to claim 1,
Wherein the moving picture editing unit comprises:
An object tracking module for tracking the editing target object using the block-based tracking method or the feature-based tracking method in the moving image to be edited or the moving image to be captured; And
And a moving image editing module for automatically editing the editing target object tracked by the object tracking module in the editing target moving image or the moving image being captured according to the editing information.
동영상 편집 장치가 객체 기반 동영상을 편집하는 방법에 있어서,
(a) 동영상 편집 애플리케이션을 구동시켜, 사용자의 조작에 따라 기 저장된 편집 대상 동영상 또는 다른 영상에서 편집 대상 객체와 그 편집 대상 객체의 편집 정보를 설정하는 단계; 및
(b) 상기 편집 대상 동영상 또는 촬영중인 동영상에서 상기 편집 대상 객체를 추적하고, 상기 추적된 편집 대상 객체를 상기 편집 정보에 따라 자동으로 편집하는 단계;
를 포함하고,
상기 자동으로 편집하는 단계는
상기 설정하는 단계에서 사전에 설정된 상기 편집 대상 객체에 상응하게 객체를 추적하고, 상기 설정하는 단계에서 사전에 설정된 상기 편집 정보에 상응하게 편집을 수행하는 것을 특징으로 하는 객체 기반 동영상 편집 방법.
A method for editing an object-based moving picture by a moving picture editing apparatus,
(a) driving a moving picture editing application, and setting editing information of an editing object and an object to be edited in a video or an image to be edited, which are pre-stored according to a user's operation; And
(b) tracking the editing target object in the editing target moving image or moving image being captured, and automatically editing the tracked editing target object according to the editing information;
Lt; / RTI >
The automatically editing step
Wherein the object is tracked in accordance with the object to be edited previously set in the setting step, and editing is performed in accordance with the edit information preset in the setting step.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020120099769A 2012-09-10 2012-09-10 Apparatus and Method for video edit based on object KR101947553B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120099769A KR101947553B1 (en) 2012-09-10 2012-09-10 Apparatus and Method for video edit based on object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120099769A KR101947553B1 (en) 2012-09-10 2012-09-10 Apparatus and Method for video edit based on object

Publications (2)

Publication Number Publication Date
KR20140033667A KR20140033667A (en) 2014-03-19
KR101947553B1 true KR101947553B1 (en) 2019-02-13

Family

ID=50644436

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120099769A KR101947553B1 (en) 2012-09-10 2012-09-10 Apparatus and Method for video edit based on object

Country Status (1)

Country Link
KR (1) KR101947553B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022164205A1 (en) * 2021-01-26 2022-08-04 삼성전자 주식회사 Electronic device for performing screen capture and method for capturing screen by electronic device

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102231163B1 (en) * 2020-12-02 2021-03-23 주식회사 고원태스튜디오 Electronic device for editing a video and method for operating thereof
KR102521905B1 (en) 2022-11-28 2023-04-17 (주)비디오몬스터 System and method for providing automatic video editing and map service synchronized with the edited video

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022164205A1 (en) * 2021-01-26 2022-08-04 삼성전자 주식회사 Electronic device for performing screen capture and method for capturing screen by electronic device

Also Published As

Publication number Publication date
KR20140033667A (en) 2014-03-19

Similar Documents

Publication Publication Date Title
WO2022001593A1 (en) Video generation method and apparatus, storage medium and computer device
US10652455B2 (en) Guided video capture for item listings
US10685460B2 (en) Method and apparatus for generating photo-story based on visual context analysis of digital content
TWI253860B (en) Method for generating a slide show of an image
CN107357494B (en) Data processing method and device and terminal equipment
CN113010703B (en) Information recommendation method and device, electronic equipment and storage medium
US20090143881A1 (en) Digital media recasting
CN108449631B (en) Method, apparatus and readable medium for media processing
KR101123370B1 (en) service method and apparatus for object-based contents for portable device
KR20090093904A (en) Apparatus and method for scene variation robust multimedia image analysis, and system for multimedia editing based on objects
EP4222740A1 (en) Ad breakpoints in video within messaging system
CN116710881A (en) Selecting audio for multiple video clip capture
CN111583348B (en) Image data encoding method and device, image data displaying method and device and electronic equipment
KR20230079261A (en) Inserting advertisements into videos within the messaging system
WO2023202570A1 (en) Image processing method and processing apparatus, electronic device and readable storage medium
KR20230079263A (en) Advertising selection for videos within the messaging system
CN113709545A (en) Video processing method and device, computer equipment and storage medium
KR101947553B1 (en) Apparatus and Method for video edit based on object
CN113596574A (en) Video processing method, video processing apparatus, electronic device, and readable storage medium
US20230419997A1 (en) Automatic Non-Linear Editing Style Transfer
CN114500879A (en) Video data processing method, device, equipment and storage medium
Ram et al. Video Analysis and Repackaging for Distance Education
US20180077460A1 (en) Method, System, and Apparatus for Providing Video Content Recommendations
CN113256655A (en) Video segmentation method based on picture characteristics and storage medium
CN115278378B (en) Information display method, information display device, electronic apparatus, and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant