KR102276789B1 - Method and apparatus for editing video - Google Patents

Method and apparatus for editing video Download PDF

Info

Publication number
KR102276789B1
KR102276789B1 KR1020200172551A KR20200172551A KR102276789B1 KR 102276789 B1 KR102276789 B1 KR 102276789B1 KR 1020200172551 A KR1020200172551 A KR 1020200172551A KR 20200172551 A KR20200172551 A KR 20200172551A KR 102276789 B1 KR102276789 B1 KR 102276789B1
Authority
KR
South Korea
Prior art keywords
graphic object
user
playback time
clip
video
Prior art date
Application number
KR1020200172551A
Other languages
Korean (ko)
Inventor
이태준
Original Assignee
브이로거 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 브이로거 주식회사 filed Critical 브이로거 주식회사
Priority to KR1020200172551A priority Critical patent/KR102276789B1/en
Application granted granted Critical
Publication of KR102276789B1 publication Critical patent/KR102276789B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8146Monomedia components thereof involving graphical data, e.g. 3D object, 2D graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Graphics (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

The present disclosure relates to a method for editing a video. The method for editing the video includes: playing at least one video clip, which is an editing target, on a preview region; receiving a user selection for adding a graphic object at a first playback time point of the at least one video clip; stopping the playing at the first playback time point of the video clip in response to the reception of the user selection for adding the graphic object; displaying the graphic object on the preview region together with a frame image at the first playback time point of the video clip; playing the at least one video clip on the preview region from the first playback time point in response to a user request for a movement record of the graphic object; and recording a path in which a user moves the graphic object by using a drag gesture on the preview region while playing the at least one video clip from the first playback time point. Accordingly, a movement path, a size change history, a display angle change history, and the like of the graphic object are changed in real time according to a content of a video clip.

Description

동영상 편집 방법 및 장치{METHOD AND APPARATUS FOR EDITING VIDEO}Video editing method and device {METHOD AND APPARATUS FOR EDITING VIDEO}

본 개시는 동영상 편집 방법 및 장치에 관한 것으로, 구체적으로 동영상 편집 어플리케이션 등을 이용하여 간단하게 동영상 편집을 수행하기 위한 동영상 편집 방법 및 장치에 관한 것이다.The present disclosure relates to a video editing method and apparatus, and more particularly, to a video editing method and apparatus for simply performing video editing using a video editing application or the like.

SNS(Social Network Service), 동영상 공유 플랫폼 등과 같이 이미지, 동영상 등을 업로드하고, 다른 사람들과 공유할 수 있는 어플리케이션, 플랫폼 등이 지속적으로 개발되고 있다. 이러한 환경에서 촬영된 동영상을 편집하기 위한 다양한 어플리케이션 및 프로그램이 출시되고 있다.Applications and platforms that can upload images and videos, such as SNS (Social Network Service) and video sharing platforms, and share them with others, are continuously being developed. Various applications and programs for editing a video shot in such an environment are being released.

그러나, 현재 사용되고 있는 다양한 동영상 편집 프로그램은 사용 방법이 복잡하여, 전문가를 제외하고는 일반인이 쉽게 사용하기 어려운 문제가 있다. 특히, 일반인이 사용자 단말만을 이용하여 자막, 스티커 등을 직관적으로 쉽게 편집하기 어렵다는 문제가 있다.However, various video editing programs currently in use have complicated methods of use, making it difficult for ordinary people to easily use them except for experts. In particular, there is a problem in that it is difficult for ordinary people to intuitively and easily edit subtitles and stickers using only the user terminal.

본 개시는 상기와 같은 문제를 해결하기 위한 동영상 편집 방법, 기록 매체에 저장된 컴퓨터 프로그램 및 장치(시스템)를 제공한다.The present disclosure provides a video editing method, a computer program stored in a recording medium, and an apparatus (system) for solving the above problems.

본 개시는 방법, 장치(시스템) 또는 판독 가능 저장 매체에 저장된 컴퓨터 프로그램을 포함한 다양한 방식으로 구현될 수 있다.The present disclosure may be implemented in various ways including a method, an apparatus (system), or a computer program stored in a readable storage medium.

본 개시의 일 실시예에 따르면, 적어도 하나의 프로세서에 의해 수행되는 동영상 편집 방법은, 편집 대상이 되는 적어도 하나의 동영상 클립을 미리 보기 영역 상에서 재생하는 단계, 적어도 하나의 동영상 클립의 제1 재생 시점에서 그래픽 객체를 추가하기 위한 사용자의 선택을 수신하는 단계, 그래픽 객체를 추가하기 위한 사용자의 선택을 수신하는 것에 응답하여, 동영상 클립의 제1 재생 시점에서 재생을 정지하는 단계, 그래픽 객체를 동영상 클립의 제1 재생 시점의 프레임 이미지와 함께 미리 보기 영역 상에 표시하는 단계, 사용자가 그래픽 객체의 이동 기록을 요청하는 것에 응답하여, 적어도 하나의 동영상 클립을 제1 재생 시점부터 미리 보기 영역 상에서 재생하는 단계 및 적어도 하나의 동영상 클립을 제1 재생 시점부터 재생하는 동안 사용자가 미리 보기 영역 상에서 그래픽 객체를 드래그 제스처로 이동하는 경로를 기록하는 단계를 포함한다.According to an embodiment of the present disclosure, a video editing method performed by at least one processor includes playing back at least one video clip to be edited on a preview area, and a first playback time of the at least one video clip. receiving a user's selection to add a graphic object in the , in response to receiving a user's selection to add a graphic object, stopping playback at a first playback point of the moving picture clip, converting the graphic object into a moving picture clip Displaying on the preview area together with the frame image of the first playback time of , in response to a user request to record the movement of the graphic object, playing at least one video clip on the preview area from the first playback time and recording a path in which a user moves a graphic object with a drag gesture on a preview area while playing at least one moving picture clip from a first playback time point.

본 개시의 일 실시예에 따르면, 적어도 하나의 동영상 클립을 제1 재생 시점부터 재생하는 동안 사용자가 미리 보기 영역 상에서 그래픽 객체를 드래그 제스처로 이동하는 경로를 기록하는 단계는, 사용자의 드래그 제스처에 기초하여 제1 재생 시점부터 그래픽 객체의 위치 정보를 미리 정해진 시간 간격마다 기록하는 단계를 포함한다.According to an embodiment of the present disclosure, the step of recording a path by which a user moves a graphic object with a drag gesture on the preview area while playing at least one video clip from a first playback point of time is based on the user's drag gesture. and recording the location information of the graphic object at predetermined time intervals from the first playback time point.

본 개시의 일 실시예에 따르면, 적어도 하나의 동영상 클립을 제1 재생 시점부터 재생하는 동안 사용자가 미리 보기 영역 상에서 그래픽 객체의 크기를 핀치 제스처로 변경하는 내역을 기록하는 단계를 더 포함한다.According to an embodiment of the present disclosure, the method further includes recording a history in which the user changes the size of a graphic object using a pinch gesture on the preview area while playing at least one video clip from the first playback time point.

본 개시의 일 실시예에 따르면, 적어도 하나의 동영상 클립을 제1 재생 시점부터 재생하는 동안 사용자가 미리 보기 영역 상에서 그래픽 객체의 크기를 핀치 제스처로 변경하는 내역을 기록하는 단계는, 사용자의 핀치 제스처에 기초하여 제1 재생 시점부터 그래픽 객체의 크기 정보를 미리 정해진 시간 간격마다 기록하는 단계를 포함한다.According to an embodiment of the present disclosure, the step of recording a history in which the user changes the size of a graphic object using a pinch gesture on the preview area while playing at least one video clip from the first playback time includes: the user's pinch gesture and recording the size information of the graphic object at predetermined time intervals from the first playback time point based on the .

본 개시의 일 실시예에 따르면, 적어도 하나의 동영상 클립을 제1 재생 시점부터 재생하는 동안 사용자가 미리 보기 영역 상에서 그래픽 객체의 각도를 회전 제스처로 변경하는 내역을 기록하는 단계를 더 포함한다.According to an embodiment of the present disclosure, the method further includes recording a history in which a user changes an angle of a graphic object using a rotation gesture on a preview area while playing at least one moving picture clip from a first playback time point.

본 개시의 일 실시예에 따르면, 적어도 하나의 동영상 클립을 제1 재생 시점부터 재생하는 동안 사용자가 미리 보기 영역 상에서 그래픽 객체의 표시 각도를 회전 제스처로 변경하는 내역을 기록하는 단계는, 사용자의 회전 제스처에 기초하여 제1 재생 시점부터 그래픽 객체의 표시 각도를 미리 정해진 시간 간격마다 기록하는 단계를 포함한다.According to an embodiment of the present disclosure, the step of recording the details of the user changing the display angle of the graphic object with a rotation gesture on the preview area while playing at least one video clip from the first playback time may include: and recording the display angle of the graphic object at predetermined time intervals from the first playback time point based on the gesture.

본 개시의 일 실시예에 따르면, 적어도 하나의 동영상 클립의 제2 재생 시점에서 사용자가 그래픽 객체 상의 입력을 해제하는 것에 응답하여, 적어도 하나의 동영상 클립을 제1 재생 시점부터 미리 보기 영역 상에서 다시 재생하는 단계를 더 포함한다.According to an embodiment of the present disclosure, in response to the user releasing an input on the graphic object at the second playback time of the at least one moving picture clip, the at least one moving picture clip is played back on the preview area from the first playback time further comprising the step of

본 개시의 일 실시예에 따르면, 적어도 하나의 동영상 클립을 제1 재생 시점부터 미리 보기 영역 상에서 다시 재생하는 단계는, 그래픽 객체를 제1 재생 시점에서 제2 재생 시점까지 기록된 이동 경로에 따라 미리 보기 영역 상에서 함께 표시하는 단계를 포함한다.According to an embodiment of the present disclosure, the step of replaying the at least one moving picture clip on the preview area from the first playback time may include pre-reproducing the graphic object according to the recorded movement path from the first playback time to the second playback time. and displaying them together on the viewing area.

본 개시의 일 실시예에 따르면, 그래픽 객체는 텍스트 객체, 자막 객체 또는 스티커 객체 중 적어도 하나를 포함한다.According to an embodiment of the present disclosure, the graphic object includes at least one of a text object, a caption object, and a sticker object.

본 개시의 일 실시예에 따르면, 적어도 하나의 동영상 클립의 제2 재생 시점에서 사용자가 그래픽 객체 상의 입력을 해제하는 것에 응답하여, 그래픽 객체와 연관된 레이어를 타임라인 영역 상에 표시하는 단계를 더 포함한다.According to an embodiment of the present disclosure, the method further includes displaying a layer associated with the graphic object on a timeline area in response to a user releasing an input on the graphic object at a second playback time of at least one moving picture clip do.

본 개시의 일 실시예에 따르면, 사용자가 그래픽 객체와 연관된 레이어를 선택하는 것에 응답하여, 트리밍 편집이 용이하도록 레이어를 상하로 확장하여 표시하는 단계를 더 포함한다.According to an embodiment of the present disclosure, in response to a user selecting a layer associated with a graphic object, the method further includes expanding and displaying the layer so as to facilitate trimming and editing.

본 개시의 일 실시예에 따른 상술된 방법을 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 제공된다.There is provided a computer program stored in a computer-readable recording medium for executing the above-described method according to an embodiment of the present disclosure in a computer.

본 개시의 일 실시예에 따른 장치는, 메모리 및 메모리와 연결되고, 메모리에 포함된 컴퓨터 판독 가능한 적어도 하나의 프로그램을 실행하도록 구성된 적어도 하나의 프로세서를 포함한다. 적어도 하나의 프로그램은, 편집 대상이 되는 적어도 하나의 동영상 클립을 미리 보기 영역 상에서 재생하고, 적어도 하나의 동영상 클립의 제1 재생 시점에서 그래픽 객체를 추가하기 위한 사용자의 선택을 수신하고, 그래픽 객체를 추가하기 위한 사용자의 선택을 수신하는 것에 응답하여, 동영상 클립의 제1 재생 시점에서 재생을 정지하고, 그래픽 객체를 동영상 클립의 제1 재생 시점의 프레임 이미지와 함께 미리 보기 영역 상에 표시하고, 사용자가 그래픽 객체의 이동 기록을 요청하는 것에 응답하여, 적어도 하나의 동영상 클립을 제1 재생 시점부터 미리 보기 영역 상에서 재생하고, 적어도 하나의 동영상 클립을 제1 재생 시점부터 재생하는 동안 사용자가 미리 보기 영역 상에서 그래픽 객체를 드래그 제스처로 이동하는 경로를 기록하기 위한 명령어들을 포함한다.An apparatus according to an embodiment of the present disclosure includes a memory and at least one processor connected to the memory and configured to execute at least one computer-readable program included in the memory. The at least one program plays at least one moving picture clip to be edited on the preview area, receives a user's selection for adding a graphic object at a first playback time of the at least one moving picture clip, and selects the graphic object. In response to receiving the user's selection to add, stop playback at a first playback point of the movie clip, display the graphic object on a preview area along with a frame image of the movie clip's first playback time, and In response to a request to record the movement of the graphic object, at least one video clip is played on the preview area from the first playback time point, and the user plays the at least one video clip from the first playback time point in the preview area. It includes instructions for recording a path of moving a graphic object with a drag gesture on the screen.

본 개시의 다양한 실시예에서, 사용자는 동영상 클립이 재생되는 동안에 동영상 편집을 수행함으로써, 그래픽 객체의 이동 경로, 크기 변경 내역, 표시 각도 변경 내역 등을 동영상 클립의 내용에 따라 실시간으로 변경할 수 있다.In various embodiments of the present disclosure, the user may change the moving path, size change history, display angle change history, etc. of the graphic object in real time according to the contents of the moving picture clip by performing video editing while the moving picture clip is being played.

본 개시의 다양한 실시예에서, 사용자는 미리 보기 영역을 통해 컷 편집을 수행할 동영상의 부분을 쉽게 인식할 수 있으며, 버튼에 대한 터치 입력만으로 간단하게 동영상 클립을 생성할 수 있다.In various embodiments of the present disclosure, a user may easily recognize a portion of a video to be cut-edited through a preview area, and may simply create a video clip by simply inputting a touch on a button.

본 개시의 다양한 실시예에서, 사용자는 동영상 클립의 재생 화면을 확인하면서 간단한 드래그 제스처만으로 동영상 클립에 포함시킬 그래픽 객체의 위치를 자유롭게 이동시킬 수 있다.In various embodiments of the present disclosure, the user may freely move the position of the graphic object to be included in the moving picture clip with a simple drag gesture while checking the playback screen of the moving picture clip.

본 개시의 다양한 실시예에서, 사용자는 동영상 클립의 재생 화면을 확인하면서 간단한 회전 제스처만으로 동영상 클립에 포함시킬 그래픽 객체의 표시 각도를 자유롭게 변경할 수 있다.In various embodiments of the present disclosure, a user may freely change a display angle of a graphic object to be included in a moving picture clip only with a simple rotation gesture while checking the playback screen of the moving picture clip.

본 개시의 다양한 실시예에서, 사용자는 동영상 클립의 재생 화면을 확인하면서 간단한 핀치 제스처만으로 동영상 클립에 포함시킬 그래픽 객체의 크기를 자유롭게 변경할 수 있다.In various embodiments of the present disclosure, a user may freely change the size of a graphic object to be included in a moving picture clip only with a simple pinch gesture while checking the playback screen of the moving picture clip.

본 개시의 다양한 실시예에서, 사용자는 그래픽 객체를 동영상 클립에 추가한 이후에도, 타임라인 영역 상의 그래픽 객체와 연관된 레이어를 이용하여 그래픽 객체의 트리밍 편집을 쉽게 수행할 수 있다.In various embodiments of the present disclosure, even after adding the graphic object to a moving picture clip, the user may easily perform trimming and editing of the graphic object by using a layer associated with the graphic object on the timeline area.

본 개시의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 다른 효과들은 청구범위의 기재로부터 본 개시에 속하는 기술 분야에서 통상의 지식을 가진 자(이하, '통상의 기술자'라 함)에게 명확하게 이해될 수 있을 것이다.The effect of the present disclosure is not limited to the above-mentioned effects, and other effects not mentioned are those of ordinary skill in the art from the description of the claims (hereinafter referred to as 'person of ordinary skill') can be clearly understood by

본 개시의 실시예들은, 이하 설명하는 첨부 도면들을 참조하여 설명될 것이며, 여기서 유사한 참조 번호는 유사한 요소들을 나타내지만, 이에 한정되지는 않는다.
도 1은 본 개시의 일 실시예에 따라 사용자 단말에서 동작하는 동영상 편집 어플리케이션을 통해 동영상 편집이 수행되는 예시를 나타내는 도면이다.
도 2는 본 개시의 일 실시예에 따른 동영상 편집 서비스를 제공하기 위하여, 정보 처리 시스템이 복수의 사용자 단말과 통신 가능하도록 연결된 구성을 나타내는 개요도이다.
도 3은 본 개시의 일 실시예에 따른 정보 처리 시스템의 내부 구성을 나타내는 블록도이다.
도 4는 본 개시의 일 실시예에 따라 동영상 편집을 수행할 동영상 파일들을 선택하는 예시를 나타내는 도면이다.
도 5는 본 개시의 일 실시예에 따라 선택된 동영상 파일들을 컷 편집하여 편집 대상이 되는 동영상 클립들을 생성하는 예시를 나타내는 도면이다.
도 6은 본 개시의 일 실시예에 따라 동영상 클립에 추가할 그래픽 객체를 선택하는 예시를 나타내는 도면이다.
도 7은 본 개시의 일 실시예에 따라 사용자가 그래픽 객체를 이동시키는 예시를 나타내는 도면이다.
도 8은 본 개시의 일 실시예에 따라 사용자가 그래픽 객체의 회전 내역을 기록하는 예시를 나타내는 도면이다.
도 9는 본 개시의 일 실시예에 따라 사용자가 그래픽 객체의 크기 변경 내역을 기록하는 예시를 나타내는 도면이다.
도 10은 본 개시의 일 실시예에 따라 사용자가 동영상 클립에 추가된 그래픽 객체의 트리밍 편집을 수행하는 예시를 나타내는 도면이다.
도 11은 본 개시의 일 실시예에 따라 편집된 동영상 클립을 저장하거나 업로드하는 예시를 나타내는 도면이다.
도 12는 본 개시의 일 실시예에 따른 동영상 편집 방법을 나타내는 흐름도이다.
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of the present disclosure will be described with reference to the accompanying drawings described below, wherein like reference numerals denote like elements, but are not limited thereto.
1 is a diagram illustrating an example in which video editing is performed through a video editing application operating in a user terminal according to an embodiment of the present disclosure.
2 is a schematic diagram illustrating a configuration in which an information processing system is connected to communicate with a plurality of user terminals in order to provide a video editing service according to an embodiment of the present disclosure.
3 is a block diagram illustrating an internal configuration of an information processing system according to an embodiment of the present disclosure.
4 is a diagram illustrating an example of selecting video files for which video editing is to be performed according to an embodiment of the present disclosure.
5 is a diagram illustrating an example of generating video clips to be edited by cutting and editing selected video files according to an embodiment of the present disclosure.
6 is a diagram illustrating an example of selecting a graphic object to be added to a video clip according to an embodiment of the present disclosure.
7 is a diagram illustrating an example in which a user moves a graphic object according to an embodiment of the present disclosure.
8 is a diagram illustrating an example in which a user records rotation details of a graphic object according to an embodiment of the present disclosure.
9 is a diagram illustrating an example in which a user records a size change history of a graphic object according to an embodiment of the present disclosure.
10 is a diagram illustrating an example in which a user performs trimming and editing of a graphic object added to a moving picture clip according to an embodiment of the present disclosure.
11 is a diagram illustrating an example of storing or uploading an edited video clip according to an embodiment of the present disclosure.
12 is a flowchart illustrating a video editing method according to an embodiment of the present disclosure.

이하, 본 개시의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 상세히 설명한다. 다만, 이하의 설명에서는 본 개시의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.Hereinafter, specific contents for carrying out the present disclosure will be described in detail with reference to the accompanying drawings. However, in the following description, if there is a risk of unnecessarily obscuring the subject matter of the present disclosure, detailed descriptions of well-known functions or configurations will be omitted.

첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응되는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나, 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.In the accompanying drawings, identical or corresponding components are assigned the same reference numerals. In addition, in the description of the embodiments below, overlapping description of the same or corresponding components may be omitted. However, even if description regarding components is omitted, it is not intended that such components are not included in any embodiment.

개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 통상의 기술자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.Advantages and features of the disclosed embodiments, and methods of achieving them, will become apparent with reference to the embodiments described below in conjunction with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the present disclosure to be complete, and the present disclosure provides those skilled in the art with the scope of the invention. It is provided for complete information only.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다. 본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서, 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.Terms used in this specification will be briefly described, and the disclosed embodiments will be described in detail. The terms used in this specification are selected as currently widely used general terms as possible while considering the functions in the present disclosure, but may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in a specific case, there is a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the terms used in the present disclosure should be defined based on the meaning of the term and the contents of the present disclosure, rather than the simple name of the term.

본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한, 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다. 명세서 전체에서 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.References in the singular herein include plural expressions unless the context clearly dictates that the singular is singular. Also, the plural expression includes the singular expression unless the context clearly dictates the plural. When a part includes a certain component throughout the specification, this means that other components may be further included, rather than excluding other components, unless otherwise stated.

또한, 명세서에서 사용되는 '모듈' 또는 '부'라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, '모듈' 또는 '부'는 어떤 역할들을 수행한다. 그렇지만, '모듈' 또는 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '모듈' 또는 '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서, '모듈' 또는 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 또는 변수들 중 적어도 하나를 포함할 수 있다. 구성요소들과 '모듈' 또는 '부'들은 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '모듈' 또는 '부'들로 결합되거나 추가적인 구성요소들과 '모듈' 또는 '부'들로 더 분리될 수 있다.In addition, the term 'module' or 'unit' used in the specification means a software or hardware component, and 'module' or 'unit' performs certain roles. However, 'module' or 'unit' is not meant to be limited to software or hardware. A 'module' or 'unit' may be configured to reside on an addressable storage medium or may be configured to refresh one or more processors. Thus, as an example, a 'module' or 'part' refers to components such as software components, object-oriented software components, class components, and task components, and processes, functions, and properties. , procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays or at least one of variables. Components and 'modules' or 'units' are the functions provided therein that are combined into a smaller number of components and 'modules' or 'units' or additional components and 'modules' or 'units' can be further separated.

본 개시의 일 실시예에 따르면, '모듈' 또는 '부'는 프로세서 및 메모리로 구현될 수 있다. '프로세서'는 범용 프로세서, 중앙 처리 장치(CPU), 마이크로프로세서, 디지털 신호 프로세서(DSP), 제어기, 마이크로제어기, 상태 머신 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서, '프로세서'는 주문형 반도체(ASIC), 프로그램가능 로직 디바이스(PLD), 필드 프로그램가능 게이트 어레이(FPGA) 등을 지칭할 수도 있다. '프로세서'는, 예를 들어, DSP와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다. 또한, '메모리'는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. '메모리'는 임의 액세스 메모리(RAM), 판독-전용 메모리(ROM), 비-휘발성 임의 액세스 메모리(NVRAM), 프로그램가능 판독-전용 메모리(PROM), 소거-프로그램가능 판독 전용 메모리(EPROM), 전기적으로 소거가능 PROM(EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다. 프로세서에 집적된 메모리는 프로세서와 전자 통신 상태에 있다.According to an embodiment of the present disclosure, a 'module' or a 'unit' may be implemented with a processor and a memory. 'Processor' should be construed broadly to include general purpose processors, central processing units (CPUs), microprocessors, digital signal processors (DSPs), controllers, microcontrollers, state machines, and the like. In some contexts, a 'processor' may refer to an application specific semiconductor (ASIC), a programmable logic device (PLD), a field programmable gate array (FPGA), or the like. 'Processor' refers to a combination of processing devices, such as, for example, a combination of a DSP and a microprocessor, a combination of a plurality of microprocessors, a combination of one or more microprocessors in combination with a DSP core, or any other such configurations. You may. Also, 'memory' should be construed broadly to include any electronic component capable of storing electronic information. 'Memory' means random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), programmable read-only memory (PROM), erase-programmable read-only memory (EPROM); may refer to various types of processor-readable media, such as electrically erasable PROM (EEPROM), flash memory, magnetic or optical data storage, registers, and the like. A memory is said to be in electronic communication with the processor if the processor is capable of reading information from and/or writing information to the memory. A memory integrated in the processor is in electronic communication with the processor.

도 1은 본 개시의 일 실시예에 따라 사용자 단말(120)에서 동작하는 동영상 편집 어플리케이션을 통해 동영상 편집이 수행되는 예시를 나타내는 도면이다. 사용자(110)는 사용자 단말(120)에서 동작하는 동영상 편집 어플리케이션을 이용하여 동영상 편집을 수행할 수 있다. 일 실시예에서, 사용자(110)는 동영상 편집 어플리케이션을 이용하여, 편집 대상이 되는 동영상 클립(들)에 그래픽 객체(132)를 추가할 수 있다. 여기서, 편집 대상이 되는 동영상 클립은 여러 동영상 파일 각각의 일부 또는 전부를 추출한 동영상 클립들의 집합일 수 있다.1 is a diagram illustrating an example in which video editing is performed through a video editing application operating in a user terminal 120 according to an embodiment of the present disclosure. The user 110 may edit a video by using a video editing application operating in the user terminal 120 . In an embodiment, the user 110 may add the graphic object 132 to the video clip(s) to be edited by using a video editing application. Here, the video clip to be edited may be a set of video clips from which some or all of each of several video files are extracted.

일 실시예에서, 사용자(110)는 동영상 편집 인터페이스(130)를 통해 편집 대상이 되는 동영상 클립을 편집할 수 있다. 예를 들어, 동영상 편집 인터페이스(130)는 동영상 클립, 동영상 클립의 프레임 이미지, 미리 보기 영역, 추가하려는 그래픽 객체(132), 타임라인 영역, 그래픽 객체(132)와 연관된 레이어 등을 포함할 수 있다. 구체적으로, 사용자(110)는 동영상 편집 인터페이스(130)를 통해 동영상 클립에 그래픽 객체(132)를 추가하거나 변경할 수 있다. 여기서, 그래픽 객체(132)는 동영상을 꾸미거나, 동영상에 특정 효과를 부여하기 위해 사용하는 것을 나타낼 수 있다. 예를 들어, 그래픽 객체(132)는 텍스트 객체, 자막 객체, 스티커 객체 등을 포함할 수 있으나, 이에 한정되지 않는다.In an embodiment, the user 110 may edit a video clip to be edited through the video editing interface 130 . For example, the video editing interface 130 may include a video clip, a frame image of the video clip, a preview area, a graphic object 132 to be added, a timeline area, a layer associated with the graphic object 132, and the like. . Specifically, the user 110 may add or change the graphic object 132 to a video clip through the video editing interface 130 . Here, the graphic object 132 may indicate that it is used to decorate a moving picture or to give a specific effect to the moving picture. For example, the graphic object 132 may include a text object, a subtitle object, a sticker object, and the like, but is not limited thereto.

일 실시예에서, 텍스트 객체(132)는 미리 정해진 단어, 문장 등을 포함하거나, 사용자(110)의 텍스트 입력에 의해 생성되는 단어, 문장 등을 포함하는 이미지/데이터로서, 다양한 글자체, 글자 크기 등으로 표현될 수 있다. 또한, 자막 객체는 미리 정해진 단어, 문장 등을 포함하거나, 사용자(110)의 텍스트 입력에 의해 생성되는 단어, 문장 등을 포함하는 이미지/데이터로서, 배경을 포함하거나, 윤곽선 효과, 그림자 효과, 반사 효과, 네온 효과 등으로 표현될 수 있다. 또한, 스티커 객체는 동영상을 꾸밀 수 있는 정적/동적 이모티콘(emoticon), 이모지(emoji), 스티커, 이미지, 영상 등을 포함하는 데이터를 나타낼 수 있다.In an embodiment, the text object 132 is an image/data including a predetermined word, sentence, or the like, or a word, sentence, etc., generated by a text input of the user 110 , and various fonts, font sizes, etc. can be expressed as In addition, the caption object is an image/data including a predetermined word or sentence, or a word or sentence generated by a text input of the user 110 , and includes a background, an outline effect, a shadow effect, and a reflection. It may be expressed as an effect, a neon effect, or the like. In addition, the sticker object may represent data including static/dynamic emoticons, emojis, stickers, images, videos, etc. capable of decorating a moving picture.

일 실시예에서, 사용자(110)는 드래그 제스처(drag gesture), 핀치 제스처(pinch gesture), 회전 제스처(rotation gesture) 등을 이용하여, 그래픽 객체(132)의 초기 위치를 이동시키거나, 그래픽 객체(132)의 초기 크기를 변경하거나, 초기 표시 각도를 변경할 수 있다.In an embodiment, the user 110 uses a drag gesture, a pinch gesture, a rotation gesture, etc. to move the initial position of the graphic object 132 or The initial size of 132 may be changed, or the initial display angle may be changed.

일 실시예에서, 사용자(110)는 편집 대상 동영상 클립이 재생되는 동안 드래그 제스처(drag gesture), 핀치 제스처(pinch gesture), 회전 제스처(rotation gesture) 등을 이용하여, 그래픽 객체(132)의 위치, 크기 변경, 표시 각도를 기록할 수 있다. 예를 들어, 사용자(110)는 편집 대상 동영상 클립이 재생되는 동안 그래픽 객체(132)를 드래그함으로써, 동영상 클립에 포함된 그래픽 객체(132)의 이동 경로를 기록할 수 있다. 추가적으로 또는 대안적으로, 사용자(110)는 편집 대상 동영상 클립이 재생되는 동안 두 손가락으로 그래픽 객체(132)를 확대하거나 축소시켜 그래픽 객체(132)의 크기 변경 내역을 기록할 수 있다. 추가적으로 또는 대안적으로, 사용자(110)는 편집 대상 동영상 클립이 재생되는 동안 두 손가락으로 그래픽 객체(132)의 각도를 변경하여 그래픽 객체(132)의 표시 각도 변경 내역을 기록할 수 있다. 이와 같은 구성에 의해, 사용자(110)는 동영상 클립이 재생되는 동안에 동영상 편집을 수행함으로써, 그래픽 객체(132)의 이동 경로, 크기 변경 내역, 표시 각도 변경 내역 등을 동영상 클립의 내용에 따라 실시간으로 변경할 수 있다.In an embodiment, the user 110 uses a drag gesture, a pinch gesture, a rotation gesture, etc. to position the graphic object 132 while the video clip to be edited is being played. , size change, and display angle can be recorded. For example, the user 110 may record the movement path of the graphic object 132 included in the moving picture clip by dragging the graphic object 132 while the editing target moving picture clip is being played. Additionally or alternatively, the user 110 enlarges or reduces the graphic object 132 with two fingers while the video clip to be edited is being reproduced to record the size change history of the graphic object 132 . Additionally or alternatively, the user 110 may record the change of the display angle of the graphic object 132 by changing the angle of the graphic object 132 with two fingers while the video clip to be edited is being played. With this configuration, the user 110 performs video editing while the video clip is being played, so that the moving path, size change history, display angle change history, etc. of the graphic object 132 are displayed in real time according to the contents of the video clip. can be changed

도 1에서는 동영상 편집 인터페이스(130) 상에 하나의 그래픽 객체(132)가 표시되는 것으로 도시되었으나, 이에 한정되지 않으며, 둘 이상의 그래픽 객체가 동영상 편집 인터페이스(130) 상에 표시될 수 있다. 또한, 도 1에서는 사용자(110)가 그래픽 객체(132)를 이동시키거나, 그래픽 객체(132)의 크기를 변경하거나, 그래픽 객체(132)를 회전시킬 수 있는 것으로 상술되었으나, 이에 한정되지 않으며, 사용자(110)는 그래픽 객체의 색을 변화시키거나, 하나의 그래픽 객체가 다른 그래픽 객체로 전환되도록 설정할 수도 있다.Although one graphic object 132 is shown to be displayed on the video editing interface 130 in FIG. 1 , the present invention is not limited thereto, and two or more graphic objects may be displayed on the video editing interface 130 . In addition, although it has been described above in FIG. 1 that the user 110 can move the graphic object 132, change the size of the graphic object 132, or rotate the graphic object 132, it is not limited thereto, The user 110 may change the color of a graphic object or set one graphic object to be converted into another graphic object.

도 2는 본 개시의 일 실시예에 따른 동영상 편집 서비스를 제공하기 위하여, 정보 처리 시스템(230)이 복수의 사용자 단말(210_1, 210_2, 210_3)과 통신 가능하도록 연결된 구성을 나타내는 개요도이다. 정보 처리 시스템(230)은 네트워크(220)를 통해 동영상 편집 서비스(예를 들어, 동영상 클립 생성 서비스, 그래픽 객체와 연관된 서비스 등)를 제공할 수 있는 시스템(들)을 포함할 수 있다. 일 실시예에서, 정보 처리 시스템(230)은 동영상 편집 서비스와 관련된 컴퓨터 실행 가능한 프로그램(예를 들어, 다운로드 가능한 어플리케이션) 및 데이터를 저장, 제공 및 실행할 수 있는 하나 이상의 서버 장치 및/또는 데이터베이스, 또는 클라우드 컴퓨팅 서비스 기반의 하나 이상의 분산 컴퓨팅 장치 및/또는 분산 데이터베이스를 포함할 수 있다. 예를 들어, 정보 처리 시스템(230)은 동영상 편집 서비스를 제공하기 위한 별도의 시스템(예를 들어, 서버)들을 포함할 수 있다.2 is a schematic diagram illustrating a configuration in which the information processing system 230 is connected to communicate with a plurality of user terminals 210_1 , 210_2 , and 210_3 to provide a video editing service according to an embodiment of the present disclosure. The information processing system 230 may include system(s) capable of providing a video editing service (eg, a video clip creation service, a service associated with a graphic object, etc.) via the network 220 . In one embodiment, the information processing system 230 is one or more server devices and/or databases capable of storing, providing and executing computer executable programs (eg, downloadable applications) and data related to the video editing service, or It may include one or more distributed computing devices and/or distributed databases based on cloud computing services. For example, the information processing system 230 may include separate systems (eg, servers) for providing a video editing service.

일 실시예에서, 정보 처리 시스템(230)은 사용자 단말(210_1, 210_2, 210_3)로부터 동영상 편집 요청을 수신하는 경우, 요청에 따라 동영상 편집을 수행하기 위한 시스템일 수 있다. 추가적으로 또는 대안적으로, 정보 처리 시스템(230)은 동영상 편집 서비스 또는 동영상 편집 어플리케이션과 연관된 다양한 기능을 사용자에게 제공하기 위한 시스템일 수 있다. 정보 처리 시스템(230)에 의해 제공되는 동영상 편집 서비스는 복수의 사용자 단말(210_1, 210_2, 210_3)의 각각에 설치된 동영상 편집 어플리케이션, 카메라 어플리케이션, 웹 브라우저 어플리케이션 등을 통해 사용자에게 제공될 수 있다. 예를 들어, 동영상 편집 서비스와 연관된 다양한 기능(동영상 클립 생성 기능, 그래픽 객체의 이동, 크기 변경, 회전 기능)이 동영상 편집 어플리케이션, 카메라 어플리케이션, 웹 브라우저 어플리케이션 등을 통해 사용자에게 제공될 수 있다.In an embodiment, when receiving a video editing request from the user terminals 210_1 , 210_2 , and 210_3 , the information processing system 230 may be a system for performing video editing according to the request. Additionally or alternatively, the information processing system 230 may be a system for providing users with various functions associated with a video editing service or a video editing application. The video editing service provided by the information processing system 230 may be provided to the user through a video editing application, a camera application, a web browser application, etc. installed in each of the plurality of user terminals 210_1, 210_2, 210_3. For example, various functions related to the video editing service (video clip creation function, movement, size change, rotation function) of a graphic object may be provided to the user through a video editing application, a camera application, a web browser application, and the like.

복수의 사용자 단말(210_1, 210_2, 210_3)은 네트워크(220)를 통해 정보 처리 시스템(230)과 통신할 수 있다. 네트워크(220)는 복수의 사용자 단말(210_1, 210_2, 210_3)과 정보 처리 시스템(230) 사이의 통신이 가능하도록 구성될 수 있다. 네트워크(220)는 설치 환경에 따라, 예를 들어, 이더넷(Ethernet), 유선 홈 네트워크(Power Line Communication), 전화선 통신 장치 및 RS-serial 통신 등의 유선 네트워크, 이동통신망, WLAN(Wireless LAN), Wi-Fi, Bluetooth 및 ZigBee 등과 같은 무선 네트워크 또는 그 조합으로 구성될 수 있다. 통신 방식은 제한되지 않으며, 네트워크(220)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망, 위성망 등)을 활용하는 통신 방식뿐 아니라 사용자 단말(210_1, 210_2, 210_3) 사이의 근거리 무선 통신 역시 포함될 수 있다.The plurality of user terminals 210_1 , 210_2 , and 210_3 may communicate with the information processing system 230 through the network 220 . The network 220 may be configured to enable communication between the plurality of user terminals 210_1 , 210_2 , and 210_3 and the information processing system 230 . Network 220 according to the installation environment, for example, Ethernet (Ethernet), wired home network (Power Line Communication), telephone line communication device and wired networks such as RS-serial communication, mobile communication network, WLAN (Wireless LAN), It may consist of wireless networks such as Wi-Fi, Bluetooth and ZigBee, or a combination thereof. The communication method is not limited, and the user terminals 210_1, 210_2, 210_3 as well as a communication method using a communication network (eg, a mobile communication network, a wired Internet, a wireless Internet, a broadcasting network, a satellite network, etc.) that the network 220 may include. ) may also include short-range wireless communication between

도 2에서 휴대폰 단말(210_1), 태블릿 단말(210_2) 및 PC 단말(210_3)이 사용자 단말의 예로서 도시되었으나, 이에 한정되지 않으며, 사용자 단말(210_1, 210_2, 210_3)은 유선 및/또는 무선 통신이 가능한 임의의 컴퓨팅 장치일 수 있다. 예를 들어, 사용자 단말은, 스마트폰, 휴대폰, 내비게이션, 컴퓨터, 노트북, 디지털방송용 단말, PDA(Personal Digital Assistants), PMP(Portable Multimedia Player), 태블릿 PC, 게임 콘솔(game console), 웨어러블 디바이스(wearable device), IoT(internet of things) 디바이스, VR(virtual reality) 디바이스, AR(augmented reality) 디바이스 등을 포함할 수 있다. 또한, 도 2에는 3개의 사용자 단말(210_1, 210_2, 210_3)이 네트워크(220)를 통해 정보 처리 시스템(230)과 통신하는 것으로 도시되어 있으나, 이에 한정되지 않으며, 상이한 수의 사용자 단말이 네트워크(220)를 통해 정보 처리 시스템(230)과 통신하도록 구성될 수도 있다.Although the mobile phone terminal 210_1, the tablet terminal 210_2, and the PC terminal 210_3 are illustrated as examples of the user terminal in FIG. 2, the present invention is not limited thereto, and the user terminals 210_1, 210_2, and 210_3 are wired and/or wireless communication. It can be any computing device capable of this. For example, a user terminal is a smartphone, a mobile phone, a navigation device, a computer, a notebook computer, a digital broadcasting terminal, a PDA (Personal Digital Assistants), a PMP (Portable Multimedia Player), a tablet PC, a game console (game console), a wearable device ( wearable devices), internet of things (IoT) devices, virtual reality (VR) devices, augmented reality (AR) devices, and the like. Also, in FIG. 2, three user terminals 210_1, 210_2, and 210_3 are illustrated as communicating with the information processing system 230 through the network 220, but the present invention is not limited thereto, and a different number of user terminals are connected to the network ( It may be configured to communicate with information processing system 230 via 220 .

일 실시예에서, 정보 처리 시스템(230)은 하나 이상의 동영상을 포함하는 동영상 편집 요청을 사용자 단말(210_1, 210_2, 210_3)로부터 수신할 수 있다. 반대로, 정보 처리 시스템(230)은 사용자의 요청에 따라 편집된 동영상 클립을 사용자 단말(210_1, 210_2, 210_3)에 제공할 수 있다. 추가적으로 또는 대안적으로, 정보 처리 시스템(230)은 동영상 편집을 위한 다양한 기능, 새로운 그래픽 객체 등을 동영상 편집 어플리케이션, 카메라 어플리케이션 등을 통해 사용자 단말(210_1, 210_2, 210_3)에 제공할 수 있다.In an embodiment, the information processing system 230 may receive a video editing request including one or more videos from the user terminals 210_1 , 210_2 , and 210_3 . Conversely, the information processing system 230 may provide the edited video clip to the user terminals 210_1 , 210_2 , and 210_3 according to a user's request. Additionally or alternatively, the information processing system 230 may provide various functions for video editing, new graphic objects, and the like to the user terminals 210_1 , 210_2 , 210_3 through a video editing application, a camera application, and the like.

도 3은 본 개시의 일 실시예에 따른 정보 처리 시스템(230)의 내부 구성을 나타내는 블록도이다. 정보 처리 시스템(230)은 메모리(310), 프로세서(320), 통신 모듈(330) 및 입출력 인터페이스(340)를 포함할 수 있다. 도 3에 도시된 바와 같이, 정보 처리 시스템(230)은 통신 모듈(330)을 이용하여 네트워크를 통해 정보 및/또는 데이터를 통신할 수 있도록 구성될 수 있다.3 is a block diagram illustrating an internal configuration of the information processing system 230 according to an embodiment of the present disclosure. The information processing system 230 may include a memory 310 , a processor 320 , a communication module 330 , and an input/output interface 340 . As shown in FIG. 3 , the information processing system 230 may be configured to communicate information and/or data through a network using the communication module 330 .

메모리(310)는 비-일시적인 임의의 컴퓨터 판독 가능한 기록매체를 포함할 수 있다. 일 실시예에 따르면, 메모리(310)는 RAM(random access memory), ROM(read only memory), 디스크 드라이브, SSD(solid state drive), 플래시 메모리(flash memory) 등과 같은 비소멸성 대용량 저장 장치(permanent mass storage device)를 포함할 수 있다. 다른 예로서, ROM, SSD, 플래시 메모리, 디스크 드라이브 등과 같은 비소멸성 대용량 저장 장치는 메모리와는 구분되는 별도의 영구 저장 장치로서 정보 처리 시스템(230)에 포함될 수 있다. 또한, 메모리(310)에는 운영체제와 적어도 하나의 프로그램 코드(예를 들어, 사용자 단말(210)에 설치되어 구동되는 동영상 편집 어플리케이션 등을 위한 코드)가 저장될 수 있다.Memory 310 may include any non-transitory computer-readable recording medium. According to one embodiment, the memory 310 is a non-volatile mass storage device such as random access memory (RAM), read only memory (ROM), disk drive, solid state drive (SSD), flash memory, etc. mass storage device). As another example, a non-volatile mass storage device such as a ROM, an SSD, a flash memory, a disk drive, etc. may be included in the information processing system 230 as a separate permanent storage device that is distinct from the memory. Also, the memory 310 may store an operating system and at least one program code (eg, a code for a video editing application installed and driven in the user terminal 210 ).

이러한 소프트웨어 구성요소들은 메모리(310)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독가능한 기록매체는 이러한 정보 처리 시스템(230)에 직접 연결가능한 기록 매체를 포함할 수 있는데, 예를 들어, 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 예로서, 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(330)을 통해 메모리(310)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템이 통신 모듈(330)을 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램(예를 들어, 동영상 클립 생성 서비스 및/또는 그래픽 객체 제공 서비스 등을 포함하는 동영상 편집 서비스를 제공하는 어플리케이션)에 기반하여 메모리(310)에 로딩될 수 있다.These software components may be loaded from a computer-readable recording medium separate from the memory 310 . Such a separate computer-readable recording medium may include a recording medium directly connectable to the information processing system 230, for example, a floppy drive, a disk, a tape, a DVD/CD-ROM drive, a memory card, etc. may include a computer-readable recording medium of As another example, the software components may be loaded into the memory 310 through the communication module 330 instead of a computer-readable recording medium. For example, the at least one program is a computer program (eg, a video clip generation service and / or an application that provides a video editing service including a graphic object providing service) may be loaded into the memory 310 .

프로세서(320)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(310) 또는 통신 모듈(330)에 의해 사용자 단말(미도시) 또는 다른 외부 시스템으로 제공될 수 있다. 예를 들어, 프로세서(320)는 메모리(310)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The processor 320 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations. The command may be provided to a user terminal (not shown) or other external system by the memory 310 or the communication module 330 . For example, the processor 320 may be configured to execute a received instruction according to program code stored in a recording device such as the memory 310 .

통신 모듈(330)은 네트워크를 통해 사용자 단말과 정보 처리 시스템(230)이 서로 통신하기 위한 구성 또는 기능을 제공할 수 있으며, 정보 처리 시스템(230)이 다른 시스템(일례로 별도의 클라우드 시스템 등)과 통신하기 위한 구성 또는 기능을 제공할 수 있다. 일 실시예에서, 정보 처리 시스템(230)의 프로세서(320)의 제어에 따라 제공되는 제어 신호, 명령, 데이터 등이 통신 모듈(330)과 네트워크를 거쳐 사용자 단말의 통신 모듈을 통해 사용자 단말에 제공될 수 있다. 예를 들어, 정보 처리 시스템(230)은 통신 모듈(330)을 통해 동영상 편집 서비스와 연관된 정보를 사용자 단말에 제공할 수 있다.The communication module 330 may provide a configuration or function for the user terminal and the information processing system 230 to communicate with each other through a network, and the information processing system 230 is another system (eg, a separate cloud system, etc.) It may provide a configuration or function for communicating with In one embodiment, control signals, commands, data, etc. provided under the control of the processor 320 of the information processing system 230 are provided to the user terminal through the communication module 330 and the network via the communication module of the user terminal. can be For example, the information processing system 230 may provide information related to a video editing service to the user terminal through the communication module 330 .

또한, 정보 처리 시스템(230)의 입출력 인터페이스(340)는 정보 처리 시스템(230)과 연결되거나 정보 처리 시스템(230)이 포함할 수 있는 입력 또는 출력을 위한 장치(미도시)와의 인터페이스를 위한 수단일 수 있다. 도 3에서는 입출력 인터페이스(340)가 프로세서(320)와 별도로 구성된 요소로서 도시되었으나, 이에 한정되지 않으며, 입출력 인터페이스(340)가 프로세서(320)에 포함되도록 구성될 수 있다. 정보 처리 시스템(230)은 도 3의 구성요소들보다 더 많은 구성요소들을 포함할 수 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다.In addition, the input/output interface 340 of the information processing system 230 is connected to the information processing system 230 or means for interfacing with a device (not shown) for input or output that the information processing system 230 may include. can be Although the input/output interface 340 is illustrated as an element configured separately from the processor 320 in FIG. 3 , the present invention is not limited thereto, and the input/output interface 340 may be configured to be included in the processor 320 . The information processing system 230 may include more components than those of FIG. 3 . However, there is no need to clearly show most of the prior art components.

정보 처리 시스템(230)의 프로세서(320)는 복수의 사용자 단말 및/또는 복수의 외부 시스템으로부터 수신된 정보 및/또는 데이터를 관리, 처리 및/또는 저장하도록 구성될 수 있다. 일 실시예에서, 프로세서(320)는 편집 대상이 되는 적어도 하나의 동영상 클립을 미리 보기 영역 상에서 재생할 수 있다. 이 경우, 프로세서(320)는 적어도 하나의 동영상 클립의 제1 재생 시점에서 그래픽 객체를 추가하기 위한 사용자의 선택을 수신하고, 동영상 클립의 제1 재생 시점에서 재생을 정지할 수 있다. 그 후, 프로세서(320)는 그래픽 객체를 동영상 클립의 제1 재생 시점의 프레임 이미지와 함께 미리 보기 영역 상에 표시하고, 사용자가 그래픽 객체의 이동 기록을 요청하는 것에 응답하여, 적어도 하나의 동영상 클립을 제1 재생 시점부터 미리 보기 영역 상에서 재생할 수 있다. 적어도 하나의 동영상 클립을 제1 재생 시점부터 재생하는 동안, 프로세서(320)는 사용자가 미리 보기 영역 상에서 그래픽 객체를 드래그 제스처로 이동하는 경로를 기록할 수 있다. 추가적으로 또는 대안적으로, 프로세서(320)는 사용자가 미리 보기 영역 상에서 그래픽 객체의 크기를 핀치 제스처로 변경하는 내역을 기록할 수 있다. 추가적으로 또는 대안적으로, 프로세서(320)는 사용자가 미리 보기 영역 상에서 그래픽 객체의 각도를 회전 제스처로 변경하는 내역을 기록할 수 있다.The processor 320 of the information processing system 230 may be configured to manage, process, and/or store information and/or data received from a plurality of user terminals and/or a plurality of external systems. In an embodiment, the processor 320 may reproduce at least one video clip to be edited on the preview area. In this case, the processor 320 may receive a user's selection for adding a graphic object at the first playback time of the at least one moving picture clip, and may stop playback at the first playback time of the moving picture clip. After that, the processor 320 displays the graphic object on the preview area together with the frame image of the first playback time of the moving picture clip, and in response to the user requesting the moving record of the graphic object, at least one moving picture clip may be played back on the preview area from the first playback time point. While the at least one video clip is being played back from the first playback time point, the processor 320 may record a path in which the user moves the graphic object with a drag gesture on the preview area. Additionally or alternatively, the processor 320 may record a history in which the user changes the size of the graphic object with a pinch gesture on the preview area. Additionally or alternatively, the processor 320 may record a history in which the user changes the angle of the graphic object with a rotation gesture on the preview area.

도 2 및 3에서는 정보 처리 시스템이 사용자 단말의 요청에 따라 동영상을 편집하는 것으로 도시되었으나, 이에 한정되지 않는다. 예를 들어, 사용자 단말이 사용자로부터 요청을 받고 직접 동영상 편집을 수행하는 것도 가능하다. 이 경우, 사용자 단말의 적어도 하나의 프로세서가 사용자의 입력을 수신하여 동영상 편집을 수행할 수 있다.2 and 3 , the information processing system is illustrated as editing a video according to a request of a user terminal, but is not limited thereto. For example, it is also possible for the user terminal to receive a request from the user and directly edit the video. In this case, at least one processor of the user terminal may receive the user's input to edit the video.

도 4는 본 개시의 일 실시예에 따라 동영상 편집을 수행할 동영상 파일들(422, 424, 426)을 선택하는 예시를 나타내는 도면이다. 일 실시예에서, 사용자는 사용자 단말에 설치된 동영상 편집 어플리케이션을 통해 동영상 편집 및/또는 그래픽 객체의 추가/변형을 수행할 수 있다. 이 경우, 사용자는 사용자 단말에 미리 저장된 동영상 파일 중 전부 또는 일부를 선택하여 동영상 편집을 시작할 수 있다. 예를 들어, 미리 저장된 동영상 파일은 사용자 단말을 이용하여 촬영한 동영상 파일이거나, 다른 외부 장치로부터 수신된 동영상 파일일 수 있다. 또한, 미리 저장된 동영상 파일은 사용자 단말의 카메라 어플리케이션을 이용하여 촬영한 동영상 파일, 동영상 편집 어플리케이션의 인앱(in-app) 카메라를 이용하여 촬영한 동영상 파일 등을 포함할 수 있다.4 is a diagram illustrating an example of selecting video files 422 , 424 , and 426 for video editing according to an embodiment of the present disclosure. In an embodiment, a user may edit a video and/or add/transform a graphic object through a video editing application installed in the user terminal. In this case, the user may select all or some of the video files previously stored in the user terminal and start editing the video. For example, the pre-stored video file may be a video file captured using a user terminal or a video file received from another external device. In addition, the pre-stored video file may include a video file photographed using a camera application of the user terminal, a video file photographed using an in-app camera of a video editing application, and the like.

사용자는 제1 동작(410) 및 제2 동작(420)을 통해 동영상 편집을 수행할 동영상 파일을 선택하고, 동영상 편집을 시작할 수 있다. 일 실시예에서, 제1 동작(410)은 사용자가 동영상 편집 어플리케이션 상에서 동영상 편집의 시작을 위한 버튼을 선택하는 것을 나타낼 수 있다. 예를 들어, 사용자는 디스플레이 상에 표시된 "새로운 브이로그" 버튼(412)을 터치 입력 등으로 선택하여, 편집할 동영상을 선택하기 위한 인터페이스를 제공받을 수 있다.The user may select a video file to be edited through the first operation 410 and the second operation 420 and start editing the video. In an embodiment, the first operation 410 may indicate that the user selects a button for starting video editing on the video editing application. For example, the user may be provided with an interface for selecting a video to be edited by selecting a "new vlog" button 412 displayed on the display by a touch input or the like.

제2 동작(420)은 사용자 단말에 미리 저장된 동영상 파일 중 편집을 수행할 동영상 파일들(422, 424, 426)을 선택하는 것을 나타낼 수 있다. 예를 들어, 사용자는 디스플레이 상에 표시된 동영상 파일 중 편집을 수행할 동영상 파일들(422, 424, 426)을 터치 입력 등으로 선택할 수 있다. 그 후, 사용자는 디스플레이 상에 표시된 "다음" 버튼(428)을 터치 입력 등으로 선택하여, 선택된 동영상 파일들(422, 424, 426)의 편집을 시작할 수 있다.The second operation 420 may represent selecting the video files 422 , 424 , and 426 to be edited from among the video files previously stored in the user terminal. For example, the user may select video files 422 , 424 , and 426 to be edited among the video files displayed on the display by a touch input or the like. Thereafter, the user may select the “next” button 428 displayed on the display by a touch input or the like to start editing the selected video files 422 , 424 , and 426 .

도 4에서는 버튼(412)이 디스플레이 화면의 하단에 표시되는 것으로 도시되었으나, 이에 한정되지 않으며, 버튼(412)의 디스플레이 화면의 임의의 위치에 임의의 크기로 표시될 수 있다. 또한, 도 4에서는 버튼(412)이 선택되는 경우, 사용자에게 미리 저장된 동영상 파일을 선택하기 위한 인터페이스가 제공되는 것으로 도시되었으나, 이에 한정되지 않으며, 사용자가 동영상 편집 어플리케이션 등을 실행시키는 경우, 곧바로 동영상을 선택하기 위한 인터페이스가 제공될 수도 있다.Although the button 412 is shown to be displayed at the bottom of the display screen in FIG. 4 , the present invention is not limited thereto, and the button 412 may be displayed at an arbitrary position on the display screen in any size. In addition, in FIG. 4 , when the button 412 is selected, an interface for selecting a video file stored in advance is provided to the user, but the present invention is not limited thereto. An interface for selecting .

도 5는 본 개시의 일 실시예에 따라 선택된 동영상 파일들을 컷 편집하여 편집 대상이 되는 동영상 클립들을 생성하는 예시를 나타내는 도면이다. 사용자는 동영상 편집 어플리케이션을 통해 편집 대상이 되는 적어도 하나의 동영상 클립을 생성할 수 있다. 예를 들어, 사용자는 선택된 동영상 파일들의 전부 또는 일부를 추출하고, 추출된 부분을 결합하여 편집 대상이 되는 동영상 클립들을 생성할 수 있다. 일 실시예에서, 사용자는 제1 동작(510), 제2 동작(520) 및 제3 동작(530)을 통해 편집 대상이 되는 동영상 클립들을 생성할 수 있다.5 is a diagram illustrating an example of generating video clips to be edited by cutting and editing selected video files according to an embodiment of the present disclosure. The user may create at least one video clip to be edited through the video editing application. For example, the user may extract all or part of the selected video files and combine the extracted parts to create video clips to be edited. In an embodiment, the user may generate video clips to be edited through the first operation 510 , the second operation 520 , and the third operation 530 .

제1 동작(510)은 제1 동영상 클립의 시작 시점(522)을 결정하기 위해 사용자가 시작 버튼(512)을 선택한 것을 나타낼 수 있다. 예를 들어, 사용자는 디스플레이 상에 표시된 시작 버튼(512)을 터치 입력 등으로 선택하여 제1 동영상 클립의 시작 시점(522)을 결정할 수 있다. 여기서, 사용자 인터페이스는 사용자가 선택한 동영상 파일들이 재생되는 미리 보기 영역(514)을 포함할 수 있다. 즉, 사용자는 미리 보기 영역(514)에 표시되는 프레임 이미지를 확인하고, 제1 동영상 클립의 시작 시점(522)을 결정할 수 있다.The first operation 510 may indicate that the user selects the start button 512 to determine the start time 522 of the first moving picture clip. For example, the user may determine the start time 522 of the first video clip by selecting the start button 512 displayed on the display by a touch input or the like. Here, the user interface may include a preview area 514 in which video files selected by the user are reproduced. That is, the user may check the frame image displayed on the preview area 514 and determine the start time 522 of the first moving picture clip.

제2 동작(520)은 제1 동영상 클립의 종료 시점(524)을 결정하기 위한 것을 나타낼 수 있다. 사용자가 제1 동영상 클립의 시작 시점(522)을 결정하기 위해 시작 버튼(512)을 선택하는 경우, 시작 버튼(512)이 동영상 클립의 종료 시점(524)을 결정하기 위한 종료 버튼(526)으로 변경될 수 있다. 그 후, 사용자는 동영상 파일이 재생되는 동안에 디스플레이 상에 표시된 종료 버튼(526)을 터치 입력 등으로 선택하여 제1 동영상 클립의 종료 시점(524)을 결정할 수 있다. 즉, 사용자는 동영상 파일이 재생되는 동안에 미리 보기 영역(514)에 표시된 프레임 이미지를 확인하고, 동영상 클립의 종료 시점(524)을 결정할 수 있다.The second operation 520 may represent determining an end time 524 of the first video clip. When the user selects the start button 512 to determine the start time 522 of the first movie clip, the start button 512 moves to the end button 526 for determining the end time 524 of the movie clip. can be changed. Thereafter, the user may determine the end time 524 of the first moving picture clip by selecting the end button 526 displayed on the display by a touch input or the like while the moving picture file is being played. That is, the user may check the frame image displayed in the preview area 514 while the video file is being played, and determine the end time 524 of the video clip.

제3 동작(530)은 동영상 파일들로부터 추출된 동영상 클립들을 확인하고, 동영상 클립 편집 단계로 이동하는 것을 나타낼 수 있다. 일 실시예에서, 사용자는 동영상이 재생되는 동안에 제1 동작(510) 및 제2 동작(520)을 한 번 수행하거나 반복적으로 수행하여, 하나 이상의 동영상 클립을 추출할 수 있다. 이와 같이 추출된 동영상 클립들을 나타내는 아이콘은 사용자 인터페이스 상의 영역(532)에 표시될 수 있다. 예를 들어, 하나의 동영상 클립이 생성될 때마다, 생성된 동영상 클립을 나타내는 아이콘이 영역(532)에 표시될 수 있다. 이 경우, 사용자는 영역(532)에 포함된 특정 동영상 클립 아이콘을 길게 누른 후 드래그하여, 동영상 클립들의 순서/위치를 변경할 수 있다. 동영상 클립의 순서를 결정하고, 사용자가 "다음" 버튼(534)을 터치 입력 등으로 선택하는 경우, 동영상 클립들을 편집하기 위한 인터페이스를 제공받을 수 있다.The third operation 530 may indicate that the moving picture clips extracted from the moving picture files are checked and moving to the moving picture clip editing step. In an embodiment, the user may extract one or more video clips by performing the first operation 510 and the second operation 520 once or repeatedly while the video is being played. Icons representing the extracted video clips may be displayed in the area 532 on the user interface. For example, whenever one moving picture clip is generated, an icon representing the generated moving picture clip may be displayed in the area 532 . In this case, the user may change the order/position of the video clips by long-pressing and dragging a specific video clip icon included in the area 532 . When the order of the video clips is determined and the user selects the “next” button 534 by a touch input or the like, an interface for editing the video clips may be provided.

도 5에서는 동영상이 재생되는 동안에 시작 버튼(512)을 선택하여 제1 동영상 클립의 시작 시점(522)을 결정하는 것으로 상술되었으나, 이에 한정되지 않으며, 예를 들어, 사용자가 시작 버튼(512)을 선택하는 경우, 제1 동영상 클립의 시작 시점(522)이 결정됨과 동시에 동영상이 재생 시작될 수도 있다. 또한, 도 5에서는 동영상이 재생되는 동안에, 사용자가 제1 동영상 클립의 시작 시점(522) 및 종료 시점(524)을 결정하는 것으로 상술되었으나, 이에 한정되지 않으며, 사용자는 스크롤 입력 등으로 동영상의 특정 위치로 이동한 후, 제1 동영상 클립의 시작 시점(522) 및 제1 동영상 클립의 종료 시점(524)을 결정할 수도 있다. 이와 같은 구성에 의해, 사용자는 미리 보기 영역(514)을 통해 컷 편집을 수행할 동영상의 부분을 쉽게 인식할 수 있으며, 버튼(512, 526)에 대한 터치 입력만으로 간단하게 동영상 클립을 생성할 수 있다.In FIG. 5 , the start point 522 of the first video clip is determined by selecting the start button 512 while the video is being played, but it is not limited thereto, and for example, the user presses the start button 512 In the case of selection, the video may start playing at the same time as the start time 522 of the first video clip is determined. Also, in FIG. 5, while the moving picture is being played, the user determines the start time 522 and the end time 524 of the first moving picture clip, but the present invention is not limited thereto. After moving to the location, a start time 522 of the first video clip and an end time 524 of the first video clip may be determined. With such a configuration, the user can easily recognize the part of the video to be cut-edited through the preview area 514, and can simply create a video clip only by a touch input to the buttons 512 and 526. have.

도 6은 본 개시의 일 실시예에 따라 동영상 클립에 추가할 그래픽 객체(634)를 선택하는 예시를 나타내는 도면이다. 사용자는 동영상 편집 어플리케이션을 통해 동영상 클립에 그래픽 객체를 추가할 수 있다. 예를 들어, 그래픽 객체는 텍스트 객체, 자막 객체, 스티커 객체 등을 포함할 수 있다. 일 실시예에서, 사용자는 제1 동작(610), 제2 동작(620) 및 제3 동작(630)을 통해 동영상 클립에 그래픽 객체를 추가할 수 있다.6 is a diagram illustrating an example of selecting a graphic object 634 to be added to a video clip according to an embodiment of the present disclosure. A user can add graphic objects to a video clip through a video editing application. For example, the graphic object may include a text object, a subtitle object, a sticker object, and the like. In an embodiment, the user may add a graphic object to a video clip through a first operation 610 , a second operation 620 , and a third operation 630 .

제1 동작(610)은 동영상 클립에 추가할 그래픽 객체의 종류를 선택하기 위한 것을 나타낼 수 있다. 일 실시예에서, 편집 대상이 되는 동영상 클립이 미리 보기 영역 상에서 재생될 수 있다. 다시 말해, 동영상 클립이 재생되는 동안에, 미리 보기 영역 상에 편집 대상이 되는 동영상 클립의 프레임 이미지들이 표시될 수 있다. 이 경우, 동영상 클립의 재생 시점을 나타내는 선이 타임라인 영역 상에 표시될 수 있다.The first operation 610 may represent selecting a type of graphic object to be added to a moving picture clip. In an embodiment, a moving picture clip to be edited may be played on the preview area. In other words, while the video clip is being played, frame images of the video clip to be edited may be displayed on the preview area. In this case, a line indicating the playback time of the moving picture clip may be displayed on the timeline area.

사용자는 동영상 클립의 재생 시점을 인식하고, 특정 재생 시점(612)에 그래픽 객체(예를 들어, 스티커 객체)를 추가하기 위해 스티커 버튼(614)을 터치 입력 등으로 선택할 수 있다. 사용자가 특정 재생 시점(612)에 스티커 버튼(614)을 선택하는 것에 응답하여, 동영상 클립은 해당 재생 시점(612)에서 재생이 정지될 수 있다.The user may recognize the playback time of the video clip and select the sticker button 614 by a touch input or the like to add a graphic object (eg, a sticker object) to the specific playback time 612 . In response to the user selecting the sticker button 614 at a specific playback time 612 , the video clip may stop playing at the corresponding playback time 612 .

제2 동작(620)은 동영상 클립의 재생이 정지된 상태에서, 사용자가 동영상 클립에 추가할 스티커 객체(622)를 선택하는 것을 나타낼 수 있다. 이 경우, 사용자는 디스플레이 상에 표시되는 다양한 스티커 객체 중 하나를 선택하여 동영상 클립에 그래픽 효과를 추가할 수 있다. 예를 들어, 사용자는 “DANGER” 스티커 객체(622)를 터치 입력 등으로 선택하여, “DANGER” 스티커 객체(622)를 동영상 클립에 추가할 수 있다.The second operation 620 may indicate that the user selects a sticker object 622 to be added to the moving picture clip while the reproduction of the moving picture clip is stopped. In this case, the user may add a graphic effect to the video clip by selecting one of various sticker objects displayed on the display. For example, the user may select the “DANGER” sticker object 622 by a touch input or the like, and add the “DANGER” sticker object 622 to the video clip.

제3 동작(630)은 사용자가 선택한 “DANGER” 스티커 객체(622)가 동영상 클립의 특정 재생 시점(612)의 프레임 이미지와 함께 미리 보기 영역 상에 표시되는 것을 나타낼 수 있다. 이 때, 사용자가 선택한 “DANGER” 스티커 객체(622)는 동영상 클립의 특정 재생 시점(612)의 프레임 이미지의 중앙에 표시될 수 있다. 일 실시예에서, 사용자는 터치 입력(드래그 제스처, 핀치 제스처, 회전 제스처 등)으로 “DANGER” 스티커 객체(622)의 초기 위치, 초기 크기, 초기 표시 각도 등을 수정할 수 있다. 추가적으로 또는 대안적으로, 사용자가 그래픽 객체의 이동 기록을 요청하는 것에 응답하여, 동영상 클립이 특정 재생 시점(612)부터 다시 재생되고, 사용자의 입력(그래픽 객체의 위치를 이동시키는 입력, 그래픽 객체의 크기를 변경시키는 입력, 그래픽 객체의 표시 각도를 회전하는 입력)이 기록될 수 있다.The third operation 630 may indicate that the “DANGER” sticker object 622 selected by the user is displayed on the preview area together with the frame image of the specific playback time 612 of the video clip. In this case, the “DANGER” sticker object 622 selected by the user may be displayed in the center of the frame image at a specific playback time 612 of the video clip. In an embodiment, the user may modify the initial position, initial size, initial display angle, etc. of the “DANGER” sticker object 622 by touch input (drag gesture, pinch gesture, rotation gesture, etc.). Additionally or alternatively, in response to the user's request to record the movement of the graphic object, the moving picture clip is played back from the specific playback point 612 , and the user's input (input to move the position of the graphic object, to the graphic object) An input to change the size, an input to rotate the display angle of the graphic object) can be recorded.

도 6에서는 하나의 그래픽 객체(634)가 동영상 클립에 추가되는 것으로 도시되었으나, 이에 한정되지 않으며, 둘 이상의 그래픽 객체가 동영상 클립에 추가될 수도 있다. 또한, 도 6에서는 동영상 클립이 재생되는 동안에, 사용자가 그래픽 객체를 추가하기 위한 버튼을 선택하는 경우, 동영상 클립이 해당 재생 시점에서 정지되는 것으로 상술되었으나, 이에 한정되지 않으며, 사용자는 스크롤 입력 등으로 동영상의 특정 재생 시점으로 이동한 후, 그래픽 객체를 추가하기 위한 버튼을 선택할 수도 있다.In FIG. 6 , one graphic object 634 is illustrated as being added to the moving picture clip, but the present invention is not limited thereto, and two or more graphic objects may be added to the moving picture clip. Also, in FIG. 6 , when the user selects a button for adding a graphic object while the video clip is being played, the video clip is stopped at the corresponding playback time point, but the present invention is not limited thereto. After moving to a specific playback point of the video, a button for adding a graphic object may be selected.

도 7은 본 개시의 일 실시예에 따라 사용자가 그래픽 객체(720)를 이동시키는 예시를 나타내는 도면이다. 사용자가 그래픽 객체(720)의 이동 기록을 요청한 후, 미리 보기 영역(710) 상에 표시된 그래픽 객체(720)를 터치 입력 등으로 선택하는 경우, 미리 보기 영역(710) 상에서 동영상 클립이 제1 재생 시점부터 재생될 수 있다. 여기서, 제1 재생 시점은 그래픽 객체(720)가 동영상 클립에 처음 추가/표시되는 시점일 수 있다. 일 실시예예서, 사용자는 동영상 클립이 재생되는 동안에 드래그 제스처(740)를 이용하여 그래픽 객체(720)를 이동시킬 수 있다. 다시 말해, 사용자는 동영상 클립이 재생되는 동안에 그래픽 객체(720)를 터치한 상태로 드래그하여, 그래픽 객체(720)의 이동 경로(730)를 지정할 수 있다.7 is a diagram illustrating an example in which a user moves a graphic object 720 according to an embodiment of the present disclosure. When the user requests a movement record of the graphic object 720 and then selects the graphic object 720 displayed on the preview area 710 by a touch input or the like, a video clip is first played back on the preview area 710 . It can be played from the beginning. Here, the first playback time may be a time when the graphic object 720 is first added/displayed to a moving picture clip. In an embodiment, the user may move the graphic object 720 using the drag gesture 740 while the video clip is being played. In other words, the user may designate the movement path 730 of the graphic object 720 by dragging the graphic object 720 while the moving picture clip is being played.

일 실시예에서, 사용자 단말(예를 들어, 사용자 단말의 적어도 하나의 프로세서)은 동영상 클립을 제1 재생 시점부터 재생하는 동안 사용자가 미리 보기 영역(710) 상에서 그래픽 객체(720)를 드래그 제스처(740)로 이동하는 경로(730)를 기록할 수 있다. 이 경우, 프로세서는 사용자의 드래그 제스처(740)에 기초하여 제1 재생 시점부터 그래픽 객체(720)의 위치 정보를 미리 정해진 시간 간격(예를 들어, 0.05 초 간격, 0.1 초 간격, 매 프레임, 일정 프레임)마다 기록할 수 있다. 즉, 프로세서는 그래픽 객체(720)의 위치를 미리 정해진 시간 가격마다 기록함으로써, 그래픽 객체(720)가 이동하는 방향, 거리, 속도, 위치 등을 저장할 수 있다.In an embodiment, the user terminal (eg, at least one processor of the user terminal) performs a user drag gesture ( ) of the graphic object 720 on the preview area 710 while playing the video clip from the first playback point. The path 730 moving to 740 may be recorded. In this case, based on the user's drag gesture 740, the processor obtains the position information of the graphic object 720 from the first playback time at a predetermined time interval (eg, 0.05 second interval, 0.1 second interval, every frame, constant frame) can be recorded. That is, the processor may store the moving direction, distance, speed, location, etc. of the graphic object 720 by recording the position of the graphic object 720 for each predetermined time price.

일 실시예에서, 동영상 클립의 제1 재생 시점부터 그래픽 객체(720)와 연관된 레이어(752)가 타임라인 영역(750) 상에 표시될 수 있다. 예를 들어, 레이어(752)는 타임라인 영역(750)의 하단에 표시될 수 있다. 이 경우, 그래픽 객체(720)와 연관된 레이어(752)는 동영상 클립이 재생되면서 그래픽 객체(720)의 이동이 기록되는 동안, 동영상 클립의 재생 시점을 나타내는 선(754)과 함께 우측으로 연장될 수 있다.In an embodiment, a layer 752 associated with the graphic object 720 may be displayed on the timeline area 750 from the first playback time of the moving picture clip. For example, the layer 752 may be displayed at the bottom of the timeline area 750 . In this case, the layer 752 associated with the graphic object 720 may extend to the right along with a line 754 indicating the playback time of the moving picture clip while the moving graphic object 720 is recorded while the moving picture clip is played. have.

일 실시예에서, 동영상 클립의 제2 재생 시점에서 사용자가 그래픽 객체(720) 상의 입력을 해제하는 것에 응답하여, 프로세서는 그래픽 객체(720)의 이동 기록을 중지하고, 동영상 클립을 제1 재생 시점부터 미리 보기 영역(710) 상에서 다시 재생할 수 있다. 이 경우, 프로세서는 그래픽 객체(720)를 제1 재생 시점에서 제2 재생 시점까지 기록된 이동 경로(730)에 따라 미리 보기 영역(710) 상에서 동영상 클립과 함께 표시할 수 있다. 다시 말해, 사용자가 그래픽 객체(720) 상의 입력을 해제하는 경우, 프로세서는 이동하는 그래픽 객체(720)가 포함된 동영상 클립을 해당 그래픽 객체(720)가 추가된 시점부터 다시 재생할 수 있다.In one embodiment, in response to the user releasing the input on the graphic object 720 at the second playback time of the moving picture clip, the processor stops recording the movement of the graphic object 720 and plays the moving picture clip at the first playback time from the preview area 710, it can be played again. In this case, the processor may display the graphic object 720 together with the moving picture clip on the preview area 710 along the recorded movement path 730 from the first playback time to the second playback time. In other words, when the user releases an input on the graphic object 720 , the processor may replay a video clip including the moving graphic object 720 from the point in time when the graphic object 720 is added.

일 실시예에서, 프로세서는 동영상 클립의 제2 재생 시점에서 사용자가 그래픽 객체(720) 상의 입력을 해제하는 것에 응답하여, 그래픽 객체(720)와 연관된 레이어(752)를 타임라인 영역(750) 상에 표시할 수 있다. 레이어(752)는 제1 재생 시점에 대응하는 타임라인 상의 위치부터 제2 재생 시점에 대응하는 타임라인 상의 위치까지 연장될 수 있다. 사용자는 그래픽 객체(720)와 연관된 레이어(752)가 포함된 타임라인 영역(750)을 확인하여, 그래픽 객체(720)가 포함된 동영상 클립의 구간을 쉽게 식별할 수 있다.In one embodiment, in response to the user releasing input on the graphical object 720 at a second playback point in time of the moving picture clip, the processor draws the layer 752 associated with the graphical object 720 onto the timeline area 750 . can be displayed in The layer 752 may extend from a position on the timeline corresponding to the first playback time to a position on the timeline corresponding to the second playback time. The user can easily identify the section of the video clip including the graphic object 720 by checking the timeline area 750 including the layer 752 associated with the graphic object 720 .

도 7에서는 하나의 그래픽 객체(720)가 동영상 클립에 포함되는 것으로 도시되었으나, 이에 한정되지 않으며, 동영상 클립은 둘 이상의 그래픽 객체를 포함할 수도 있다. 이 경우, 각각의 그래픽 객체에 대응되는 별도의 레이어들이 타임라인 영역(750)에 포함될 수 있다. 이와 같은 구성에 의해, 사용자는 동영상 클립의 재생 화면을 확인하면서 간단한 드래그 제스처(740)만으로 동영상 클립에 포함시킬 그래픽 객체(720)의 위치를 자유롭게 이동시킬 수 있다.In FIG. 7 , one graphic object 720 is illustrated as being included in the moving picture clip, but the present invention is not limited thereto, and the moving picture clip may include two or more graphic objects. In this case, separate layers corresponding to each graphic object may be included in the timeline area 750 . With such a configuration, the user can freely move the position of the graphic object 720 to be included in the moving picture clip only with a simple drag gesture 740 while checking the playback screen of the moving picture clip.

도 8은 본 개시의 일 실시예에 따라 사용자가 그래픽 객체(820)의 회전 내역을 기록하는 예시를 나타내는 도면이다. 사용자가 그래픽 객체(820)의 애니메이션 기록을 요청한 후, 미리 보기 영역(810) 상에 표시된 그래픽 객체(820)를 터치 입력 등으로 선택하는 경우, 미리 보기 영역(810) 상에서 동영상 클립이 제1 재생 시점부터 재생될 수 있다. 여기서, 제1 재생 시점은 그래픽 객체(820)가 동영상 클립에 처음 추가/표시되는 시점일 수 있다. 일 실시예예서, 사용자는 동영상 클립이 재생되는 동안에 회전 제스처(830)를 이용하여 그래픽 객체(820)를 회전시킬 수 있다. 다시 말해, 사용자는 동영상 클립이 재생되는 동안에 두 손가락으로 그래픽 객체(820)를 시계 방향 또는 반시계 방향으로 회전시켜, 그래픽 객체(820)의 표시 각도를 변경할 수 있다.8 is a diagram illustrating an example in which a user records rotation details of a graphic object 820 according to an embodiment of the present disclosure. When the user requests animation recording of the graphic object 820 and then selects the graphic object 820 displayed on the preview area 810 by a touch input or the like, a video clip is first played back on the preview area 810 . It can be played from the beginning. Here, the first playback time may be a time when the graphic object 820 is first added/displayed to a moving picture clip. In one embodiment, the user may rotate the graphic object 820 using the rotation gesture 830 while the video clip is being played. In other words, the user may change the display angle of the graphic object 820 by rotating the graphic object 820 clockwise or counterclockwise with two fingers while the video clip is being played.

일 실시예에서, 사용자 단말(예를 들어, 사용자 단말의 적어도 하나의 프로세서)은 동영상 클립을 제1 재생 시점부터 재생하는 동안 사용자가 미리 보기 영역(810) 상에서 그래픽 객체(820)의 표시 각도를 회전 제스처(830)로 변경하는 내역을 기록할 수 있다. 이 경우, 프로세서는 사용자의 회전 제스처(830)에 기초하여 제1 재생 시점부터 그래픽 객체(820)의 표시 각도를 미리 정해진 시간 간격(예를 들어, 0.05 초 간격, 0.1 초 간격, 매 프레임, 일정 프레임)마다 기록할 수 있다. 즉, 프로세서는 그래픽 객체(820)의 표시 각도를 미리 정해진 시간 가격마다 기록함으로써, 그래픽 객체(820)의 회전 방향, 회전 속도, 회전 각도 등을 저장할 수 있다.In an embodiment, the user terminal (eg, at least one processor of the user terminal) controls the display angle of the graphic object 820 on the preview area 810 by the user while playing the video clip from the first playback time point. A change history may be recorded by the rotation gesture 830 . In this case, the processor determines the display angle of the graphic object 820 from the first playback time based on the user's rotation gesture 830 at a predetermined time interval (eg, 0.05 second interval, 0.1 second interval, every frame, constant frame) can be recorded. That is, the processor may store the rotation direction, rotation speed, rotation angle, etc. of the graphic object 820 by recording the display angle of the graphic object 820 for each predetermined time price.

일 실시예에서, 동영상 클립의 제2 재생 시점에서 사용자가 그래픽 객체(820) 상의 입력을 해제하는 것에 응답하여, 프로세서는 그래픽 객체(820)의 표시 각도 기록을 중지하고, 동영상 클립을 제1 재생 시점부터 미리 보기 영역(810) 상에서 다시 재생할 수 있다. 이 경우, 프로세서는 그래픽 객체(820)를 제1 재생 시점에서 제2 재생 시점까지 기록된 표시 각도 변경 내역에 따라 미리 보기 영역(810) 상에서 동영상 클립과 함께 표시할 수 있다. 다시 말해, 사용자가 그래픽 객체(820) 상의 입력을 해제하는 경우, 프로세서는 특정 회전 방향 및 속도로 회전하는 그래픽 객체(820)가 포함된 동영상 클립을 해당 그래픽 객체(820)가 추가된 시점부터 다시 재생할 수 있다.In one embodiment, in response to the user releasing the input on the graphic object 820 at the second playback time of the moving picture clip, the processor stops recording the display angle of the graphic object 820, and plays the moving picture clip in the first It can be played back on the preview area 810 from the starting point. In this case, the processor may display the graphic object 820 together with the moving picture clip on the preview area 810 according to the display angle change history recorded from the first playback time to the second playback time. In other words, when the user releases the input on the graphic object 820 , the processor regenerates the video clip including the graphic object 820 rotating at a specific rotation direction and speed from the point at which the graphic object 820 is added. can play

도 7에서 상술된 바와 같이, 그래픽 객체(820)를 회전시키는 경우에도 동영상 클립의 그래픽 객체(820)와 연관된 레이어가 타임라인 영역 상에 표시될 수 있다. 즉, 그래픽 객체(820)와 연관된 레이어는 동영상 클립이 재생되면서 그래픽 객체(820)의 표시 각도가 기록되는 동안, 동영상 클립의 재생 시점을 나타내는 선과 함께 우측으로 연장될 수 있다. 또한, 그래픽 객체(820)와 연관된 레이어는 제1 재생 시점에 대응하는 타임라인 상의 위치부터 제2 재생 시점에 대응하는 타임라인 상의 위치까지 연장될 수 있다.As described above in FIG. 7 , even when the graphic object 820 is rotated, a layer associated with the graphic object 820 of the video clip may be displayed on the timeline area. That is, the layer associated with the graphic object 820 may extend to the right along with a line indicating the playback time of the moving picture clip while the display angle of the graphic object 820 is recorded while the moving picture clip is reproduced. Also, the layer associated with the graphic object 820 may extend from a position on the timeline corresponding to the first playback time to a position on the timeline corresponding to the second playback time.

도 8에서는 하나의 그래픽 객체(820)가 동영상 클립에 포함되는 것으로 도시되었으나, 이에 한정되지 않으며, 동영상 클립은 둘 이상의 그래픽 객체를 포함할 수도 있다. 또한, 도 7 및 도 8에서 그래픽 객체를 이동시키는 경우와, 회전시키는 경우가 구분되어 상술되었으나, 그래픽 객체를 이동시키면서 회전시키는 것도 가능하다. 예를 들어, 사용자는 드래그 제스처로 그래픽 객체를 동영상 클립의 특정 위치로 이동시키면서, 회전 제스처로 해당 그래픽 객체를 회전시킬 수 있다. 이와 같은 구성에 의해, 사용자는 동영상 클립의 재생 화면을 확인하면서 간단한 회전 제스처(830)만으로 동영상 클립에 포함시킬 그래픽 객체(820)의 표시 각도를 자유롭게 변경할 수 있다.In FIG. 8 , one graphic object 820 is illustrated as being included in the moving picture clip, but the present invention is not limited thereto, and the moving picture clip may include two or more graphic objects. In addition, although the case of moving the graphic object and the case of rotating the graphic object have been described above in FIGS. 7 and 8 , it is also possible to rotate the graphic object while moving it. For example, the user may rotate the graphic object with the rotation gesture while moving the graphic object to a specific position of the video clip with the drag gesture. With this configuration, the user can freely change the display angle of the graphic object 820 to be included in the moving picture clip only with a simple rotation gesture 830 while checking the playback screen of the moving picture clip.

도 9는 본 개시의 일 실시예에 따라 사용자가 그래픽 객체(920)의 크기 변경 내역을 기록하는 예시를 나타내는 도면이다. 사용자가 그래픽 객체(920)의 애니메이션 기록을 요청한 후, 미리 보기 영역(910) 상에 표시된 그래픽 객체(920)를 터치 입력 등으로 선택하는 경우, 미리 보기 영역(910) 상에서 동영상 클립이 제1 재생 시점부터 재생될 수 있다. 여기서, 제1 재생 시점은 그래픽 객체(920)가 동영상 클립에 처음 추가/표시되는 시점일 수 있다. 일 실시예예서, 사용자는 동영상 클립이 재생되는 동안에 핀치 제스처(930)를 이용하여 그래픽 객체(920)의 크기를 변경할 수 있다. 다시 말해, 사용자는 동영상 클립이 재생되는 동안에 두 손가락으로 그래픽 객체(920)를 확대하거나 축소하여 그래픽 객체(920)의 크기를 변경할 수 있다.9 is a diagram illustrating an example in which a user records a size change history of a graphic object 920 according to an embodiment of the present disclosure. When the user requests the animation recording of the graphic object 920 and then selects the graphic object 920 displayed on the preview area 910 by a touch input or the like, a video clip is first played back on the preview area 910 . It can be played from the beginning. Here, the first playback time may be a time when the graphic object 920 is first added/displayed to a moving picture clip. In an embodiment, the user may change the size of the graphic object 920 using the pinch gesture 930 while the video clip is being played. In other words, the user may change the size of the graphic object 920 by enlarging or reducing the graphic object 920 with two fingers while a moving picture clip is being played.

일 실시예에서, 사용자 단말(예를 들어, 사용자 단말의 적어도 하나의 프로세서)은 동영상 클립을 제1 재생 시점부터 재생하는 동안 사용자가 미리 보기 영역(910) 상에서 그래픽 객체(920)의 크기를 핀치 제스처(930)로 변경하는 내역을 기록할 수 있다. 이 경우, 프로세서는 사용자의 핀치 제스처(930)에 기초하여 제1 재생 시점부터 그래픽 객체(920)의 크기 정보를 미리 정해진 시간 간격(예를 들어, 0.05 초 간격, 0.1 초 간격, 매 프레임, 일정 프레임)마다 기록할 수 있다. 즉, 프로세서는 그래픽 객체(920)의 크기 정보를 미리 정해진 시간 가격마다 기록함으로써, 그래픽 객체(920)의 가로의 길이, 세로의 길이, 그래픽 객체(920) 내의 픽셀의 수, 크기 정보 등을 저장할 수 있다.In an embodiment, the user terminal (eg, at least one processor of the user terminal) pinches the size of the graphic object 920 on the preview area 910 by the user while playing the video clip from the first playback time point. A change history may be recorded by the gesture 930 . In this case, the processor collects size information of the graphic object 920 from the first playback time based on the user's pinch gesture 930 at a predetermined time interval (eg, 0.05 second interval, 0.1 second interval, every frame, constant frame) can be recorded. That is, the processor records the size information of the graphic object 920 for each predetermined time price, thereby storing the horizontal length and vertical length of the graphic object 920 , the number of pixels in the graphic object 920 , size information, and the like. can

일 실시예에서, 동영상 클립의 제2 재생 시점에서 사용자가 그래픽 객체(920) 상의 입력을 해제하는 것에 응답하여, 프로세서는 그래픽 객체(920)의 크기 정보의 기록을 중지하고, 동영상 클립을 제1 재생 시점부터 미리 보기 영역(910) 상에서 다시 재생할 수 있다. 이 경우, 프로세서는 그래픽 객체(920)를 제1 재생 시점에서 제2 재생 시점까지 기록된 크기 변경 내역에 따라 미리 보기 영역(910) 상에서 동영상 클립과 함께 표시할 수 있다. 다시 말해, 사용자가 그래픽 객체(820) 상의 입력을 해제하는 경우, 프로세서는 특정 크기를 갖거나, 크기가 시간에 따라 변화하는 그래픽 객체(920)가 포함된 동영상 클립을 해당 그래픽 객체(920)가 추가된 시점부터 다시 재생할 수 있다.In one embodiment, in response to the user releasing the input on the graphic object 920 at the second playback time of the moving picture clip, the processor stops recording the size information of the graphic object 920, and It can be played again on the preview area 910 from the playback point. In this case, the processor may display the graphic object 920 together with the moving picture clip on the preview area 910 according to the size change history recorded from the first playback time to the second playback time. In other words, when the user releases the input on the graphic object 820 , the processor converts the graphic object 920 to a video clip including the graphic object 920 having a specific size or changing over time. It can be played again from the point in time it was added.

도 7에서 상술된 바와 같이, 그래픽 객체(920)의 크기를 변경하는 경우에도 동영상 클립의 그래픽 객체(920)와 연관된 레이어가 타임라인 영역 상에 표시될 수 있다. 즉, 그래픽 객체(920)와 연관된 레이어는 동영상 클립이 재생되면서 그래픽 객체(920)의 크기 정보가 기록되는 동안, 동영상 클립의 재생 시점을 나타내는 선과 함께 우측으로 연장될 수 있다. 또한, 그래픽 객체(920)와 연관된 레이어는 제1 재생 시점에 대응하는 타임라인 상의 위치부터 제2 재생 시점에 대응하는 타임라인 상의 위치까지 연장될 수 있다.As described above in FIG. 7 , even when the size of the graphic object 920 is changed, a layer associated with the graphic object 920 of a moving picture clip may be displayed on the timeline area. That is, the layer associated with the graphic object 920 may extend to the right along with a line indicating the playback time of the moving picture clip while the size information of the graphic object 920 is recorded while the moving picture clip is reproduced. Also, the layer associated with the graphic object 920 may extend from a position on the timeline corresponding to the first playback time to a position on the timeline corresponding to the second playback time.

도 9에서는 하나의 그래픽 객체(920)가 동영상 클립에 포함되는 것으로 도시되었으나, 이에 한정되지 않으며, 동영상 클립은 둘 이상의 그래픽 객체를 포함할 수도 있다. 또한, 도 7, 도 8 및 도 9에서 그래픽 객체를 이동시키는 경우, 회전시키는 경우 및 그래픽 객체의 크기를 변경하는 경우가 구분되어 상술되었으나, 그래픽 객체를 이동시키면서 크기를 변경하거나, 그래픽 객체를 회전시키면서 크기를 변경하거나, 그래픽 객체를 이동 및 회전시키면서 크기를 변경하는 것도 가능하다. 예를 들어, 사용자는 드래그 제스처로 그래픽 객체를 동영상 클립의 특정 위치로 이동시키면서, 핀치 제스처로 해당 그래픽 객체의 크기를 변경할 수 있다. 이와 같은 구성에 의해, 사용자는 동영상 클립의 재생 화면을 확인하면서 간단한 핀치 제스처(930)만으로 동영상 클립에 포함시킬 그래픽 객체(920)의 크기를 자유롭게 변경할 수 있다.In FIG. 9 , one graphic object 920 is illustrated as being included in the moving picture clip, but the present invention is not limited thereto, and the moving picture clip may include two or more graphic objects. In addition, in FIGS. 7, 8, and 9, when moving a graphic object, when rotating and when changing the size of the graphic object have been described above, but changing the size while moving the graphic object, or rotating the graphic object It is also possible to change the size while doing it, or to change the size while moving and rotating the graphic object. For example, the user may move the graphic object to a specific position of a video clip by using a drag gesture and change the size of the graphic object by using a pinch gesture. With this configuration, the user can freely change the size of the graphic object 920 to be included in the moving picture clip only with a simple pinch gesture 930 while checking the playback screen of the moving image clip.

도 10은 본 개시의 일 실시예에 따라 사용자가 동영상 클립에 추가된 그래픽 객체의 트리밍(trimming) 편집을 수행하는 예시를 나타내는 도면이다. 상술된 바와 같이, 사용자는 동영상 클립에 그래픽 객체를 추가한 후, 그래픽 객체의 애니메이션 기록할 수 있다. 또한, 동영상 클립에 그래픽 객체가 추가된 경우, 추가된 그래픽 객체와 연관된 레이어가 타임라인 영역 상에 표시될 수 있다. 사용자는 그래픽 객체와 연관된 레이어를 이용하여 그래픽 객체의 트리밍 편집을 수행할 수 있다. 예를 들어, 트리밍 편집은 동영상 클립에 그래픽 객체가 포함되는 구간을 설정하거나 변경하기 위한 것일 수 있다. 일 실시예에서, 사용자는 제1 동작(1010) 및 제2 동작(1020)을 통해 동영상 클립에 추가된 그래픽 객체의 트리밍 편집을 수행할 수 있다.10 is a diagram illustrating an example in which a user performs trimming and editing of a graphic object added to a moving picture clip according to an embodiment of the present disclosure. As described above, the user may record the animation of the graphic object after adding the graphic object to the moving picture clip. Also, when a graphic object is added to a video clip, a layer associated with the added graphic object may be displayed on the timeline area. The user may perform trimming and editing of the graphic object by using a layer associated with the graphic object. For example, trimming editing may be for setting or changing a section in which a graphic object is included in a moving picture clip. In an embodiment, the user may perform trimming and editing of the graphic object added to the video clip through the first operation 1010 and the second operation 1020 .

제1 동작(1010)은 사용자가 트리밍 편집을 수행할 그래픽 객체를 선택하는 예시를 나타낸다. 사용자는 타임라인 영역 상에 포함된 레이어를 터치 입력(1012) 등으로 선택하여, 트리밍 편집할 그래픽 객체(또는 그래픽 객체와 연관된 레이어)를 선택할 수 있다. 이 경우, 사용자 단말(예를 들어, 사용자 단말의 적어도 하나의 프로세서)은 사용자가 그래픽 객체와 연관된 레이어를 선택하는 것에 응답하여, 트리밍 편집이 용이하도록 레이어를 상하로 확장하여 표시할 수 있다. 사용자는 확장된 레이어를 이용하여 동영상 클립 상에 그래픽 객체가 포함되는 구간을 설정하거나 변경하면서 간단히 트리밍 편집을 수행할 수 있다.A first operation 1010 represents an example in which a user selects a graphic object to be trimmed and edited. The user may select a graphic object (or a layer associated with the graphic object) to be trimmed and edited by selecting a layer included in the timeline area by a touch input 1012 or the like. In this case, the user terminal (eg, at least one processor of the user terminal) may expand and display the layer so as to facilitate trimming and editing in response to the user selecting a layer associated with the graphic object. A user can simply perform trimming editing while setting or changing a section in which a graphic object is included in a video clip by using the extended layer.

제2 동작(1020)은 선택된 그래픽 객체의 트리밍 편집을 수행하는 예시를 나타낸다. 도시된 바와 같이, 사용자에 의해 선택된 레이어가 상하로 확장된 경우, 레이어의 양 옆에 트리밍 편집을 수행하기 위한 영역(1022, 1024)이 표시될 수 있다. 일 실시예에서, 사용자는 영역(1022, 1024)을 좌우로 이동시켜, 그래픽 객체에 대한 트리밍 편집을 수행할 수 있다. 예를 들어, 사용자가 영역(1024)을 터치하여 왼쪽으로 이동시키는 경우, 이동된 구간만큼의 그래픽 객체가 동영상 클립에서 제거될 수 있다. 다른 예에서, 사용자가 영역(1024)을 터치하여 왼쪽으로 이동시키는 경우, 그래픽 객체의 이동 경로, 표시 각도, 크기 등이 이동된 구간 내에서 완료될 수 있도록, 그래픽 객체가 이동하는 속도, 회전하는 속도, 그래픽 객체의 크기가 변경되는 속도 등이 변경될 수 있다.The second operation 1020 represents an example of trimming and editing the selected graphic object. As illustrated, when the layer selected by the user is extended vertically, regions 1022 and 1024 for performing trimming editing may be displayed on both sides of the layer. In an embodiment, the user may perform trimming editing on the graphic object by moving the regions 1022 and 1024 left and right. For example, when the user touches the region 1024 and moves it to the left, a graphic object corresponding to the moved section may be removed from the video clip. In another example, when the user touches the region 1024 and moves it to the left, the speed at which the graphic object moves, the speed at which the graphic object rotates so that the moving path, display angle, size, etc. of the graphic object can be completed within the moved section. The speed, the speed at which the size of the graphic object is changed, etc. may be changed.

도 10에서는 하나의 레이어가 타임라인 영역 상에 포함되는 것으로 도시되었으나, 이에 한정되지 않으며, 둘 이상의 레이어가 타임라인 영역 상에 포함될 수 있다. 이 경우, 둘 이상의 레이어 중 사용자에 의해 선택된 하나의 레이어가 상하로 확장되어 표시될 수 있다. 이와 같은 구성에 의해, 사용자는 그래픽 객체를 동영상 클립에 추가한 이후에도, 타임라인 영역 상의 그래픽 객체와 연관된 레이어를 이용하여 그래픽 객체의 트리밍 편집을 쉽게 수행할 수 있다.Although it is illustrated in FIG. 10 that one layer is included in the timeline region, the present invention is not limited thereto, and two or more layers may be included in the timeline region. In this case, one layer selected by the user among the two or more layers may be displayed by expanding vertically. With this configuration, the user can easily perform trimming and editing of the graphic object by using a layer associated with the graphic object on the timeline area even after adding the graphic object to the moving picture clip.

도 11은 본 개시의 일 실시예에 따라 편집된 동영상 클립을 저장하거나 업로드하는 예시를 나타내는 도면이다. 상술된 바와 같이, 사용자는 동영상 파일들을 이용하여 동영상 클립들을 생성하고, 생성된 동영상 클립들에 그래픽 객체를 추가/변경하여 동영상 편집을 수행할 수 있다. 그 후, 사용자는 편집이 완료된 동영상 클립을 사용자 단말에 저장하거나, 웹, SNS 등에 업로드할 수 있다. 일 실시예에서, 사용자는 제1 동작(1110) 및 제2 동작(1120)을 통해, 편집된 동영상 클립을 저장하거나 업로드할 수 있다.11 is a diagram illustrating an example of storing or uploading an edited video clip according to an embodiment of the present disclosure. As described above, a user may create video clips using video files and edit the video by adding/changing graphic objects to the generated video clips. Thereafter, the user may store the edited video clip in the user terminal or upload it to the web, SNS, or the like. In an embodiment, the user may store or upload the edited video clip through the first operation 1110 and the second operation 1120 .

제1 동작(1110)은 편집된 동영상 클립들을 생성(또는 추출)하는 예시를 나타낸다. 일 실시예에서, 사용자는 동영상 클립의 편집을 완료하고, “다음” 버튼 등을 선택하여, 편집된 동영상 클립을 추출하기 위한 인터페이스를 제공받을 수 있다. 예를 들어, 편집된 동영상 클립을 추출하기 위한 인터페이스는 동영상 클립의 해상도를 결정하기 위한 영역, 워터마크 표시 여부를 결정하기 위한 영역, 동영상 클립을 추출하기 위한 버튼(1112) 등을 포함할 수 있다. 사용자는 동영상 클립을 추출하기 위한 버튼(1112)을 터치 입력 등으로 선택하여, 편집된 동영상 클립을 생성하거나 추출할 수 있다.The first operation 1110 represents an example of generating (or extracting) edited video clips. In an embodiment, the user may be provided with an interface for extracting the edited video clip by completing editing of the video clip and selecting a “next” button. For example, the interface for extracting the edited video clip may include an area for determining the resolution of the video clip, an area for determining whether to display a watermark, a button 1112 for extracting the video clip, etc. . The user may select a button 1112 for extracting a moving picture clip through a touch input or the like to generate or extract an edited moving picture clip.

제2 동작(1120)은 편집된 동영상 클립을 사용자 단말 등에 저장하고, 웹, SNS 등에 업로드하는 예시를 나타낸다. 사용자는 편집된 동영상 클립의 카테고리, 제목, 설명 등을 결정하거나 추가하고, “저장 및 업로드” 버튼(1122)을 선택하여, 동영상 클립을 저장하거나/저장하고 업로드할 수 있다. 일 실시예에서, 사용자가 “저장 및 업로드” 버튼(1122)을 선택하는 경우, 편집된 동영상 클립은 사용자 단말에 저장될 수 있다. 추가적으로, 사용자가 버튼(1122)을 선택하는 경우, 사용자는 편집된 동영상 클립을 동영상 공유 플랫폼에 업로드할 수 있다. 예시적으로, 사용자는 편집된 동영상 클립을 업로드할 플랫폼을 선택할 수도 있다.The second operation 1120 represents an example of storing the edited video clip in a user terminal, etc. and uploading it to the web, SNS, or the like. The user may decide or add a category, title, description, etc. of the edited video clip, and select the “save and upload” button 1122 to save/save and upload the video clip. In an embodiment, when the user selects the “save and upload” button 1122, the edited video clip may be stored in the user terminal. Additionally, when the user selects the button 1122 , the user may upload the edited video clip to the video sharing platform. Illustratively, the user may select a platform to upload the edited video clip to.

도 12는 본 개시의 일 실시예에 따른 동영상 편집 방법(1200)을 나타내는 흐름도이다. 일 실시예에서, 동영상 편집 방법(1200)은 사용자 단말(예를 들어, 사용자 단말의 적어도 하나의 프로세서)에 의해 수행될 수 있다. 다른 실시예에서, 동영상 편집 방법(1200)은 정보 처리 시스템(예를 들어, 정보 처리 시스템의 적어도 하나의 프로세서)에 의해 수행될 수 있다. 또 다른 실시예에서, 사용자 단말과 정보 처리 시스템이 동영상 편집 방법(1200)의 단계들을 나누어 수행할 수 있다.12 is a flowchart illustrating a video editing method 1200 according to an embodiment of the present disclosure. In an embodiment, the video editing method 1200 may be performed by a user terminal (eg, at least one processor of the user terminal). In another embodiment, the video editing method 1200 may be performed by an information processing system (eg, at least one processor of the information processing system). In another embodiment, the user terminal and the information processing system may perform the steps of the video editing method 1200 separately.

도시된 바와 같이, 동영상 편집 방법(1200)은 프로세서가 편집 대상이 되는 적어도 하나의 동영상 클립을 미리 보기 영역 상에서 재생함으로써 개시될 수 있다(S1210). 여기서, 편집 대상이 되는 동영상 클립은 여러 동영상 파일 각각의 일부 또는 전부를 추출한 동영상 클립들의 집합일 수 있다. 이 경우, 프로세서는 적어도 하나의 동영상 클립의 제1 재생 시점에서 그래픽 객체를 추가하기 위한 사용자의 선택을 수신할 수 있다(S1220). 예를 들어, 사용자가 동영상 클립의 제1 재생 시점에서 그래픽 객체의 종류를 나타내는 버튼을 선택하는 경우, 프로세서는 해당 사용자의 선택을 수신할 수 있다.As shown, the video editing method 1200 may be started by the processor playing at least one video clip to be edited on the preview area ( S1210 ). Here, the video clip to be edited may be a set of video clips from which some or all of each of several video files are extracted. In this case, the processor may receive a user's selection for adding a graphic object at the first playback time of at least one moving picture clip (S1220). For example, when the user selects a button indicating the type of the graphic object at the first playback time of the moving picture clip, the processor may receive the user's selection.

프로세서는 그래픽 객체를 추가하기 위한 사용자의 선택을 수신하는 것에 응답하여, 동영상 클립의 제1 재생 시점에서 재생을 정지할 수 있다(S1230). 즉, 사용자가 동영상 클립의 제1 재생 시점에서 그래픽 객체의 종류를 나타내는 버튼을 선택하는 경우, 동영상 클립의 제1 재생 시점에서 동영상 클립의 재생이 정지될 수 있다. 그 후, 사용자는 인터페이스 상에 표시된 다양한 그래픽 객체 중 하나를 터치 입력 등으로 선택할 수 있다.In response to receiving the user's selection for adding the graphic object, the processor may stop playback at the first playback point of the video clip (S1230). That is, when the user selects a button indicating the type of the graphic object at the first playback time of the moving picture clip, playback of the moving picture clip may be stopped at the first playback time of the moving picture clip. After that, the user may select one of various graphic objects displayed on the interface by a touch input or the like.

프로세서는 사용자에 의해 선택된 그래픽 객체를 동영상 클립의 제1 재생 시점의 프레임 이미지와 함께 미리 보기 영역 상에 표시할 수 있다(S1240). 그 후, 프로세서는 사용자가 그래픽 객체의 이동 기록을 요청하는 것에 응답하여, 적어도 하나의 동영상 클립을 제1 재생 시점부터 미리 보기 영역 상에서 재생할 수 있다(S1250). 즉, 사용자가 미리 보기 영역 상에서 그래픽 객체를 터치하는 경우, 정지된 동영상 클립이 다시 재생될 수 있다.The processor may display the graphic object selected by the user together with the frame image at the first playback time of the moving picture clip on the preview area (S1240). Thereafter, in response to the user's request to record the movement of the graphic object, the processor may reproduce at least one moving picture clip on the preview area from the first playback time point ( S1250 ). That is, when the user touches the graphic object on the preview area, the stopped video clip may be played again.

프로세서는 적어도 하나의 동영상 클립을 제1 재생 시점부터 재생하는 동안 사용자가 미리 보기 영역 상에서 그래픽 객체를 드래그 제스처로 이동하는 경로를 기록할 수 있다(S1260). 이 경우, 프로세서는 사용자의 드래그 제스처에 기초하여 제1 재생 시점부터 그래픽 객체의 위치 정보를 미리 정해진 시간 간격마다 기록할 수 있다. 그 후, 프로세서는 적어도 하나의 동영상 클립의 제2 재생 시점에서 사용자가 그래픽 객체 상의 입력을 해제하는 것에 응답하여, 적어도 하나의 동영상 클립을 제1 재생 시점부터 미리 보기 영역 상에서 다시 재생할 수 있다.The processor may record a path in which the user moves the graphic object with a drag gesture on the preview area while at least one video clip is reproduced from the first playback time ( S1260 ). In this case, the processor may record the location information of the graphic object at predetermined time intervals from the first playback time point based on the user's drag gesture. Then, in response to the user releasing the input on the graphic object at the second playback time of the at least one moving picture clip, the processor may play the at least one moving picture clip again on the preview area from the first playback time.

추가적으로 또는 대안적으로, 프로세서는 적어도 하나의 동영상 클립을 제1 재생 시점부터 재생하는 동안 사용자가 미리 보기 영역 상에서 그래픽 객체의 크기를 핀치 제스처로 변경하는 내역을 기록할 수 있다. 이 경우, 프로세서는 사용자의 핀치 제스처에 기초하여 제1 재생 시점부터 그래픽 객체의 크기 정보를 미리 정해진 시간 간격마다 기록할 수 있다. 추가적으로 또는 대안적으로, 프로세서는 적어도 하나의 동영상 클립을 제1 재생 시점부터 재생하는 동안 사용자가 미리 보기 영역 상에서 그래픽 객체의 각도를 회전 제스처로 변경하는 내역을 기록할 수 있다. 이 경우, 프로세서는 사용자의 회전 제스처에 기초하여 제1 재생 시점부터 그래픽 객체의 표시 각도를 미리 정해진 시간 간격마다 기록할 수 있다.Additionally or alternatively, the processor may record a history in which the user changes the size of the graphic object with a pinch gesture on the preview area while playing at least one moving picture clip from the first playback time point. In this case, the processor may record size information of the graphic object at predetermined time intervals from the first playback time point based on the user's pinch gesture. Additionally or alternatively, the processor may record a history in which the user changes the angle of the graphic object with a rotation gesture on the preview area while the at least one moving picture clip is reproduced from the first playback time point. In this case, the processor may record the display angle of the graphic object at predetermined time intervals from the first playback time point based on the user's rotation gesture.

상술한 방법은 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램으로 제공될 수 있다.  매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다.  또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다.  매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다.  또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다. The above-described method may be provided as a computer program stored in a computer-readable recording medium for execution by a computer. The medium may be to continuously store a computer executable program, or to temporarily store it for execution or download. In addition, the medium may be various recording means or storage means in the form of a single or several hardware combined, it is not limited to a medium directly connected to any computer system, and may exist distributed on a network. Examples of the medium include a hard disk, a magnetic medium such as a floppy disk and a magnetic tape, an optical recording medium such as CD-ROM and DVD, a magneto-optical medium such as a floppy disk, and those configured to store program instructions, including ROM, RAM, flash memory, and the like. In addition, examples of other media may include recording media or storage media managed by an app store that distributes applications, sites that supply or distribute various other software, and servers.

본 개시의 방법, 동작 또는 기법들은 다양한 수단에 의해 구현될 수도 있다.  예를 들어, 이러한 기법들은 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합으로 구현될 수도 있다.  본원의 개시와 연계하여 설명된 다양한 예시적인 논리적 블록들, 모듈들, 회로들, 및 알고리즘 단계들은 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양자의 조합들로 구현될 수도 있음을 통상의 기술자들은 이해할 것이다.  하드웨어 및 소프트웨어의 이러한 상호 대체를 명확하게 설명하기 위해, 다양한 예시적인 구성요소들, 블록들, 모듈들, 회로들, 및 단계들이 그들의 기능적 관점에서 일반적으로 위에서 설명되었다.  그러한 기능이 하드웨어로서 구현되는지 또는 소프트웨어로서 구현되는지의 여부는, 특정 애플리케이션 및 전체 시스템에 부과되는 설계 요구사항들에 따라 달라진다.  통상의 기술자들은 각각의 특정 애플리케이션을 위해 다양한 방식들로 설명된 기능을 구현할 수도 있으나, 그러한 구현들은 본 개시의 범위로부터 벗어나게 하는 것으로 해석되어서는 안된다. The method, operation, or techniques of this disclosure may be implemented by various means. For example, these techniques may be implemented in hardware, firmware, software, or a combination thereof. Those of ordinary skill in the art will appreciate that the various illustrative logical blocks, modules, circuits, and algorithm steps described in connection with the disclosure herein may be implemented as electronic hardware, computer software, or combinations of both. To clearly illustrate this interchangeability of hardware and software, various illustrative components, blocks, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends upon the particular application and design requirements imposed on the overall system. Skilled artisans may implement the described functionality in varying ways for each particular application, but such implementations should not be interpreted as causing a departure from the scope of the present disclosure.

하드웨어 구현에서, 기법들을 수행하는 데 이용되는 프로세싱 유닛들은, 하나 이상의 ASIC들, DSP들, 디지털 신호 프로세싱 디바이스들(digital signal processing devices; DSPD들), 프로그램가능 논리 디바이스들(programmable logic devices; PLD들), 필드 프로그램가능 게이트 어레이들(field programmable gate arrays; FPGA들), 프로세서들, 제어기들, 마이크로제어기들, 마이크로프로세서들, 전자 디바이스들, 본 개시에 설명된 기능들을 수행하도록 설계된 다른 전자 유닛들, 컴퓨터, 또는 이들의 조합 내에서 구현될 수도 있다. In a hardware implementation, the processing units used to perform the techniques include one or more ASICs, DSPs, digital signal processing devices (DSPDs), programmable logic devices (PLDs). ), field programmable gate arrays (FPGAs), processors, controllers, microcontrollers, microprocessors, electronic devices, other electronic units designed to perform the functions described in this disclosure. , a computer, or a combination thereof.

따라서, 본 개시와 연계하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 및 회로들은 범용 프로세서, DSP, ASIC, FPGA나 다른 프로그램 가능 논리 디바이스, 이산 게이트나 트랜지스터 로직, 이산 하드웨어 컴포넌트들, 또는 본원에 설명된 기능들을 수행하도록 설계된 것들의 임의의 조합으로 구현되거나 수행될 수도 있다.  범용 프로세서는 마이크로프로세서일 수도 있지만, 대안으로, 프로세서는 임의의 종래의 프로세서, 제어기, 마이크로제어기, 또는 상태 머신일 수도 있다.  프로세서는 또한, 컴퓨팅 디바이스들의 조합, 예를 들면, DSP와 마이크로프로세서, 복수의 마이크로프로세서들, DSP 코어와 연계한 하나 이상의 마이크로프로세서들, 또는 임의의 다른 구성의 조합으로 구현될 수도 있다. Accordingly, the various illustrative logic blocks, modules, and circuits described in connection with this disclosure are suitable for use in general-purpose processors, DSPs, ASICs, FPGAs or other programmable logic devices, discrete gate or transistor logic, discrete hardware components, or the present disclosure. It may be implemented or performed in any combination of those designed to perform the functions described in A general purpose processor may be a microprocessor, but in the alternative, the processor may be any conventional processor, controller, microcontroller, or state machine. A processor may also be implemented as a combination of computing devices, eg, a combination of a DSP and a microprocessor, a plurality of microprocessors, one or more microprocessors in conjunction with a DSP core, or any other configuration.

펌웨어 및/또는 소프트웨어 구현에 있어서, 기법들은 랜덤 액세스 메모리(random access memory; RAM), 판독 전용 메모리(read-only memory; ROM), 비휘발성 RAM(non-volatile random access memory; NVRAM), PROM(programmable read-only memory), EPROM(erasable programmable read-only memory), EEPROM(electrically erasable PROM), 플래시 메모리, 컴팩트 디스크(compact disc; CD), 자기 또는 광학 데이터 스토리지 디바이스 등과 같은 컴퓨터 판독가능 매체 상에 저장된 명령어들로 구현될 수도 있다.  명령들은 하나 이상의 프로세서들에 의해 실행 가능할 수도 있고, 프로세서(들)로 하여금 본 개시에 설명된 기능의 특정 양태들을 수행하게 할 수도 있다. In firmware and/or software implementations, the techniques may include random access memory (RAM), read-only memory (ROM), non-volatile random access memory (NVRAM), PROM ( on computer readable media such as programmable read-only memory), erasable programmable read-only memory (EPROM), electrically erasable PROM (EEPROM), flash memory, compact disc (CD), magnetic or optical data storage devices, etc. It may be implemented with stored instructions. The instructions may be executable by one or more processors, and may cause the processor(s) to perform certain aspects of the functionality described in this disclosure.

이상 설명된 실시예들이 하나 이상의 독립형 컴퓨터 시스템에서 현재 개시된 주제의 양태들을 활용하는 것으로 기술되었으나, 본 개시는 이에 한정되지 않고, 네트워크나 분산 컴퓨팅 환경과 같은 임의의 컴퓨팅 환경과 연계하여 구현될 수도 있다.  또 나아가, 본 개시에서 주제의 양상들은 복수의 프로세싱 칩들이나 장치들에서 구현될 수도 있고, 스토리지는 복수의 장치들에 걸쳐 유사하게 영향을 받게 될 수도 있다.  이러한 장치들은 PC들, 네트워크 서버들, 및 휴대용 장치들을 포함할 수도 있다. Although the embodiments described above have been described utilizing aspects of the presently disclosed subject matter in one or more standalone computer systems, the present disclosure is not so limited and may be implemented in connection with any computing environment, such as a network or distributed computing environment. . Still further, aspects of the subject matter in this disclosure may be implemented in a plurality of processing chips or devices, and storage may be similarly affected across the plurality of devices. Such devices may include PCs, network servers, and portable devices.

본 명세서에서는 본 개시가 일부 실시예들과 관련하여 설명되었지만, 본 개시의 발명이 속하는 기술분야의 통상의 기술자가 이해할 수 있는 본 개시의 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다.  또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다. Although the present disclosure has been described in connection with some embodiments herein, various modifications and changes may be made without departing from the scope of the present disclosure that can be understood by those skilled in the art to which the present disclosure pertains. Further, such modifications and variations are intended to fall within the scope of the claims appended hereto.

110: 사용자 120: 사용자 단말
130: 동영상 편집 인터페이스 132: 그래픽 객체
110: user 120: user terminal
130: video editing interface 132: graphic object

Claims (13)

적어도 하나의 프로세서에 의해 수행되는 동영상 편집 방법으로서,
편집 대상이 되는 적어도 하나의 동영상 클립을 미리 보기 영역 상에서 재생하는 단계;
상기 적어도 하나의 동영상 클립의 제1 재생 시점에서 그래픽 객체를 추가하기 위한 사용자의 선택을 수신하는 단계;
상기 그래픽 객체를 추가하기 위한 사용자의 선택을 수신하는 것에 응답하여, 상기 동영상 클립의 상기 제1 재생 시점에서 재생을 정지하는 단계;
상기 그래픽 객체를 상기 동영상 클립의 상기 제1 재생 시점의 프레임 이미지와 함께 상기 미리 보기 영역 상에 표시하는 단계;
상기 사용자가 상기 그래픽 객체의 이동 기록을 요청하는 것에 응답하여, 상기 적어도 하나의 동영상 클립을 상기 제1 재생 시점부터 상기 미리 보기 영역 상에서 재생하는 단계;
상기 적어도 하나의 동영상 클립을 상기 제1 재생 시점부터 재생하는 동안 상기 사용자가 상기 미리 보기 영역 상에서 상기 그래픽 객체를 드래그 제스처로 이동하는 경로를 기록하는 단계;
상기 적어도 하나의 동영상 클립의 제2 재생 시점에서 상기 사용자가 상기 그래픽 객체 상의 입력을 해제하는 것에 응답하여, 상기 적어도 하나의 동영상 클립을 상기 제1 재생 시점부터 상기 미리 보기 영역 상에서 다시 재생하는 단계; 및
상기 기록된 이동 경로를 갖는 상기 그래픽 객체를 추가하여 편집된 상기 적어도 하나의 동영상 클립을 저장하는 단계를 포함하고,
상기 적어도 하나의 동영상 클립을 상기 제1 재생 시점부터 상기 미리 보기 영역 상에서 다시 재생하는 단계는,
상기 적어도 하나의 동영상 클립을 상기 제1 재생 시점에서 상기 제2 재생 시점까지 상기 미리 보기 영역 상에서 재생하는 동안 상기 그래픽 객체를 상기 기록된 이동 경로에 따라 함께 표시하는 단계
를 포함하는, 동영상 편집 방법.
As a video editing method performed by at least one processor,
playing at least one video clip to be edited on a preview area;
receiving a user's selection for adding a graphic object at a first playback time of the at least one moving picture clip;
in response to receiving the user's selection to add the graphic object, stopping playback at the first playback point of the moving picture clip;
displaying the graphic object on the preview area together with a frame image at the first playback time of the moving picture clip;
reproducing the at least one moving picture clip on the preview area from the first reproducing time point in response to the user's request for recording the movement of the graphic object;
recording a path in which the user moves the graphic object with a drag gesture on the preview area while the at least one moving picture clip is reproduced from the first playback time;
replaying the at least one video clip on the preview area from the first playback time point in response to the user releasing the input on the graphic object at a second playback time point of the at least one video clip; and
storing the at least one video clip edited by adding the graphic object having the recorded movement path;
The step of replaying the at least one video clip on the preview area from the first playback time may include:
displaying the graphic object along the recorded movement path while playing the at least one moving picture clip on the preview area from the first playback time to the second playback time;
Including, a video editing method.
제1항에 있어서,
상기 적어도 하나의 동영상 클립을 상기 제1 재생 시점부터 재생하는 동안 상기 사용자가 상기 미리 보기 영역 상에서 상기 그래픽 객체를 드래그 제스처로 이동하는 경로를 기록하는 단계는,
상기 사용자의 드래그 제스처에 기초하여 상기 제1 재생 시점부터 상기 그래픽 객체의 위치 정보를 미리 정해진 시간 간격마다 기록하는 단계
를 포함하는, 동영상 편집 방법.
According to claim 1,
Recording a path by which the user moves the graphic object with a drag gesture on the preview area while the at least one moving picture clip is reproduced from the first playback time may include:
Recording the location information of the graphic object at predetermined time intervals from the first playback time point based on the user's drag gesture
Including, a video editing method.
제1항에 있어서,
상기 적어도 하나의 동영상 클립을 상기 제1 재생 시점부터 재생하는 동안 상기 사용자가 상기 미리 보기 영역 상에서 상기 그래픽 객체의 크기를 핀치 제스처로 변경하는 내역을 기록하는 단계
를 더 포함하는, 동영상 편집 방법.
According to claim 1,
Recording a history in which the user changes the size of the graphic object with a pinch gesture on the preview area while the at least one moving picture clip is reproduced from the first playback time
Further comprising, a video editing method.
제3항에 있어서,
상기 적어도 하나의 동영상 클립을 상기 제1 재생 시점부터 재생하는 동안 상기 사용자가 상기 미리 보기 영역 상에서 상기 그래픽 객체의 크기를 핀치 제스처로 변경하는 내역을 기록하는 단계는,
상기 사용자의 핀치 제스처에 기초하여 상기 제1 재생 시점부터 상기 그래픽 객체의 크기 정보를 미리 정해진 시간 간격마다 기록하는 단계
를 포함하는, 동영상 편집 방법.
4. The method of claim 3,
The step of recording the details of the user changing the size of the graphic object with a pinch gesture on the preview area while the at least one moving picture clip is reproduced from the first playback time,
Recording size information of the graphic object at predetermined time intervals from the first playback time point based on the user's pinch gesture
Including, a video editing method.
제1항에 있어서,
상기 적어도 하나의 동영상 클립을 상기 제1 재생 시점부터 재생하는 동안 상기 사용자가 상기 미리 보기 영역 상에서 상기 그래픽 객체의 각도를 회전 제스처로 변경하는 내역을 기록하는 단계
를 더 포함하는, 동영상 편집 방법.
According to claim 1,
Recording a history in which the user changes the angle of the graphic object with a rotation gesture on the preview area while the at least one video clip is reproduced from the first playback time
Further comprising, a video editing method.
제5항에 있어서,
상기 적어도 하나의 동영상 클립을 상기 제1 재생 시점부터 재생하는 동안 상기 사용자가 상기 미리 보기 영역 상에서 상기 그래픽 객체의 표시 각도를 회전 제스처로 변경하는 내역을 기록하는 단계는,
상기 사용자의 회전 제스처에 기초하여 상기 제1 재생 시점부터 상기 그래픽 객체의 표시 각도를 미리 정해진 시간 간격마다 기록하는 단계
를 포함하는, 동영상 편집 방법.
6. The method of claim 5,
The step of recording the details of the user changing the display angle of the graphic object with a rotation gesture on the preview area while the at least one moving picture clip is reproduced from the first playback time,
Recording the display angle of the graphic object at predetermined time intervals from the first playback time point based on the user's rotation gesture
Including, a video editing method.
삭제delete 삭제delete 제1항에 있어서,
상기 그래픽 객체는 텍스트 객체, 자막 객체 또는 스티커 객체 중 적어도 하나를 포함하는, 동영상 편집 방법.
According to claim 1,
The graphic object includes at least one of a text object, a subtitle object, and a sticker object.
제1항에 있어서,
상기 적어도 하나의 동영상 클립의 제2 재생 시점에서 상기 사용자가 상기 그래픽 객체 상의 입력을 해제하는 것에 응답하여, 상기 그래픽 객체와 연관된 레이어를 타임라인 영역 상에 표시하는 단계
를 더 포함하는, 동영상 편집 방법.
According to claim 1,
Displaying a layer associated with the graphic object on a timeline area in response to the user releasing the input on the graphic object at a second playback time of the at least one moving picture clip
Further comprising, a video editing method.
제10항에 있어서,
상기 사용자가 상기 그래픽 객체와 연관된 레이어를 선택하는 것에 응답하여, 트리밍 편집이 용이하도록 상기 레이어를 상하로 확장하여 표시하는 단계
를 더 포함하는, 동영상 편집 방법.
11. The method of claim 10,
In response to the user selecting a layer associated with the graphic object, displaying the layer by expanding it up and down to facilitate trimming and editing
Further comprising, a video editing method.
제1항 내지 제6항 및 제9항 내지 제11항 중 어느 한 항에 따른 방법을 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer-readable recording medium for executing the method according to any one of claims 1 to 6 and 9 to 11 in a computer.
장치로서,
메모리; 및
상기 메모리와 연결되고, 상기 메모리에 포함된 컴퓨터 판독 가능한 적어도 하나의 프로그램을 실행하도록 구성된 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로그램은,
편집 대상이 되는 적어도 하나의 동영상 클립을 미리 보기 영역 상에서 재생하고,
상기 적어도 하나의 동영상 클립의 제1 재생 시점에서 그래픽 객체를 추가하기 위한 사용자의 선택을 수신하고,
상기 그래픽 객체를 추가하기 위한 사용자의 선택을 수신하는 것에 응답하여, 상기 동영상 클립의 상기 제1 재생 시점에서 재생을 정지하고,
상기 그래픽 객체를 상기 동영상 클립의 상기 제1 재생 시점의 프레임 이미지와 함께 상기 미리 보기 영역 상에 표시하고,
상기 사용자가 상기 그래픽 객체의 이동 기록을 요청하는 것에 응답하여, 상기 적어도 하나의 동영상 클립을 상기 제1 재생 시점부터 상기 미리 보기 영역 상에서 재생하고,
상기 적어도 하나의 동영상 클립을 상기 제1 재생 시점부터 재생하는 동안 상기 사용자가 상기 미리 보기 영역 상에서 상기 그래픽 객체를 드래그 제스처로 이동하는 경로를 기록하고,
상기 적어도 하나의 동영상 클립의 제2 재생 시점에서 상기 사용자가 상기 그래픽 객체 상의 입력을 해제하는 것에 응답하여, 상기 적어도 하나의 동영상 클립을 상기 제1 재생 시점부터 상기 미리 보기 영역 상에서 다시 재생하고,
상기 기록된 이동 경로를 갖는 상기 그래픽 객체를 추가하여 편집된 상기 적어도 하나의 동영상 클립을 저장하기 위한 명령어들을 포함하고,
상기 적어도 하나의 동영상 클립을 상기 제1 재생 시점부터 상기 미리 보기 영역 상에서 다시 재생하는 것은,
상기 적어도 하나의 동영상 클립을 상기 제1 재생 시점에서 상기 제2 재생 시점까지 상기 미리 보기 영역 상에서 재생하는 동안 상기 그래픽 객체를 상기 기록된 이동 경로에 따라 함께 표시하는 것을 포함하는, 장치.
As a device,
Memory; and
at least one processor coupled to the memory and configured to execute at least one computer readable program contained in the memory
including,
the at least one program,
Play at least one video clip to be edited in the preview area,
receiving a user's selection for adding a graphic object at a first playback time of the at least one moving picture clip;
in response to receiving the user's selection to add the graphic object, stop playback at the first playback point of the moving picture clip;
displaying the graphic object on the preview area together with the frame image at the first playback time of the moving picture clip;
In response to the user's request to record the movement of the graphic object, the at least one video clip is played back on the preview area from the first playback time point,
recording a path in which the user moves the graphic object with a drag gesture on the preview area while the at least one video clip is reproduced from the first playback point;
In response to the user releasing the input on the graphic object at the second playback time of the at least one moving picture clip, the at least one moving picture clip is played back on the preview area from the first playback time,
and instructions for storing the at least one video clip edited by adding the graphic object having the recorded movement path,
Replaying the at least one video clip on the preview area from the first playback time includes:
and displaying the graphic object together according to the recorded movement path while playing the at least one moving picture clip on the preview area from the first playback time to the second playback time.
KR1020200172551A 2020-12-10 2020-12-10 Method and apparatus for editing video KR102276789B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200172551A KR102276789B1 (en) 2020-12-10 2020-12-10 Method and apparatus for editing video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200172551A KR102276789B1 (en) 2020-12-10 2020-12-10 Method and apparatus for editing video

Publications (1)

Publication Number Publication Date
KR102276789B1 true KR102276789B1 (en) 2021-07-14

Family

ID=76863098

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200172551A KR102276789B1 (en) 2020-12-10 2020-12-10 Method and apparatus for editing video

Country Status (1)

Country Link
KR (1) KR102276789B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160086161A (en) * 2015-01-09 2016-07-19 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR20170104371A (en) * 2016-03-07 2017-09-15 프래미 인코퍼레이티드 Method and system for editing scene in three-dimensional space
KR20180010493A (en) * 2016-07-21 2018-01-31 삼성전자주식회사 Electronic device and method for editing video thereof
KR20190041815A (en) * 2017-10-13 2019-04-23 엘지전자 주식회사 Mobile terminal and method for controlling the same

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160086161A (en) * 2015-01-09 2016-07-19 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR20170104371A (en) * 2016-03-07 2017-09-15 프래미 인코퍼레이티드 Method and system for editing scene in three-dimensional space
KR20180010493A (en) * 2016-07-21 2018-01-31 삼성전자주식회사 Electronic device and method for editing video thereof
KR20190041815A (en) * 2017-10-13 2019-04-23 엘지전자 주식회사 Mobile terminal and method for controlling the same

Similar Documents

Publication Publication Date Title
US11715268B2 (en) Video clip object tracking
WO2022063176A1 (en) Method and apparatus for publishing videos or images, device, and medium
US20170285922A1 (en) Systems and methods for creation and sharing of selectively animated digital photos
CN110908625A (en) Multi-screen display method, device, equipment, system, cabin and storage medium
KR20230164234A (en) Methods, devices and electronic devices for page display for applications
CN111970571B (en) Video production method, device, equipment and storage medium
US11941728B2 (en) Previewing method and apparatus for effect application, and device, and storage medium
CN112653920B (en) Video processing method, device, equipment and storage medium
US11082755B2 (en) Beat based editing
WO2024001513A1 (en) Content photographing method and apparatus, device, and storage medium
US20230326110A1 (en) Method, apparatus, device and media for publishing video
CN113298602A (en) Commodity object information interaction method and device and electronic equipment
CN112169318A (en) Application program starting and archiving method, device, equipment and storage medium
CN106204695B (en) Editing method and device of 3D animation
CN112169319A (en) Application program starting method, device, equipment and storage medium
KR102276789B1 (en) Method and apparatus for editing video
WO2022183967A1 (en) Video picture display method and apparatus, and device, medium and program product
KR101806922B1 (en) Method and apparatus for producing a virtual reality content
CN115309317A (en) Media content acquisition method, device, equipment, readable storage medium and product
US10637905B2 (en) Method for processing data and electronic apparatus
KR102533209B1 (en) Method and system for creating dynamic extended reality content
KR101827863B1 (en) System and method for providing multimedia contents
KR102493345B1 (en) Method and system for seeking video using progress bar
KR102575771B1 (en) Method and system for generating 3d interactive video
TWM560053U (en) Editing device for integrating augmented reality online

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant