KR102216623B1 - Method for editing and server thereof - Google Patents

Method for editing and server thereof Download PDF

Info

Publication number
KR102216623B1
KR102216623B1 KR1020190017979A KR20190017979A KR102216623B1 KR 102216623 B1 KR102216623 B1 KR 102216623B1 KR 1020190017979 A KR1020190017979 A KR 1020190017979A KR 20190017979 A KR20190017979 A KR 20190017979A KR 102216623 B1 KR102216623 B1 KR 102216623B1
Authority
KR
South Korea
Prior art keywords
frame
image
editing
server
frames
Prior art date
Application number
KR1020190017979A
Other languages
Korean (ko)
Other versions
KR20200099840A (en
Inventor
임수정
신정우
임상진
Original Assignee
임수정
신정우
임상진
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 임수정, 신정우, 임상진 filed Critical 임수정
Priority to KR1020190017979A priority Critical patent/KR102216623B1/en
Publication of KR20200099840A publication Critical patent/KR20200099840A/en
Application granted granted Critical
Publication of KR102216623B1 publication Critical patent/KR102216623B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Security & Cryptography (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

본 발명의 일 실시예에 따른 동영상 편집 방법은 이용자의 전자장치로부터 상기 서버가 편집 대상 동영상을 획득하는 편집 대상 동영상 획득 단계; 상기 서버가 상기 편집 대상 동영상을 구성하는 복수의 프레임을 기초로 상기 프레임을 구성하는 이미지를 수정하여 편집 프레임을 생성하는 편집 프레임 생성 단계; 및 상기 서버가 상기 전자장치로 상기 편집 프레임을 전송하는 편집 프레임 전송 단계;를 포함하며, 상기 편집 프레임 생성 단계는 복수의 상기 프레임 중, 어느 하나의 상기 프레임의 이미지와 다른 하나의 상기 프레임의 이미지를 합성하여 상기 편집 프레임을 생성할 수 있다.A video editing method according to an embodiment of the present invention includes: obtaining a video to be edited by the server from an electronic device of a user; An editing frame generation step of generating, by the server, an edit frame by modifying an image constituting the frame based on a plurality of frames constituting the editing target video; And an editing frame transmitting step of the server transmitting the editing frame to the electronic device, wherein the editing frame generating step includes an image of one of the frames and another of the frame of the plurality of frames. The editing frame may be generated by synthesizing.

Description

동영상 편집 방법 및 그 서버{Method for editing and server thereof}Video editing method and its server {Method for editing and server thereof}

본 발명은 동영상 편집 방법 및 그 서버에 관한 것으로서, 더욱 상세하게는 동영상을 구성하는 프레임의 이미지를 편집하는 동영상 편집 방법 및 그 서버에 관한 것이다.The present invention relates to a video editing method and a server thereof, and more particularly, to a video editing method and a server for editing an image of a frame constituting a video.

PC 및 메모리 등의 발전과 함께, 사용자가 반영구적으로 소유할 수 있는 데이터의 양은 기하급수적으로 증가하고 있다. With the development of PCs and memories, the amount of data that users can semi-permanently own is increasing exponentially.

그리고 최근의 PC는 다양한 인터페이스를 구축함으로써, 주변기기와의 데이터 송수신이 용이한 장점이 있으며, 기 저장된 동영상 데이터를 편집할 수 있는 기능을 구비하고 있다.In addition, recent PCs have the advantage of easy data transmission/reception with peripheral devices by constructing various interfaces, and have a function of editing pre-stored video data.

예를 들어, 종래 PC 등은, HDD에 내장된 동영상 데이터를 불러 오거나, 외부기기인 USB 등에 저장된 동영상 데이터를 불러 와서, 사용자가 선호하는 스타일의 새로운 파일로 편집 및 저장할 수가 있었다.For example, a conventional PC or the like can load video data built into an HDD, or load video data stored in an external device, such as a USB, and edit and save it as a new file of a user's preferred style.

한편, 대한민국 공개특허 10-2016-0107057(2016.09.13. 공개)호에서는 동영상 편집 방법을 개시하고 있다.Meanwhile, Korean Patent Application Publication No. 10-2016-0107057 (published on September 13, 2016) discloses a video editing method.

그러나, 이는 선택된 시간에 해당하는 복수의 동영상을 조합하는 것으로서 동영상을 구성하는 이미지 자체를 편집할 수 없는 문제가 있다.However, this is a combination of a plurality of moving pictures corresponding to the selected time, and there is a problem in that the images constituting the moving picture cannot be edited.

본 발명은 상기와 같은 문제를 해결하기 위한 것으로서, 동영상을 구성하는 프레임 중, 프레임을 구성하는 일부의 이미지를 편집할 수 있는 동영상 편집 방법 및 그 서버를 제공하고자 함이다.An object of the present invention is to solve the above-described problem, and an object of the present invention is to provide a video editing method and a server for editing some of the images constituting the frame among frames constituting the video.

본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the above-described problems, and problems that are not mentioned will be clearly understood by those of ordinary skill in the art from the present specification and the accompanying drawings. .

본 발명의 일 실시예에 따른 동영상 편집 방법은 이용자의 전자장치로부터 상기 서버가 편집 대상 동영상을 획득하는 편집 대상 동영상 획득 단계; 상기 서버가 상기 편집 대상 동영상을 구성하는 복수의 프레임을 기초로 상기 프레임을 구성하는 이미지를 수정하여 편집 프레임을 생성하는 편집 프레임 생성 단계; 및 상기 서버가 상기 전자장치로 상기 편집 프레임을 전송하는 편집 프레임 전송 단계;를 포함하며, 상기 편집 프레임 생성 단계는 복수의 상기 프레임 중, 어느 하나의 상기 프레임의 이미지와 다른 하나의 상기 프레임의 이미지를 합성하여 상기 편집 프레임을 생성할 수 있다.A video editing method according to an embodiment of the present invention includes: obtaining a video to be edited by the server from an electronic device of a user; An editing frame generation step of generating, by the server, an edit frame by modifying an image constituting the frame based on a plurality of frames constituting the editing target video; And an editing frame transmitting step of the server transmitting the editing frame to the electronic device, wherein the editing frame generating step includes an image of one of the frames and another of the frame of the plurality of frames. The editing frame may be generated by synthesizing.

본 발명의 다른 일 실시예에 따른 동영상 편집 서버는 이용자의 전자장치로부터 편집 대상 동영상을 획득하는 수신부; 상기 편집 대상 동영상을 구성하는 복수의 프레임을 기초로 상기 프레임을 구성하는 이미지를 수정하여 편집 프레임을 생성하는 제어부; 및 상기 전자장치로 상기 편집 프레임을 전송하는 송신부;를 포함하며, 상기 제어부는 복수의 상기 프레임 중, 어느 하나의 상기 프레임의 이미지와 다른 하나의 상기 프레임의 이미지를 합성하여 상기 편집 프레임을 생성할 수 있다.According to another embodiment of the present invention, a video editing server includes: a receiver for obtaining a video to be edited from an electronic device of a user; A control unit for generating an edit frame by modifying an image constituting the frame based on a plurality of frames constituting the editing target video; And a transmission unit for transmitting the edited frame to the electronic device, wherein the control unit generates the edited frame by synthesizing an image of one of the frames and an image of the other frame among the plurality of frames. I can.

본 발명의 일 실시예에 따른 동영상 편집 방법 및 그 서버에 의하면 동영상을 구성하는 프레임 중, 프레임을 구성하는 일부의 이미지를 편집할 수 있는 장점이 있다.According to the video editing method and the server according to an embodiment of the present invention, it is possible to edit some of the images constituting the frame among the frames constituting the video.

본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-described effects, and effects that are not mentioned will be clearly understood by those of ordinary skill in the art from the present specification and the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 서버가 전자장치와 통신하는 것을 도시한 개략도.
도 2는 편집 대상 동영상을 설명하기 위한 개략도.
도 3 내지 도 6은 편집 대상 동영상의 편집을 설명하기 위한 개략도.
도 7은 본 발명의 일 실시예에 따른 서버의 개략 구성도.
1 is a schematic diagram showing that a server communicates with an electronic device according to an embodiment of the present invention.
2 is a schematic diagram for explaining an editing target video.
3 to 6 are schematic diagrams for explaining editing of an editing target video.
7 is a schematic configuration diagram of a server according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명의 구체적인 실시예를 상세하게 설명한다. 다만, 본 발명의 사상은 제시되는 실시예에 제한되지 아니하고, 본 발명의 사상을 이해하는 당업자는 동일한 사상의 범위 내에서 다른 구성요소를 추가, 변경, 삭제 등을 통하여, 퇴보적인 다른 발명이나 본 발명 사상의 범위 내에 포함되는 다른 실시예를 용이하게 제안할 수 있을 것이나, 이 또한 본원 발명 사상 범위 내에 포함된다고 할 것이다. Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings. However, the spirit of the present invention is not limited to the presented embodiments, and those skilled in the art who understand the spirit of the present invention can add, change, or delete other elements within the scope of the same idea. Other embodiments included within the scope of the inventive concept may be easily proposed, but this will also be said to be included within the scope of the inventive concept.

본 발명의 일 실시예에 따른 동영상 편집 방법은 이용자의 전자장치로부터 상기 서버가 편집 대상 동영상을 획득하는 편집 대상 동영상 획득 단계; 상기 서버가 상기 편집 대상 동영상을 구성하는 복수의 프레임을 기초로 상기 프레임을 구성하는 이미지를 수정하여 편집 프레임을 생성하는 편집 프레임 생성 단계; 및 상기 서버가 상기 전자장치로 상기 편집 프레임을 전송하는 편집 프레임 전송 단계;를 포함하며, 상기 편집 프레임 생성 단계는 복수의 상기 프레임 중, 어느 하나의 상기 프레임의 이미지와 다른 하나의 상기 프레임의 이미지를 합성하여 상기 편집 프레임을 생성할 수 있다.A video editing method according to an embodiment of the present invention includes: obtaining a video to be edited by the server from an electronic device of a user; An editing frame generation step of generating, by the server, an edit frame by modifying an image constituting the frame based on a plurality of frames constituting the editing target video; And an editing frame transmitting step of the server transmitting the editing frame to the electronic device, wherein the editing frame generating step includes an image of one of the frames and another of the frame of the plurality of frames. The editing frame may be generated by synthesizing.

또, 상기 편집 프레임 생성 단계는 어느 하나의 상기 프레임을 구성하는 이미지 중 소정의 대상 이미지를 삭제하고, 다른 하나의 상기 프레임을 구성하는 이미지 중 소정의 합성 이미지를 상기 대상 이미지 상에 합성하여 상기 편집 프레임을 생성할 수 있다.In the editing frame generation step, a predetermined target image is deleted from the images constituting one of the frames, and a composite image among the images constituting the other frame is combined on the target image to be edited. You can create frames.

또, 상기 대상 이미지는 상기 프레임을 구성하는 이미지 중 복수의 상기 프레임 상에서 기 설정된 거리 이상으로 이동되는 이미지로 특정될 수 있다.In addition, the target image may be specified as an image that is moved by a predetermined distance or more on a plurality of the frames among images constituting the frame.

또, 상기 전자장치로부터 상기 서버가 상기 대상 이미지 특정에 관한 대상 선택 정보를 획득하는 대상 선택 정보 획득 단계;를 더 포함하며, 상기 대상 이미지는 상기 대상 선택 정보에 의해 결정되며, 상기 합성 이미지는 상기 대상 이미지에 의해 결정될 수 있다.Further, a target selection information acquisition step of obtaining, by the server, target selection information regarding the target image specification from the electronic device, wherein the target image is determined by the target selection information, and the composite image is the It can be determined by the target image.

또, 상기 전자장치로부터 상기 서버가 상기 편집 프레임에 대한 피드백 정보를 획득하는 피드백 정보 획득 단계; 및 상기 서버가 상기 피드백 정보를 기초로 상기 편집 프레임의 이미지를 수정하여 재편집 프레임을 생성하는 재편집 프레임 생성 단계;를 더 포함하며, 상기 재편집 프레임 생성 단계는 상기 편집 프레임 상의 상기 합성 이미지를 삭제하고, 다른 상기 프레임을 구성하는 이미지 중 소정의 재합성 이미지를 상기 합성 이미지 상에 합성하여 상기 재편집 프레임을 생성할 수 있다.Further, a feedback information obtaining step of obtaining, by the server, feedback information on the edit frame from the electronic device; And generating a re-editing frame by modifying the image of the edited frame by the server based on the feedback information, wherein the re-editing frame generating step comprises: generating the composite image on the edited frame. The re-edited frame may be generated by deleting and combining a predetermined recomposite image from among the images constituting the other frame onto the composite image.

또, 상기 재편집 프레임 생성 단계에서 삭제되는 상기 합성 이미지의 범위는, 상기 편집 프레임 생성 단계에서 삭제된 상기 대상 이미지로부터 기 설정된 거리 내일 수 있다.In addition, the range of the composite image deleted in the reediting frame generating step may be within a preset distance from the target image deleted in the editing frame generating step.

또, 상기 전자장치로부터 상기 서버가 상기 합성 이미지 특정에 관한 합성 선택 정보를 획득하는 합성 선택 정보 획득 단계;를 더 포함하며, 상기 합성 이미지는 상기 합성 선택 정보에 의해 결정되며, 상기 대상 이미지는 상기 합성 이미지에 의해 결정될 수 있다.Further, a synthesis selection information obtaining step in which the server obtains synthesis selection information related to the synthesis image specification from the electronic device, wherein the combined image is determined by the combination selection information, and the target image is the It can be determined by the composite image.

본 발명의 다른 일 실시예에 따른 동영상 편집 서버는 이용자의 전자장치로부터 편집 대상 동영상을 획득하는 수신부; 상기 편집 대상 동영상을 구성하는 복수의 프레임을 기초로 상기 프레임을 구성하는 이미지를 수정하여 편집 프레임을 생성하는 제어부; 및 상기 전자장치로 상기 편집 프레임을 전송하는 송신부;를 포함하며, 상기 제어부는 복수의 상기 프레임 중, 어느 하나의 상기 프레임의 이미지와 다른 하나의 상기 프레임의 이미지를 합성하여 상기 편집 프레임을 생성할 수 있다.According to another embodiment of the present invention, a video editing server includes: a receiver for obtaining a video to be edited from an electronic device of a user; A control unit for generating an edit frame by modifying an image constituting the frame based on a plurality of frames constituting the editing target video; And a transmission unit for transmitting the edited frame to the electronic device, wherein the control unit generates the edited frame by synthesizing an image of one of the frames and an image of the other frame among the plurality of frames. I can.

각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.Components having the same function within the scope of the same idea shown in the drawings of each embodiment will be described with the same reference numerals.

도 1은 본 발명의 일 실시예에 따른 서버가 전자장치와 통신하는 것을 도시한 개략도이다.1 is a schematic diagram illustrating that a server communicates with an electronic device according to an embodiment of the present invention.

도 2는 편집 대상 동영상을 설명하기 위한 개략도이며, 도 3 내지 도 6은 편집 대상 동영상의 편집을 설명하기 위한 개략도이다.2 is a schematic diagram for explaining a moving picture to be edited, and FIGS. 3 to 6 are schematic diagrams for explaining editing of a moving picture to be edited.

도 7은 본 발명의 일 실시예에 따른 서버의 개략 구성도이다.7 is a schematic configuration diagram of a server according to an embodiment of the present invention.

첨부된 도면은 본 발명의 기술적 사상을 보다 명확하게 표현하기 위하여, 본 발명의 기술적 사상과 관련성이 떨어지거나 당업자로부터 용이하게 도출될 수 있는 부분은 간략화 하거나 생략하였다.In the accompanying drawings, in order to more clearly express the technical idea of the present invention, parts that are inferior to the technical idea of the present invention or that can be easily derived from those skilled in the art are simplified or omitted.

도 1 내지 도 7에 도시한 바와 같이, 본 발명의 일 실시예에 따른 동영상 편집 방법은 이용자의 전자장치(P)로부터 획득된 동영상(이하, '편집 대상 동영상')을 편집하는 방법일 수 있다.As shown in FIGS. 1 to 7, a video editing method according to an embodiment of the present invention may be a method of editing a video (hereinafter, “editable video”) acquired from a user's electronic device P. .

일례로, 동영상 편집은 서버(10)에서 구현될 수 있다.For example, video editing may be implemented in the server 10.

일례로, 동영상 편집 방법은 이용자의 전자장치(P)로부터 상기 서버(10)가 상기 편집 대상 동영상을 획득하는 편집 대상 동영상 획득 단계를 포함할 수 있다.As an example, the video editing method may include an editing target video acquisition step in which the server 10 obtains the editing target video from the user's electronic device P.

일례로, 상기 서버(10)는 상기 전자장치(P)로부터 상기 편집 대상 동영상을 획득할 수 있다.For example, the server 10 may obtain the editing target video from the electronic device P.

일례로, 상기 편집 대상 동영상은 복수 개의 프레임을 포함할 수 있다.For example, the editing target video may include a plurality of frames.

일례로, 하나의 상기 편집 대상 동영상은 2 내지 150개의 프레임으로 구성될 수 있다. For example, one video to be edited may consist of 2 to 150 frames.

도 2는 상기 편집 대상 동영상을 설명하기 위한 개략도로서, 상기 편집 대상 동영상은 제1 프레임 내지 제4 프레임(f1, f2, f3, f4)인 4개의 프레임을 포함한 것으로 가정하였다.FIG. 2 is a schematic diagram for explaining the editing target video, and it is assumed that the editing target video includes four frames, which are first to fourth frames f1, f2, f3, and f4.

도 2(a) 내지 도 2(d)에 순차적으로 도시한 바와 같이, 상기 편집 대상 동영상을 구성하는 복수 개의 상기 프레임은 복수 개의 특정 이미지를 포함할 수 있다.As sequentially shown in FIGS. 2A to 2D, the plurality of frames constituting the editing target video may include a plurality of specific images.

일례로, 사람 이미지(E1), 축구공 이미지(E2), 농구공 이미지(E3)를 포함할 수 있다.For example, it may include a person image (E1), a soccer ball image (E2), a basketball image (E3).

도 2에 도시한 바와 같이, 상기 제1 프레임 내지 상기 제4 프레임(f1, f2, f3, f4)을 서로 비교해 볼 때, 상기 편집 대상 동영상을 구성하는 사람 이미지(E1)는 복수의 상기 프레임 내에서 임의의 한 지점으로부터 기 설정된 거리 미만으로 이동되며, 축구공 이미지(E2)는 상기 프레임의 좌측에서 우측으로 기 설정된 거리 이상으로 이동되며, 농구공 이미지(E3)는 상기 프레임의 상측에서 하측으로 기 설정된 거리 이상으로 이동됨으로 가정한다.As shown in FIG. 2, when comparing the first to fourth frames f1, f2, f3, and f4 with each other, the human image E1 constituting the editing target video is within the plurality of frames. Is moved to less than a preset distance from an arbitrary point in, the soccer ball image (E2) is moved from the left to the right of the frame more than the preset distance, and the basketball image (E3) is moved from the top to the bottom of the frame. It is assumed that it is moved beyond a preset distance.

이 때, 상기 동영상 편집 방법은 상기 서버(10)가 상기 편집 대상 동영상을 구성하는 복수의 프레임을 기초로 상기 프레임을 구성하는 이미지를 수정하여 편집 프레임을 생성하는 편집 프레임 생성 단계를 더 포함할 수 있다.In this case, the video editing method may further include an editing frame generation step of generating an edit frame by modifying an image constituting the frame based on a plurality of frames constituting the editing target video. have.

상기 편집 프레임은 편집 대상인 복수의 상기 프레임 상의 이미지를 삭제하거나, 위치를 변경시키거나, 합성하여 생성될 수 있다.The edit frame may be generated by deleting, relocating, or combining images on a plurality of frames to be edited.

일례로, 상기 편집 프레임 생성 단계는 복수의 상기 프레임 중, 어느 하나의 상기 프레임의 이미지와 다른 하나의 상기 프레임의 이미지를 합성하여 상기 편집 프레임을 생성할 수 있다.For example, in the generating of the editing frame, the editing frame may be generated by combining an image of one of the frames and an image of the other frame.

이를 보다 자세히 설명하자면, 일례로, 상기 편집 프레임 생성 단계는 어느 하나의 상기 프레임을 구성하는 이미지 중 소정의 대상 이미지를 삭제하고, 다른 하나의 상기 프레임을 구성하는 이미지 중 소정의 합성 이미지를 상기 대상 이미지 상에 합성하여 상기 편집 프레임을 생성할 수 있다.To explain this in more detail, as an example, in the editing frame generation step, a predetermined target image is deleted from the images constituting one of the frames, and a predetermined composite image among images constituting the other frame is The editing frame may be generated by compositing on an image.

일례로, 도 3에 도시한 바와 같이, 도 3(a)는 상기 제1 프레임(f1)을 의미할 수 있고, 도 3(b)는 상기 제2 프레임(f2)을 의미할 수 있다.For example, as shown in FIG. 3, FIG. 3 (a) may refer to the first frame f1, and FIG. 3 (b) may refer to the second frame f2.

여기서, 일례로, 상기 대상 이미지인 상기 제1 프레임(f1) 상의 축구공 이미지(E2)를 삭제하고자 하는 경우, 상기 서버(10)는 상기 제2 프레임(f2) 상에서 상기 제1 프레임(f1) 상의 축구공 이미지(E2)가 포함된 영역(A1)과 대응되는 영역(A3)에 해당하는 상기 합성 이미지를 선택하고, 상기 제1 프레임(f1) 상의 축구공 이미지(E2)가 포함된 영역(A1)을 삭제하며, 삭제된 영역(A1)에 상기 제2 프레임(f2) 상의 상기 합성 이미지 영역(A3)을 상기 제1 프레임(f1) 상에 합성할 수 있다.Here, as an example, in the case of deleting the soccer ball image (E2) on the first frame (f1), which is the target image, the server 10 is the first frame (f1) on the second frame (f2). Selecting the composite image corresponding to the area A3 corresponding to the area A1 including the soccer ball image E2 above, and the area including the soccer ball image E2 on the first frame f1 ( A1) may be deleted, and the composite image area A3 on the second frame f2 may be combined on the first frame f1 in the deleted area A1.

그 결과, 상기 제1 프레임(f1)은 상기 제1 프레임(f1) 상의 축구공 이미지(E2)가 삭제되고, 축구공 이미지(E2)가 없는 상기 제2 프레임(f2) 상의 상기 합성 이미지가 구성될 수 있다.As a result, in the first frame f1, the soccer ball image E2 on the first frame f1 is deleted, and the composite image on the second frame f2 without the soccer ball image E2 is formed. Can be.

마찬가지로, 상기 대상 이미지인 상기 제2 프레임(f2) 상의 축구공 이미지(E2)를 삭제하고자 하는 경우, 상기 서버(10)는 상기 제2 프레임(f2) 상의 축구공 이미지(E2)가 포함된 영역(A5)을 삭제하고, 상기 제3 프레임(f3) 상에서 상기 제2 프레임(f2) 상의 축구공 이미지(E2)가 포함된 영역(A5)과 대응되는 영역에 해당하는 상기 합성 이미지를 선택하고, 상기 제2 프레임(f2) 상의 삭제된 영역(A5)에 상기 제3 프레임(f3) 상의 상기 합성 이미지를 상기 제2 프레임(f2) 상에 합성할 수 있다.Similarly, in the case of deleting the soccer ball image E2 on the second frame f2, which is the target image, the server 10 includes the soccer ball image E2 on the second frame f2. (A5) is deleted, and the composite image corresponding to the area A5 including the soccer ball image E2 on the second frame f2 is selected on the third frame f3, and The composite image on the third frame f3 may be synthesized on the second frame f2 in the deleted area A5 on the second frame f2.

그 결과, 상기 제2 프레임(f2) 상에서도 축구공 이미지(E2)가 삭제될 수 있다.As a result, the soccer ball image E2 may be deleted even on the second frame f2.

상기 서버(10)가 각각의 프레임 마다 상기 대상 이미지를 특정할 수 있는 방법은 상기 프레임 상의 기 설정된 픽셀 단위로 RGB 및/또는 CMYK의 상대적 변화를 산출하여 구현될 수 있다.The method by which the server 10 can specify the target image for each frame may be implemented by calculating a relative change in RGB and/or CMYK in units of preset pixels on the frame.

이러한 특정 방법은 당업자가 종래 기술로부터 자명하게 도출할 수 있다는 점에서 자세한 설명은 생략한다.A detailed description of this specific method will be omitted in that a person skilled in the art can clearly derive from the prior art.

상기 서버(10)가 각각의 프레임 마다 상기 합성 이미지를 특정할 수 있는 방법은 복수의 상기 프레임 내에서 임의의 한 지점(예를 들어, 각각의 상기 프레임의 중심점 또는 사람 이미지(E1)의 중심점)으로부터 상기 대상 이미지와 동일 거리 및 동일 영역으로 산출되어 특정될 수 있다.The method by which the server 10 can specify the composite image for each frame is an arbitrary point within a plurality of the frames (for example, the center point of each frame or the center point of the human image E1) From, it may be calculated and specified as the same distance and the same area as the target image.

즉, 상기 합성 이미지의 특정은 상기 대상 이미지의 특정에 종속되어, 상기 대상 이미지가 특정된 경우 상기 프레임 내의 임의의 한 지점으로부터 상기 대상 이미지와 동일 거리 및 동일 영역으로 산출되어 종속적으로 특정될 수 있다.That is, the specification of the composite image is dependent on the specification of the target image, and when the target image is specified, the target image is calculated as the same distance and the same area as the target image from an arbitrary point in the frame, and may be dependently specified. .

다만, 여기에 한정되는 것은 아니며, 당업자의 입장에서 상기 대상 이미지 및 상기 합성 이미지를 특정할 수 있는 방법에 대해 용이하게 변경할 수 있는 방식이라면 본 발명에 적용될 수 있음은 물론이다.However, the present invention is not limited thereto, and a method capable of easily changing a method for specifying the target image and the composite image from the standpoint of a person skilled in the art can be applied to the present invention.

일례로, 상기 프레임을 구성하는 복수의 이미지 중 삭제될 상기 대상 이미지의 선택에 대한 대상 선택 정보는 상기 전자장치(P)로부터 획득될 수 있다.For example, target selection information for selection of the target image to be deleted among a plurality of images constituting the frame may be obtained from the electronic device P.

즉, 동영상 편집 방법은 상기 전자장치(P)로부터 상기 서버(10)가 상기 대상 이미지 특정에 관한 대상 선택 정보를 획득하는 대상 선택 정보 획득 단계를 더 포함할 수 있다.That is, the video editing method may further include the step of obtaining, from the electronic device P, object selection information, in which the server 10 obtains object selection information regarding the target image specification.

일례로, 이용자가 상기 편집 대상 동영상 상에서 축구공 이미지(E2)를 삭제하고자 하는 경우, 축구공 이미지(E2)를 선택하여 상기 전자장치(P)를 통해 축구공 이미지(E2)를 삭제하는 상기 대상 선택 정보를 상기 서버(10)로 전달할 수 있다.For example, when the user wants to delete the soccer ball image E2 from the editing target video, the target for deleting the soccer ball image E2 through the electronic device P by selecting the soccer ball image E2 Selection information may be transmitted to the server 10.

마찬가지로, 상기 대상 이미지는 상기 대상 선택 정보에 의해 결정되며, 상기 합성 이미지는 상기 프레임 내의 임의의 한 지점으로부터 상기 대상 이미지와 동일 거리 및 동일 영역으로 산출되어 상기 대상 이미지에 의해 종속적으로 결정될 수 있다.Likewise, the target image is determined by the target selection information, and the composite image may be determined dependently by the target image by calculating the same distance and the same area as the target image from an arbitrary point in the frame.

또한, 일례로, 상기 대상 이미지는 상기 프레임을 구성하는 이미지 중 복수의 상기 프레임 상에서 기 설정된 거리 이상으로 이동되는 이미지로 특정될 수도 있다.In addition, as an example, the target image may be specified as an image that is moved over a predetermined distance on a plurality of the frames among images constituting the frame.

이를 보다 자세히 설명하자면, 앞서 설명한 바와 같이, 사람 이미지(E1)는 복수의 상기 프레임 상에서 기 설정된 거리 미만으로 이동되고, 축구공 이미지(E2) 및 농구공 이미지(E3)는 복수의 상기 프레임 상에서 기 설정된 거리 이상으로 이동됨에 따라, 상기 서버(10)는 복수의 상기 프레임 상의 복수의 이미지 및 이미지가 이동되는 거리를 산출하여 복수의 상기 프레임 상에서 기 설정된 거리 이상으로 이동되는 축구공 이미지(E2) 및 농구공 이미지(E3)(상기 대상 이미지에 해당)를 특정하고, 상기 합성 이미지를 각각의 상기 프레임 상에 합성하여, 결과적으로 상기 편집 대상 동영상 상에 축구공 이미지(E2)와 농구공 이미지(E3)를 삭제할 수 있다.To explain this in more detail, as described above, the human image E1 is moved less than a preset distance on the plurality of frames, and the soccer ball image E2 and the basketball image E3 are recorded on the plurality of frames. As it moves more than a set distance, the server 10 calculates a plurality of images on the plurality of frames and a distance to which the images are moved, and moves a soccer ball image E2 that is moved more than a preset distance on the plurality of frames, and A basketball image (E3) (corresponding to the target image) is specified, the composite image is synthesized on each of the frames, and as a result, a soccer ball image (E2) and a basketball image (E3) are displayed on the editing target video. ) Can be deleted.

앞서 설명한 기 설정된 거리는 이용자 및/또는 관리자가 설정할 수 있다.The preset distance described above may be set by a user and/or an administrator.

여기서, 일례로, 동영상 편집 방법은 상기 서버(10)가 상기 전자장치(P)로 상기 편집 프레임을 전송하는 편집 프레임 전송 단계를 포함할 수 있다.Here, as an example, the video editing method may include an editing frame transmission step in which the server 10 transmits the editing frame to the electronic device P.

일례로, 상기 편집 프레임 전송 단계는 상기 서버(10)가 상기 전자장치(P)로 편집된 상기 편집 프레임을 사진 형식으로 전송할 수도 있고, 복수의 상기 편집 프레임을 포함하는 동영상 형식으로 전송할 수도 있다.For example, in the transmitting of the edit frame, the server 10 may transmit the edited frame edited by the electronic device P in a photo format or a video format including a plurality of the edit frames.

그 결과, 이용자는 상기 전자장치(P)를 통해 상기 편집 프레임을 볼 수 있다.As a result, the user can view the edit frame through the electronic device P.

여기서, 일례로, 상기 동영상 편집 방법은 상기 전자장치(P)로부터 상기 서버(10)가 상기 편집 프레임에 대한 피드백 정보를 획득하는 피드백 정보 획득 단계 및 상기 서버(10)가 상기 피드백 정보를 기초로 상기 편집 프레임의 이미지를 수정하여 재편집 프레임을 생성하는 재편집 프레임 생성 단계를 더 포함할 수 있다.Here, as an example, in the video editing method, a feedback information acquisition step in which the server 10 obtains feedback information on the edit frame from the electronic device P, and the server 10 is based on the feedback information. The re-editing frame generation step of generating a re-editing frame by modifying the image of the edited frame may be further included.

이를 보다 자세히 설명하자면, 도 4에 도시한 바와 같이, 상기 전자장치(P)로 제공된 상기 편집 프레임(f1, f2) 상에는 축구공 이미지(E2)와 대응되는 영역, 즉 상기 합성 이미지와 대응되는 영역(A1, A5)에 잔상(N)이 있을 수 있다.To explain this in more detail, as shown in FIG. 4, on the editing frames f1 and f2 provided to the electronic device P, an area corresponding to the soccer ball image E2, that is, an area corresponding to the composite image There may be an afterimage (N) in (A1, A5).

이러한 잔상(N)은 상기 합성 이미지와 주변 이미지 간의 RGB 및/또는CMYK의 차이에 의해 발생될 수 있다.This afterimage (N) may be generated by a difference in RGB and/or CMYK between the composite image and the surrounding image.

이러한 잔상(N)이 발생된 경우, 이용자는 상기 전자장치(P)를 통해 잔상(N)을 제거하는 상기 피드백 정보를 상기 서버(10)로 전송할 수 있다.When such an afterimage (N) is generated, the user may transmit the feedback information for removing the afterimage (N) to the server 10 through the electronic device (P).

여기서, 상기 서버(10)는 상기 피드백 정보를 획득하는 경우, 상기 편집 프레임 상의 상기 합성 이미지를 삭제하고, 다른 상기 프레임을 구성하는 이미지 중 소정의 재합성 이미지를 상기 합성 이미지 상에 합성하여 상기 재편집 프레임을 생성할 수 있다.Here, when obtaining the feedback information, the server 10 deletes the composite image on the edit frame, and combines a recomposite image from among images constituting another frame onto the composite image You can create an edit frame.

이를 보다 자세히 설명하자면, 도 4(a)에 도시한 바와 같이, 상기 제1 프레임(f1) 상의 상기 합성 이미지 영역(A1) 상에 잔상(N)이 존재한다고 가정하는 경우, 상기 서버(10)는 상기 피드백 정보를 획득하면, 상기 제1 프레임(f1) 상의 상기 합성 이미지 영역(A1)을 삭제하고, 도 4(b)에서 제2 프레임(f2) 상의 상기 합성 이미지 영역(A1)과 대응되는 영역(A6) 또는 도면에는 도시하지 않았으나, 상기 제3 프레임(f3) 및/또는 상기 제4 프레임(f4)에서 상의 상기 합성 이미지 영역(A1)과 대응되는 영역에서 상기 재합성 이미지를 선택하고, 선택된 상기 재합성 이미지 영역(A6)를 상기 제1 프레임(f1) 상의 삭제된 영역(A1)에 재합성하여 상기 재편집 프레임을 생성할 수 있다.To explain this in more detail, as shown in FIG. 4(a), assuming that an afterimage N exists on the composite image area A1 on the first frame f1, the server 10 When acquiring the feedback information, deletes the composite image region A1 on the first frame f1, and corresponds to the composite image region A1 on the second frame f2 in FIG. 4B. Selecting the recomposite image in the region A6 or in the region corresponding to the composite image region A1 on the third frame f3 and/or the fourth frame f4 although not shown in the drawing, The re-edited frame may be generated by recombining the selected recombination image area A6 to the deleted area A1 on the first frame f1.

이 때, 일례로, 상기 서버(10)가 상기 피드백 정보를 획득하는 경우, 삭제되는 상기 합성 이미지 영역의 크기는 상기 편집 프레임 생성 단계에서 합성된 상기 합성 이미지의 영역보다 클 수 있다. In this case, for example, when the server 10 obtains the feedback information, the size of the composite image region to be deleted may be larger than the region of the composite image synthesized in the editing frame generation step.

일례로, 상기 재편집 프레임 생성 단계에서 삭제되는 상기 합성 이미지의 범위는상기 편집 프레임 생성 단계에서 삭제된 상기 대상 이미지로부터 기 설정된 거리 내일 수 있다.For example, the range of the composite image deleted in the reediting frame generating step may be within a preset distance from the target image deleted in the editing frame generating step.

여기서, 일례로, 상기 재편집 프레임 생성 단계에서 합성되는 상기 재합성 이미지는 삭제된 상기 합성 이미지와 동일하거나 클 수 있다.Here, as an example, the recomposite image synthesized in the reediting frame generation step may be the same as or larger than the deleted composite image.

결과적으로, 상기 재편집 프레임 생성 단계에서 삭제되는 상기 합성 이미지의 특정은 상기 편집 프레임 생성 단계에서 삭제된 상기 대상 이미지의 특정에 의해 종속적으로 구현되며, 상기 재편집 프레임 생성 단계에서 합성되는 상기 재합성 이미지의 특정은 삭제된 상기 합성 이미지의 특정에 의해 종속적으로 구현될 수 있다.As a result, the specification of the composite image deleted in the re-editing frame generation step is dependently implemented by specifying the target image deleted in the editing frame generation step, and the re-composition synthesized in the re-editing frame generation step Image specification may be implemented dependently by specifying the deleted composite image.

이처럼, 상기 재편집 프레임 생성 단계에 의해 상기 재편집 프레임은 잔상(N)이 제거된 깨끗한 이미지를 구비할 수 있다.In this way, by the step of generating the reediting frame, the reediting frame may have a clean image from which the afterimage (N) has been removed.

아래에서는, 도 5 및 도 6을 참조로 하여, 상기 편집 대상 동영상을 편집하는 또 다른 예를 설명하겠다.In the following, another example of editing the editing target video will be described with reference to FIGS. 5 and 6.

앞서 설명한 동영상 편집 방법과 중복되는 부분은 본 발명의 기술적 사상을 보다 명확히 설명하기 위해 간략히 설명하거나 설명을 생략하겠다.Parts overlapping with the video editing method described above will be briefly described or omitted in order to more clearly describe the technical idea of the present invention.

도 5에 도시한 바와 같이, 상기 편집 대상 동영상은 제1 프레임(f1) 및 제2 프레임(f2)인 2개의 프레임을 포함할 수 있다.As shown in FIG. 5, the editing target video may include two frames, which are a first frame f1 and a second frame f2.

도 5(a)는 상기 제1 프레임(f1)을 도시한 것으로서, 상기 제1 프레임(f1) 상에는 눈을 감고 있는 여자의 이미지(H1)와 눈을 뜨고 있는 남자의 이미지(H2)를 포함할 수 있다.5(a) shows the first frame f1, which includes an image H1 of a woman with eyes closed and an image H2 of a man with eyes open on the first frame f1. I can.

도 5(b)는 상기 제2 프레임(f2)을 도시한 것으로서, 상기 제2 프레임(f2) 상에는 눈을 뜨고 있는 여자의 이미지(H1)와 눈을 감고 있는 남자의 이미지(H2)를 포함할 수 있다.5(b) shows the second frame f2, which includes an image H1 of a woman with eyes open and an image H2 of a man with eyes closed on the second frame f2. I can.

이 때, 이용자는 남자와 여자 모두 눈을 뜨고 있는 프레임의 획득을 원할 수 있다.At this time, the user may want to acquire a frame in which both men and women have their eyes open.

이를 구현하고자, 동영상 편집 방법은 상기 편집 대상 동영상 획득 단계를 통해 서버(10)가 상기 편집 대상 동영상을 획득할 수 있다.To implement this, in the video editing method, the server 10 may obtain the editing target video through the editing target video acquisition step.

이 때, 동영상 편집 방법은 상기 전자장치(P)로부터 상기 서버(10)가 상기 합성 이미지 특정에 관한 합성 선택 정보를 획득하는 합성 선택 정보 획득 단계를 더 포함할 수 있다.In this case, the video editing method may further include the step of obtaining, from the electronic device P, synthesis selection information, in which the server 10 obtains synthesis selection information regarding the synthesis image specification.

즉, 상기 합성 선택 정보는 이용자의 상기 전자장치(P)를 통해 상기 제2 프레임(f2) 상의 눈을 뜬 여자 얼굴의 영역(A7)으로 특정될 수 있고, 상기 서버(10)는 상기 전자장치(P)로부터 상기 합성 선택 정보를 획득할 수 있다.That is, the synthesis selection information may be specified as the area A7 of the woman's face with the eyes open on the second frame f2 through the electronic device P of the user, and the server 10 The synthesis selection information can be obtained from (P).

이 때, 상기 서버(10)는 상기 합성 선택 정보를 기초로 상기 제2 프레임(f2) 상의 눈을 뜬 여자 얼굴 이미지(A7)인 상기 합성 이미지를 특정할 수 있다.In this case, the server 10 may specify the composite image, which is the female face image A7 with eyes opened on the second frame f2, based on the composite selection information.

또한, 동영상 편집 방법은 상기 전자장치(P)로부터 상기 합성 이미지를 어느 프레임에 합성할 것인지에 관한 프레임 선택 정보를 획득하는 프레임 선택 정보 획득 단계를 더 포함할 수 있다.In addition, the video editing method may further include a frame selection information acquisition step of acquiring frame selection information on which frame the composite image is to be synthesized from the electronic device P.

즉, 상기 서버(10)는 상기 합성 이미지를 어느 프레임에 합성할 것인지에 대한 상기 프레임 선택 정보를 기초로 선택된 프레임 상에 상기 합성 이미지를 합성할 수 있다.That is, the server 10 may synthesize the composite image on a frame selected based on the frame selection information on which frame to combine the composite image.

이를 보다 자세히 설명하자면, 도 5(b)인 상기 제2 프레임(f2) 상의 눈을 뜨고 있는 여자 얼굴의 이미지(A7)가 상기 합성 선택 정보이고, 도 5(a)의 상기 제1 프레임(f1)이 상기 프레임 선택 정보인 경우, 상기 서버(10)는 상기 제2 프레임(f2) 상의 눈을 뜨고 있는 여자 얼굴의 이미지(A7)인 상기 합성 이미지를 특정하고, 특정된 상기 여자 얼굴의 이미지와 대응되는 상기 제1 프레임(f1) 상의 여자 얼굴의 이미지(A8)인 상기 대상 이미지를 특정하여, 상기 제1 프레임(f1) 상의 상기 대상 이미지를 삭제하고, 특정된 상기 제2 프레임(f2) 상의 합성 이미지를 삭제된 상기 제1 프레임(f1) 상의 상기 대상 이미지에 합성하여, 결과적으로 상기 제1 프레임(f1) 상에 눈을 뜨고 있는 여자 얼굴 이미지(A7)를 포함하는 상기 편집 프레임을 생성할 수 있다.To explain this in more detail, the image A7 of the woman's face with the eyes open on the second frame f2 of FIG. 5(b) is the synthesis selection information, and the first frame f1 of FIG. 5(a) ) Is the frame selection information, the server 10 specifies the composite image, which is the image A7 of the woman's face with the eyes open on the second frame f2, and the specified image of the woman's face and By specifying the target image, which is the image A8 of the woman's face on the corresponding first frame f1, deleting the target image on the first frame f1, and deleting the target image on the specified second frame f2 The composite image is synthesized with the target image on the deleted first frame f1, and as a result, the editing frame including the female face image A7 with eyes open on the first frame f1 is generated. I can.

상기 합성 이미지는 상기 합성 선택 정보에 의해 결정되나, 상기 대상 이미지는 상기 서버(10)에 의해 상기 프레임 선택 정보 및 상기 합성 이미지의 RGB 및/또는 CMYK와 동일 유사한 이미지로 결정될 수 있다.The composite image is determined by the composite selection information, but the target image may be determined by the server 10 as an image identical to the frame selection information and RGB and/or CMYK of the composite image.

즉, 상기 합성 이미지는 상기 합성 선택 정보에 의해 결정되며, 상기 대상 이미지는 상기 합성 이미지에 의해 결정될 수 있다. That is, the composite image may be determined by the composite selection information, and the target image may be determined by the composite image.

도 6은 동영상 편집 방법에 의해 상기 편집 프레임이 생성되는 것을 도시한 것으로서, 도 6(a)에 도시한 바와 같이, 상기 제1 프레임(f1)이 상기 프레임 선택 정보인 경우, 도 5(b)에서 눈을 뜬 여자 얼굴의 이미지(A7)가 상기 합성 이미지로 특정되었다면, 상기 서버(10)는 상기 합성 이미지와 대응되는 이미지인 상기 대상 이미지(A8)를 특정할 수 있다.FIG. 6 shows that the edited frame is generated by the video editing method. As shown in FIG. 6(a), when the first frame f1 is the frame selection information, FIG. 5(b) If the image A7 of the woman's face with eyes opened is specified as the composite image, the server 10 may specify the target image A8, which is an image corresponding to the composite image.

그 후, 도 6(b)에 도시한 바와 같이, 상기 서버(10)는 상기 제1 프레임(f1) 상의 상기 대상 이미지(A8)를 삭제하고, 그 자리에 상기 합성 이미지(A7)를 합성하여, 결과적으로 상기 제1 프레임(f1) 상에 남자 및 여자 모두 눈을 뜨고 있는 상기 편집 프레임을 생성할 수 있다.Thereafter, as shown in FIG. 6(b), the server 10 deletes the target image A8 on the first frame f1, and synthesizes the composite image A7 thereon. As a result, the editing frame in which both men and women open their eyes may be generated on the first frame f1.

또한, 일례로, 동영상 편집 방법은 손 떨림에 의해 상기 편집 대상 동영상을 구성하는 상기 프레임이 흐리게 나오는 경우, 서버(10)가 상기 프레임을 흑백으로 보정한 후, 흑백 값이 가장 큰 값(가장 어두운 값)을 기준으로 나머지 부분에 대해 보정을 실시할 수 있다.In addition, as an example, in the video editing method, when the frame constituting the editing target video is blurred due to hand shaking, the server 10 corrects the frame to black and white, and then the black and white value is the largest value (the darkest Value), the remaining parts can be corrected.

또한, 일례로, 상기 대상 이미지를 삭제하고, 그 자리에 상기 합성 이미지를 합성할 때, 상기 대상 이미지의 비율과 상기 합성 이미지의 비율이 다른 경우, 상기 서버(10)는 상기 대상 이미지의 비율을 기초로 상기 합성 이미지의 비율을 조절할 수도 있다.In addition, as an example, when deleting the target image and combining the composite image on the spot, when the ratio of the target image and the ratio of the composite image are different, the server 10 determines the ratio of the target image. It is also possible to adjust the ratio of the composite image as a basis.

본 발명의 다른 일 실시예에 따른 동영상 편집 서버(10)는 앞서 설명한 동영상 편집 방법을 구현하는 장치일 수 있다.The video editing server 10 according to another embodiment of the present invention may be a device implementing the video editing method described above.

일례로, 도 7에 도시한 바와 같이, 동영상 편집 서버(10)는 이용자의 전자장치(P)로부터 편집 대상 동영상을 포함하는 데이터를 획득하는 수신부(100), 상기 편집 대상 동영상을 구성하는 복수의 프레임을 기초로 상기 프레임을 구성하는 이미지를 수정하여 편집 프레임을 생성하는 제어부(200) 및 상기 전자장치(P)로 상기 편집 프레임을 전송하는 송신부(300)를 포함할 수 있다.As an example, as shown in FIG. 7, the video editing server 10 includes a receiving unit 100 that obtains data including an edit target video from the user's electronic device P, and a plurality of A control unit 200 for generating an edited frame by modifying an image constituting the frame based on the frame, and a transmission unit 300 for transmitting the edited frame to the electronic device P.

즉, 상기 수신부(100)는 상기 동영상 편집 방법을 구현하기 위해 상기 전자장치(P)로부터 필요한 앞서 설명한 모든 데이터/정보를 수신하는 장치일 수 있다.That is, the receiving unit 100 may be a device that receives all the previously described data/information required from the electronic device P to implement the video editing method.

또한, 상기 제어부(200)는 상기 동영상 편집 방법을 구현하기 위해 필요한 데이터/정보의 연산, 산출, 편집, 합성을 구현하는 핵심적 요소일 수 있다.In addition, the control unit 200 may be a key element for implementing calculation, calculation, editing, and synthesis of data/information necessary to implement the video editing method.

즉, 상기 제어부(200)는 앞서 설명한 상기 동영상 편집 방법을 구현하기 위해 어느 하나의 상기 프레임의 이미지와 다른 하나의 상기 프레임의 이미지를 합성하여 상기 편집 프레임을 생성하는 요소일 수 있다.That is, the controller 200 may be an element that generates the edit frame by synthesizing an image of one frame with an image of another frame to implement the video editing method described above.

또한, 상기 서버(10)는 상기 동영상 편집 방법을 구현하기 위해 필요한 데이터/정보를 저장하는 메모리부(400)를 더 포함할 수 있으며, 관리자로부터 소정의 산출식, 연산식, 조건식 등을 입력받을 수 있는 입력부(500)를 더 포함할 수 있다.In addition, the server 10 may further include a memory unit 400 for storing data/information necessary to implement the video editing method, and receive a predetermined calculation formula, calculation formula, conditional expression, etc. It may further include a capable input unit 500.

일례로, 상기 전자장치(P)는 PC, 휴대용 단말기 등일 수 있다.For example, the electronic device P may be a PC or a portable terminal.

상기에서는 본 발명에 따른 실시예를 기준으로 본 발명의 구성과 특징을 설명하였으나 본 발명은 이에 한정되지 않으며, 본 발명의 사상과 범위 내에서 다양하게 변경 또는 변형할 수 있음은 본 발명이 속하는 기술분야의 당업자에게 명백한 것이며, 따라서 이와 같은 변경 또는 변형은 첨부된 특허청구범위에 속함을 밝혀둔다.In the above, the configuration and features of the present invention have been described based on the embodiments according to the present invention, but the present invention is not limited thereto, and various changes or modifications can be made within the spirit and scope of the present invention. It will be apparent to those skilled in the art, and therefore, such changes or modifications are found to belong to the appended claims.

10: 서버
100: 수신부
200: 제어부
300: 송신부
10: server
100: receiver
200: control unit
300: transmitter

Claims (8)

서버가 동영상을 편집하는 동영상 편집 방법에 있어서,
이용자의 전자장치로부터 상기 서버가 편집 대상 동영상을 획득하는 편집 대상 동영상 획득 단계;
상기 서버가 상기 편집 대상 동영상을 구성하는 복수의 프레임을 기초로 상기 프레임을 구성하는 이미지를 수정하여 편집 프레임을 생성하는 편집 프레임 생성 단계; 및
상기 서버가 상기 전자장치로 상기 편집 프레임을 전송하는 편집 프레임 전송 단계;를 포함하며,
상기 편집 프레임 생성 단계는,
복수의 상기 프레임 중,
어느 하나의 상기 프레임의 이미지와 다른 하나의 상기 프레임의 이미지를 합성하여 상기 편집 프레임을 생성하며,
상기 편집 프레임 생성 단계는,
어느 하나의 상기 프레임을 구성하는 이미지 중 소정의 대상 이미지를 삭제하고, 다른 하나의 상기 프레임을 구성하는 이미지 중 소정의 합성 이미지를 상기 대상 이미지 상에 합성하여 상기 편집 프레임을 생성하고,
상기 대상 이미지는,
상기 프레임을 구성하는 이미지 중 복수의 상기 프레임 상에서 기 설정된 거리 이상으로 이동되는 이미지로 특정되며,
상기 합성 이미지는,
상기 프레임 내의 임의의 한 지점으로부터 상기 대상 이미지와 동일 거리 및 동일 영역으로 특정되며,
상기 전자장치로부터 상기 서버가 상기 편집 프레임에 대한 피드백 정보를 획득하는 피드백 정보 획득 단계; 및
상기 서버가 상기 피드백 정보를 기초로 상기 편집 프레임의 이미지를 수정하여 재편집 프레임을 생성하는 재편집 프레임 생성 단계;를 더 포함하며,
상기 재편집 프레임 생성 단계는,
상기 편집 프레임 상의 상기 합성 이미지를 삭제하고, 다른 상기 프레임을 구성하는 이미지 중 소정의 재합성 이미지를 상기 합성 이미지 상에 합성하여 상기 재편집 프레임을 생성하며,
상기 재편집 프레임 생성 단계에서 삭제되는 상기 합성 이미지의 영역의 크기는,
상기 편집 프레임 생성 단계에서 삭제된 상기 대상 이미지의 영역의 크기보다 큰,
동영상 편집 방법.
In the video editing method in which the server edits the video,
An editing target video acquisition step of obtaining, by the server, an editing target video from a user's electronic device;
An editing frame generation step of generating, by the server, an edit frame by modifying an image constituting the frame based on a plurality of frames constituting the editing target video; And
An edit frame transmission step of the server transmitting the edit frame to the electronic device; and
The editing frame generation step,
Among the plurality of frames,
The editing frame is generated by combining the image of one of the frames and the image of the other frame,
The editing frame generation step,
A predetermined target image is deleted from the images constituting one of the frames, and a predetermined composite image of the images constituting the other frame is combined on the target image to generate the edit frame,
The target image is,
Among the images constituting the frame, it is specified as an image that is moved over a preset distance on a plurality of the frames,
The composite image,
It is specified as the same distance and the same area as the target image from an arbitrary point in the frame,
A feedback information acquisition step of the server obtaining feedback information on the edit frame from the electronic device; And
The server further comprises a re-editing frame generating step of generating a re-editing frame by modifying the image of the edited frame based on the feedback information,
The step of generating the reedit frame,
Deleting the composite image on the edited frame, and combining a recomposited image from among images constituting another frame onto the composite image to generate the reediting frame,
The size of the area of the composite image deleted in the reediting frame generation step is,
Larger than the size of the area of the target image deleted in the editing frame generation step,
How to edit videos.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 동영상을 편집하는 동영상 편집 서버에 있어서,
이용자의 전자장치로부터 편집 대상 동영상을 획득하는 수신부;
상기 편집 대상 동영상을 구성하는 복수의 프레임을 기초로 상기 프레임을 구성하는 이미지를 수정하여 편집 프레임을 생성하는 제어부; 및
상기 전자장치로 상기 편집 프레임을 전송하는 송신부;를 포함하며,
상기 제어부는,
복수의 상기 프레임 중,
어느 하나의 상기 프레임의 이미지와 다른 하나의 상기 프레임의 이미지를 합성하여 상기 편집 프레임을 생성하며,
상기 제어부는,
어느 하나의 상기 프레임을 구성하는 이미지 중 소정의 대상 이미지를 삭제하고, 다른 하나의 상기 프레임을 구성하는 이미지 중 소정의 합성 이미지를 상기 대상 이미지 상에 합성하여 상기 편집 프레임을 생성하고,
상기 대상 이미지는,
상기 프레임을 구성하는 이미지 중 복수의 상기 프레임 상에서 기 설정된 거리 이상으로 이동되는 이미지로 특정되며,
상기 합성 이미지는,
상기 프레임 내의 임의의 한 지점으로부터 상기 대상 이미지와 동일 거리 및 동일 영역으로 특정되며,
상기 수신부는,
상기 전자장치로부터 상기 편집 프레임에 대한 피드백 정보를 획득하고,
상기 제어부는,
상기 피드백 정보를 기초로 상기 편집 프레임의 이미지를 수정하여 재편집 프레임을 생성하며,
상기 제어부는,
상기 편집 프레임 상의 상기 합성 이미지를 삭제하고, 다른 상기 프레임을 구성하는 이미지 중 소정의 재합성 이미지를 상기 합성 이미지 상에 합성하여 상기 재편집 프레임을 생성하며,
상기 재편집 프레임 생성에 있어서 삭제되는 상기 합성 이미지의 영역의 크기는,
상기 편집 프레임 생성에 있어서 삭제된 상기 대상 이미지의 영역의 크기보다 큰,
동영상 편집 서버.
In the video editing server for editing videos,
A receiving unit that obtains a video to be edited from the user's electronic device;
A control unit for generating an edit frame by modifying an image constituting the frame based on a plurality of frames constituting the editing target video; And
Includes; a transmission unit for transmitting the edit frame to the electronic device,
The control unit,
Among the plurality of frames,
The editing frame is generated by combining the image of one of the frames and the image of the other frame,
The control unit,
A predetermined target image is deleted from the images constituting one of the frames, and a predetermined composite image of the images constituting the other frame is combined on the target image to generate the edit frame,
The target image is,
Among the images constituting the frame, it is specified as an image that is moved over a preset distance on a plurality of the frames,
The composite image,
It is specified as the same distance and the same area as the target image from an arbitrary point in the frame,
The receiving unit,
Obtaining feedback information on the edit frame from the electronic device,
The control unit,
Generate a reedit frame by modifying the image of the edit frame based on the feedback information,
The control unit,
Deleting the composite image on the edited frame, and combining a recomposited image from among images constituting another frame onto the composite image to generate the reediting frame,
The size of the area of the composite image to be deleted in generating the reedit frame is,
Larger than the size of the area of the target image deleted in the generation of the edit frame,
Video editing server.
KR1020190017979A 2019-02-15 2019-02-15 Method for editing and server thereof KR102216623B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190017979A KR102216623B1 (en) 2019-02-15 2019-02-15 Method for editing and server thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190017979A KR102216623B1 (en) 2019-02-15 2019-02-15 Method for editing and server thereof

Publications (2)

Publication Number Publication Date
KR20200099840A KR20200099840A (en) 2020-08-25
KR102216623B1 true KR102216623B1 (en) 2021-02-17

Family

ID=72242274

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190017979A KR102216623B1 (en) 2019-02-15 2019-02-15 Method for editing and server thereof

Country Status (1)

Country Link
KR (1) KR102216623B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4853320B2 (en) * 2007-02-15 2012-01-11 ソニー株式会社 Image processing apparatus and image processing method
KR20080084212A (en) * 2007-03-15 2008-09-19 (주) 엘지텔레콤 Synthesis method of moving picture in portable terminal and synthesis system for the same
JP5131257B2 (en) * 2009-08-27 2013-01-30 カシオ計算機株式会社 Display control apparatus and display control program

Also Published As

Publication number Publication date
KR20200099840A (en) 2020-08-25

Similar Documents

Publication Publication Date Title
US7782439B2 (en) Method and system for preserving the creative intent within a motion picture production chain
US20070165048A1 (en) Image processing device, image processing method, and image processing program
JP5872834B2 (en) Imaging apparatus, imaging method, and imaging program
JP2006339931A (en) Imaging device and processing method for imaging result of imaging device
CN111312132B (en) Display control device and control method thereof
CN114327700A (en) Virtual reality equipment and screenshot picture playing method
CN106165409A (en) Image processing apparatus, camera head, image processing method and program
CN113747240A (en) Video processing method, apparatus, storage medium, and program product
KR102216623B1 (en) Method for editing and server thereof
US20030123111A1 (en) Image output system, image processing apparatus and recording medium
KR102029604B1 (en) Editing system and editing method for real-time broadcasting
KR101285382B1 (en) A device having function editting of image and Method thereof
JP2000261657A (en) Method for photographing video image for editing with object trimming function, its system and storage medium with program describing the same function stored therein
KR101695209B1 (en) A system and method for composing real-time image and chroma-key Image of subject
KR100757986B1 (en) A camera or mobile terminal editing the images moving effect and the method editing the images moving effect therewith
KR100826134B1 (en) System and Method for Providing Dance Moving Picture and Program Recording Medium
JP2016158279A (en) Image processor, image processing method, and program
JP6499612B2 (en) Image processing apparatus, image processing method, and program
JP4177199B2 (en) Method and system for generating an image of a moving object
JP7129678B1 (en) Imaging device
KR102374665B1 (en) Method and system for generating broadcast video for personal broadcasting
KR101281786B1 (en) A mobile phone haveing a fundtino of editing motion picture and the method for editing motion picture thereof
KR102462863B1 (en) Method of operating open market platform that matches users with sellers who automatically recommend products to users based on artificial intelligence
JP2012151724A (en) Synthetic image creating apparatus, synthetic image creating program, and imaging apparatus
JP2017118427A (en) Information terminal device, imaging device, image information processing system, and image information processing method

Legal Events

Date Code Title Description
N231 Notification of change of applicant
N231 Notification of change of applicant
E701 Decision to grant or registration of patent right
GRNT Written decision to grant