KR102472801B1 - Distributed Multimedia editing System and Method - Google Patents

Distributed Multimedia editing System and Method Download PDF

Info

Publication number
KR102472801B1
KR102472801B1 KR1020180091228A KR20180091228A KR102472801B1 KR 102472801 B1 KR102472801 B1 KR 102472801B1 KR 1020180091228 A KR1020180091228 A KR 1020180091228A KR 20180091228 A KR20180091228 A KR 20180091228A KR 102472801 B1 KR102472801 B1 KR 102472801B1
Authority
KR
South Korea
Prior art keywords
data
editing
video
post
audio
Prior art date
Application number
KR1020180091228A
Other languages
Korean (ko)
Other versions
KR20180090977A (en
Inventor
천솔지
Original Assignee
천종윤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020160132123A external-priority patent/KR20170044590A/en
Application filed by 천종윤 filed Critical 천종윤
Priority to KR1020180091228A priority Critical patent/KR102472801B1/en
Publication of KR20180090977A publication Critical patent/KR20180090977A/en
Application granted granted Critical
Publication of KR102472801B1 publication Critical patent/KR102472801B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/262Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists
    • H04N21/26208Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists the scheduling operation being performed under constraints
    • H04N21/26241Content or additional data distribution scheduling, e.g. sending additional data at off-peak times, updating software modules, calculating the carousel transmission frequency, delaying a video stream transmission, generating play-lists the scheduling operation being performed under constraints involving the time of distribution, e.g. the best time of the day for inserting an advertisement or airing a children program
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Abstract

본 발명에 따른 분산형 멀티미디어 편집 시스템은, 제 1 카메라 사전 제어 데이터를 통해 제 1 카메라 모듈을 제어하여 공연자의 퍼포먼스를 촬영한 제 1 비디오 소스 데이터를 수신하는 제 1 카메라 제어모듈; 제 2 카메라 사전 제어 데이터를 통해 제 2 카메라 모듈을 제어하여 상기 공연자의 상기 퍼포먼스를 촬영한 제 2 비디오 소스 데이터를 수신하는 제 2 카메라 제어모듈; 및 상기 공연자의 상기 퍼포먼스를 녹음한 녹음 오디오 소스 데이터를 생성하는 마이크 모듈;을 포함하여 구성되는 스튜디오 제어 서버; 상기 제 1 비디오 소스 데이터와 상기 제 2 비디오 소스 데이터를 저장하는 비디오 소스 저장모듈; 상기 녹음 오디오 소스 데이터 및 오디오 사전 제어 데이터에 의해 정의된 배경 오디오 소스 데이터를 저장하는 오디오 소스 저장모듈; 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터에 기반하여 상기 제 1 비디오 소스 데이터의 데이터 크기 및 상기 제 2 비디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 실시간 편집 비디오 데이터를 생성하는 실시간 비디오 편집모듈; 및 상기 녹음 오디오 소스 데이터 및 상기 배경 오디오 소스 데이터에 기반하여 상기 녹음 오디오 소스 데이터의 데이터 크기 및 상기 배경 오디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 실시간 편집 오디오 데이터를 생성하는 실시간 오디오 편집모듈;을 포함하여 구성되는 멀티미디어 편집 서버; 통신망을 통해 상기 멀티미디어 편집 서버에 접속하고, 비디오 편집을 통해 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터를 기반으로 상기 제 1 비디오 소스 데이터의 데이터 크기 및 상기 제 2 비디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 사후 편집 비디오 데이터를 생성하여 상기 멀티미디어 편집 서버에게 전송하는 사후 비디오 편집 단말장치; 및 통신망을 통해 상기 멀티미디어 편집 서버에 접속하고, 오디오 편집을 통해 상기 녹음 오디오 소스 데이터 및 상기 배경 오디오 소스 데이터를 기반으로 상기 녹음 오디오 소스 데이터의 데이터 크기 및 상기 배경 오디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 사후 편집 오디오 데이터를 생성하여 상기 멀티미디어 편집 서버에게 전송하는 사후 오디오 편집 단말장치;를 포함하여 구성되고, 상기 멀티미디어 편집 서버는, 상기 사후 비디오 편집 단말장치에게 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터에 대한 접근권한을 선택적으로 부여하고, 상기 사후 오디오 편집 단말장치에게 상기 녹음 오디오 소스 데이터 및 상기 배경 오디오 소스 데이터에 대한 접근권한을 선택적으로 부여하는 선택적 접근권한 관리모듈; 상기 사후 비디오 편집 단말장치에게 상기 실시간 편집 오디오 데이터 또는 상기 사후 편집 오디오 데이터를 선택적으로 전송하고 상기 사후 오디오 편집 단말장치에게 상기 실시간 편집 비디오 데이터 또는 상기 사후 편집 비디오 데이터를 선택적으로 전송하는 선택적 편집 데이터 전송모듈; 및 상기 사후 편집 비디오 데이터에 적용된 비디오 편집 및 상기 사후 편집 오디오 데이터에 적용된 오디오 편집에 따라 단일의 멀티미디어 파일 데이터를 생성하는 멀티미디어 파일 생성모듈;을 더 포함하는 것을 특징으로 한다.A distributed multimedia editing system according to the present invention includes: a first camera control module for receiving first video source data obtained by capturing a performer's performance by controlling a first camera module through first camera pre-control data; a second camera control module for receiving second video source data obtained by capturing the performance of the performer by controlling the second camera module through second camera pre-control data; and a microphone module for generating recorded audio source data in which the performance of the performer is recorded; a studio control server including; a video source storage module for storing the first video source data and the second video source data; an audio source storage module configured to store background audio source data defined by the recorded audio source data and audio pre-control data; single real-time editing video data having a data size smaller than the sum of the data size of the first video source data and the data size of the second video source data based on the first video source data and the second video source data Real-time video editing module to create; and generating single real-time edited audio data having a data size smaller than the sum of the data sizes of the recording audio source data and the data sizes of the background audio source data based on the recording audio source data and the background audio source data. Audio editing module; Multimedia editing server comprising a; A data size of the first video source data and a data size of the second video source data based on the first video source data and the second video source data through video editing by accessing the multimedia editing server through a communication network a post-video editing terminal device generating a single post-editing video data having a data size smaller than the sum of and transmitting the post-editing video data to the multimedia editing server; and connects to the multimedia editing server through a communication network, and through audio editing, based on the recorded audio source data and the background audio source data, a data size of the recorded audio source data and a data size of the background audio source data are greater than the sum of the data sizes of the recorded audio source data and the background audio source data. and a post-audio editing terminal device generating a single post-editing audio data having a small data size and transmitting the post-editing audio data to the multimedia editing server, wherein the multimedia editing server sends the post-video editing terminal device to the post-video editing terminal device. Optional access right management for selectively granting access rights to source data and the second video source data, and selectively granting access rights to the recorded audio source data and background audio source data to the post-audio editing terminal device module; Selective editing data transmission for selectively transmitting the real-time edited audio data or the post-editing audio data to the post-video editing terminal device and selectively transmitting the real-time edited video data or the post-editing video data to the post-editing audio editing terminal device module; and a multimedia file generation module for generating single multimedia file data according to video editing applied to the post-edited video data and audio editing applied to the post-edited audio data.

Figure R1020180091228
Figure R1020180091228

Description

분산형 멀티미디어 편집 시스템 및 편집방법{Distributed Multimedia editing System and Method}Distributed Multimedia Editing System and Method

본 발명은 분산형 멀티미디어 편집 시스템 및 편집방법에 관한 것으로 통신망을 통해 다수의 참여자들의 체계적인 협업을 통한 멀티미디어 제작환경을 제공할 수 있는 분산형 멀티미디어 편집 시스템 및 편집방법에 관한 것이다.The present invention relates to a distributed multimedia editing system and editing method, and to a distributed multimedia editing system and editing method capable of providing a multimedia production environment through systematic collaboration of a plurality of participants through a communication network.

비디오 컨텐츠는 동영상 촬영, 동영상 편집, 동영상 컨텐츠 유통 등에 많은 비용과 노력이 소요되는 것이 일반적이다. 따라서 비디오 컨텐츠는 전문 촬영장비, 전문 촬영인력, 전문 편집장비와 전문 촬영인력 및 전문 편집인력을 갖춘 영화사, TV 방송국, 방송 컨텐츠 프로덕션 등에서 제작하는 PGC(Professionally Generated Content)가 일반적이었다. 보다 구체적으로 영화, TV 프로그램 등의 PGC 제작 공정에 있어서 컨텐츠 기획, 시나리오 작성, 촬영대본 제작, 제작회의 등의 촬영컨셉을 확정하는 사전제작(pre-production) 공정, 야외촬영, 실내촬영, 세트촬영 등을 통해 실제 영상을 촬영하는 실제제작(production) 공정, 비디오 편집, 색보정, 배경합성, 오디오 편집 등의 사후편집을 수행하는 사후제작(post-production)으로 컨텐츠 제작 공정을 세분화할 수 있으며 각 공정별로 많은 전문인력과 전문장비를 필요로 한다. 물론 컴퓨터를 이용한 디지털 비선형 비디오 편집(digital non-linear video editing)의 실현은 과거 필름 또는 비디오테이프를 이용한 과거의 아날로그 선형 비디오 편집(analog linear video editing)과 비교하여 편집에 소요되는 비용 및 인력을 효과적으로 저감하였지만, 영상기술 및 음향기술의 발전에 따라 3D 모델링, 영상합성 등 새로운 비디오 효과의 개발 및 멀티미디어 파일에 포함되는 오디오 채널의 증가 등으로 인해 여전히 사후제작 공정에 많은 비용 및 인력이 요구되고 있다.It is common for video content to require a lot of effort and cost for shooting, editing, and distributing video content. Therefore, professionally generated content (PGC) produced by film studios, TV stations, and broadcasting content productions equipped with professional filming equipment, professional filming personnel, professional editing equipment, and professional filming and editing personnel was common. More specifically, in the PGC production process of movies and TV programs, the pre-production process that confirms the shooting concept such as content planning, scenario writing, shooting script production, production meeting, outdoor shooting, indoor shooting, and set shooting The content production process can be subdivided into the actual production process of shooting actual video through video editing, color correction, background compositing, and post-production that performs post-production such as audio editing. Each process requires a lot of professional manpower and specialized equipment. Of course, the realization of digital non-linear video editing using a computer effectively reduces the cost and manpower required for editing compared to the past analog linear video editing using film or video tape. However, due to the development of new video effects such as 3D modeling and image synthesis and the increase in audio channels included in multimedia files, a lot of cost and manpower are still required in the post-production process according to the development of video and audio technologies.

한편, 비디오의 촬영에 있어서 비디오 촬영이 가능한 스마트폰, 태블릿 PC, 디지털 카메라 등이 보급되었고, 전문적인 기술이 없는 일반인도 기초적인 비디오 편집이 가능한 동영상 편집 애플리케이션 등이 개발되었고, 사용자 동영상을 업로드하여 다른 사용자들과 공유하는 동영상 공유 서비스가 인터넷을 통해 제공되고 있다. 이로 인해 일반 사용자들이 직접 촬영, 편집, 유통하는 UGC(User Generated Content)가 증가하고, UGC에 광고를 부가하는 방법으로 일반 사용자들이 UGC 유통에 따른 수익을 창출하는 비즈니스의 규모도 증가하고 있다.On the other hand, in video shooting, smartphones, tablet PCs, digital cameras, etc. that can shoot video have been disseminated, and a video editing application that enables basic video editing even by ordinary people without professional skills has been developed. A video sharing service for sharing with other users is provided over the Internet. As a result, UGC (User Generated Content), which is directly filmed, edited, and distributed by general users, is increasing, and the size of businesses in which general users generate profits from UGC distribution by adding advertisements to UGC is also increasing.

그런데, UGC는 전문적인 촬영장비를 이용하지 않고 촬영자의 촬영기술 부족으로 인해 영상구도가 엉성하고, 영상이 불안정하고, 부적절한 조명으로 인해 피사체가 부각되지 않는 것이 일반적이다. 또한 영상편집 등의 사후제작(post production) 공정을 거치지 않거나 비전문적인 편집기술로 인해 단일 앵글의 단조로운 영상이 지루하게 연속되는 경우가 많다. 즉 비전문적인 촬영과 비전문적인 편집으로 인해 PGC와 비교할 수 없을 정도로 UGC의 영상품질은 떨어지는 것이 일반적이다.However, it is common for UGC not to use professional shooting equipment, and the image composition is sloppy due to the photographer's lack of shooting skills, the image is unstable, and the subject is not highlighted due to inappropriate lighting. In addition, there are many cases in which monotonous images of a single angle are continuously continuously tediously due to non-professional editing techniques or post-production processes such as video editing. In other words, due to unprofessional filming and unprofessional editing, the image quality of UGC is generally inferior to that of PGC.

하지만 많은 수의 UGC들이 경쟁적으로 제작되고, 기존의 PGC 제공자들도 유튜브(YouTube)와 같은 동영상 공유 서비스를 통해 컨텐츠를 공급하는 환경에서 컨텐츠 소비자들의 컨텐츠 선택기준도 높아졌기 때문에 UGC 역시 높은 영상 품질이 요구된다. 더욱이 통신기술의 발달에 따라 브로드밴드 인터넷 서비스가 제공할 수 있는 비디오의 해상도도 증가하고, 디스플레이 기술의 발달에 따라 컨텐츠 이용자의 디스플레이의 품질도 증가하기 때문에 일반 컨텐츠 소비자들에게 어필할 수 있는 고품질의 UGC의 제작이 요구된다.However, in an environment where a large number of UGCs are produced competitively and existing PGC providers also supply content through video sharing services such as YouTube, content consumers have higher standards for content selection, so UGC also requires high video quality. do. Furthermore, with the development of communication technology, the resolution of the video that broadband Internet service can provide increases, and the quality of the display of content users increases with the development of display technology, so high-quality UGC that can appeal to general content consumers. production is required.

고품질의 비디오 컨텐츠를 제작하기 위해서는 종래의 PGC 제작과 동일하게 전문적인 조명, 카메라, 음향장비 등을 구비하는 스튜디오 장비와 전문 촬영인력을 통해 촬영하고, 전문 편집장비와 전문 편집인력을 통해 편집하는 방법을 고려할 수 있다. 하지만 영화관 및 TV 프로그램을 통한 배포와 컨텐츠 저작권 판매 등을 통해 높은 기대수익을 갖는 PGC와는 달리 UGC는 아주 예외적인 경우를 제외하고는 기대수익이 낮기 때문에 많은 비용을 투입하여 UGC를 생산하는 것은 타산성이 없는 문제가 있다.In order to produce high-quality video contents, a method of filming with professional photographers and studio equipment equipped with professional lighting, cameras, sound equipment, etc., and editing with professional editing equipment and professional editors is the same as conventional PGC production. can be considered. However, unlike PGC, which has high expected profits through distribution through movie theaters and TV programs and sales of content copyrights, UGC has low expected profits except for very exceptional cases, so it is not feasible to invest a lot of money to produce UGC. there is no problem

다음으로, 촬영인력이 최소화되는 카메라 제어, 조명제어, 음향제어 등이 자동화된 스튜디오 장비를 구현하고, 자동화된 스튜디오 장비를 많은 UGC 제작자들에게 활용하게 함으로써 UGC 촬영의 소요비용을 최소화하면서 적절한 촬영조명 하에서 안정적인 카메라워크가 구현된 비디오 컨텐츠를 제작할 수 있다. Walt Disney Productions의 미국등록특허 제4,283,766호 “Automatic Camera Control for Creating Special Effects in Motion Picture Photography”는 카메라의 촬영위치를 사전에 정의된 제어명령에 따라 자동으로 제어하는 카메라 컨트롤 시스템을 개시한다. 이러한 자동화된 카메라 제어 시스템은 전문 촬영인력을 요구하지 않고 다수의 사용자들이 동일한 카메라 제어 시스템을 공유할 수 있기 때문에 적은 비용으로 비교적 높은 품질의 영상을 촬영할 수 있는 장점이 있다. 하지만, 이는 사전제작(pre-production) 공정 및 실제제작(production)공정에만 적용되는 것으로 비디오 컨텐츠의 품질에 많은 영향을 미치는 사후 편집 등의 사후제작(post-production) 공정에 대한 고려가 없는 문제가 있다. 더욱이 두 개 이상의 카메라로 구성되는 멀티 카메라 제작환경에서는 각 카메라에서 생산되는 비디오 소스 데이터를 편집하여 단일의 멀티미디어 파일을 생성하는 방법을 개시하지 못하는 문제가 있다.Next, by implementing automated studio equipment such as camera control, lighting control, and sound control that minimizes the number of shooting personnel, and allowing many UGC producers to utilize the automated studio equipment, appropriate shooting lighting while minimizing the cost of UGC shooting It is possible to produce video contents with stable camera work under Walt Disney Productions' US Patent No. 4,283,766 "Automatic Camera Control for Creating Special Effects in Motion Picture Photography" discloses a camera control system that automatically controls the shooting position of a camera according to a predefined control command. This automated camera control system has the advantage of being able to take relatively high-quality images at low cost because a number of users can share the same camera control system without requiring professional photographers. However, this applies only to the pre-production process and the actual production process, and there is no problem without considering the post-production process such as post-editing, which greatly affects the quality of video content. have. Furthermore, in a multi-camera production environment composed of two or more cameras, there is a problem in that a method of generating a single multimedia file by editing video source data produced by each camera cannot be disclosed.

Telcordia Technologies, Inc의 미국등록특허 제6,392,694호 “Method and Apparatus for an automatic Camera Selection System” 및 Microsoft Corporation의 미국등록특허 제7,349,008호 “Automated Camera Management System and Method for Capturing Presentations Using Videography Rules”는 강의 등의 프리젠테이션의 촬영을 위한 자동화된 카메라 선택 시스템을 개시한다. 이러한 시스템에 따르면 멀티 카메라 제작환경에서 사전 정의된 비디오 룰에 따라 시스템이 자동으로 영상을 선택하여 멀티미디어 파일을 생성하기 때문에 사전제작(pre-production) 공정, 실제제작(production) 공정, 사후제작(post-production) 공정을 자동화하여 비디오 컨텐츠 생산에 소요되는 비용을 저감하면서 적절한 영상품질을 확보할 수 있는 장점이 있다. 그러나 이러한 자동편집 시스템은 종래기술에 기재된 것과 같이 고정적인 촬영 포맷으로 이루어지는 동영상 강의 컨텐츠와 같은 정보전달형 비디오 컨텐츠에는 적합하지만 예컨대 사용자의 가창 등의 퍼포먼스를 촬영하는 뮤직비디오와 같은 역동적인 엔터테인먼트 비디오 컨텐츠에 적용하기에는 한계가 있다. 엔터테인먼트 비디오 컨텐츠는 속성상 다양하고 역동적인 편집기법을 통해 시청자의 관심을 계속 유지하게 하는 것이 중요한데, 미리 설정된 편집 룰에 따른 단조롭고 기계적인 자동화 편집으로는 이러한 감각적인 편집이 가미된 고품질의 비디오 컨텐츠를 생산하기 어려운 문제가 있다. 또한 엔터테인먼트 컨텐츠의 경우 비디오 뿐 아니라 다양한 악기들로 구성되는 배경음악의 편집 및 리버브(reverb), 딜레이(delay), 피치 시프팅(pitch shifting) 등의 음향효과의 부가 등의 오디오 편집도 중요한데 전술한 종래기술은 오디오 편집을 고려하지 않은 한계가 있다.U.S. Patent No. 6,392,694 “Method and Apparatus for an automatic Camera Selection System” by Telcordia Technologies, Inc and U.S. Patent No. 7,349,008 “Automated Camera Management System and Method for Capturing Presentations Using Videography Rules” by Microsoft Corporation are An automated camera selection system for filming of a presentation is disclosed. According to this system, since the system automatically selects images and creates multimedia files according to predefined video rules in a multi-camera production environment, the pre-production process, the actual production process, and the post-production process It has the advantage of securing appropriate image quality while reducing the cost required for producing video contents by automating the production process. However, as described in the prior art, such an automatic editing system is suitable for information delivery type video contents such as video lecture contents consisting of a fixed shooting format, but dynamic entertainment video contents such as music videos recording performances of users such as singing. There are limitations to its application. Due to its nature, it is important to maintain the interest of viewers through various dynamic editing methods for entertainment video content. Monotonous and mechanical automated editing according to preset editing rules can produce high-quality video content with sensuous editing. There are problems that are difficult to produce. In addition, in the case of entertainment contents, audio editing such as editing of background music composed of various musical instruments as well as video and adding sound effects such as reverb, delay, and pitch shifting is important. The prior art has limitations in not considering audio editing.

특히 엔터테인먼트 컨텐츠 등에 있어서 자동편집의 한계를 극복하기 위해서는 사후제작(post-production) 공정에서 편집 전문인력을 통한 창의적인 비디오 편집 및 오디오 편집이 필요하다. 하지만 편집 전문인력을 정기적으로 유지하는 방법은 전술한 바와 같이 결국 컨텐츠 생산 비용을 증가시키는 문제가 있다. 이를 해결하기 위해서 편집기술을 보유한 일반 사용자가 통신망을 통해 접속하여 편집을 수행하는 분산편집 시스템이 제안된 바 있다.In particular, in order to overcome the limitations of automatic editing in entertainment contents, etc., creative video editing and audio editing through editing experts are required in the post-production process. However, as described above, the method of regularly maintaining editorial experts has a problem of increasing content production costs. In order to solve this problem, a distributed editing system has been proposed in which a general user with editing skills accesses and edits through a communication network.

NIPPON HOSO KYOKAI의 일본등록특허 제5111422호 “컨텐츠 제작 시스템 및 컨텐츠 제작 프로그램”은 3D 애니메이션으로 구성되는 비디오 컨텐츠에 대한 분산제작 시스템을 개시한다. 이러한 분산 제작 시스템에 따르면 하나의 비디오 컨텐츠에 대한 제작 작업을 분할하여 복수의 단말기가 제작 작업을 나누어 수행할 수 있는 장점이 있다. 그러나 이러한 분산제작 시스템은 3D 애니메이션을 전제한 컨텐츠 생산환경에 적용되는 것으로서 가상 캐릭터의 연기를 정의하는 TVML 프로그램 명령어 및 가상 캐릭터의 연기를 보여주는 가상 카메라 시점을 정의하는 프로그램 명령어를 분량적으로 분배하는 시스템이기 때문에 3D 애니메이션의 특성상 사후제작(post-production) 공정이 존재하지 않는 사전제작(pre-production) 공정에 대한 분산편집 시스템으로서, 실사영상을 기반으로 한 비디오 편집 또는 오디오 편집이 아닌 3D 애니메이션으로 구성되는 프로그램 편집에만 적용할 수 있는 한계가 있다.Japanese Registered Patent No. 5111422 of NIPPON HOSO KYOKAI, "Contents Creation System and Contents Creation Program," discloses a distributed production system for video contents composed of 3D animations. According to this distributed production system, there is an advantage in that a production work for one video content can be divided and a plurality of terminals can divide and perform the production work. However, this distributed production system is applied to a content production environment based on 3D animation, and is a system that distributes TVML program commands that define the acting of virtual characters and program commands that define the virtual camera viewpoint that shows the acting of virtual characters in quantitative terms. As a distributed editing system for the pre-production process, which does not have a post-production process due to the nature of 3D animation, it consists of 3D animation rather than video editing or audio editing based on live action images There is a limitation that can be applied only to program editing that can be performed.

MEGA CHIPS CORP의 일본등록특허 제5152458호 “컨텐츠 베이스, 커뮤니케이션 시스템”은 여러 참가자들이 참여하는 컨텐츠 생산 시스템을 개시한다. 이러한 시스템에 따르면 통신망을 통해 여러 사용자들이 참여하여 단일의 컨텐츠를 만들 수 있는 장점이 있다. 하지만 본 종래기술에 따른 시스템은 복수의 사용자들이 시나리오 데이터에 따라 각자가 보유한 컨텐츠를 통신망을 통해 제공하여 시나리오 데이터에 따른 컨텐츠를 생산하는 것으로, 사후제작(post-production) 공정에서 통신망을 통해 편집 전문가가 참여함으로써 비디오 컨텐츠의 품질을 향상하는 것에 대해 고려하지 않은 한계가 있다.MEGA CHIPS CORP's Japanese Registered Patent No. 5152458 “Content Base, Communication System” discloses a content production system in which several participants participate. According to this system, there is an advantage in that a single content can be created through the participation of several users through a communication network. However, in the system according to the present art, a plurality of users provide their own content according to scenario data through a communication network to produce content according to scenario data, and an editorial expert through a communication network in a post-production process. There is a limit that is not considered for improving the quality of video contents by participating.

EYESPOT CORPORATION의 미국공개특허 제2009-0196570호 “System and Methods for Online Collaborative Video Creation”은 통신망을 통한 사후제작(post-production) 공정에서의 분산편집 시스템을 개시한다. 이러한 시스템에 따르면 편집기술을 보유한 사용자가 통신망을 통해 비디오 컨텐츠를 편집함으로써 편집에 소요되는 노력 및 비용을 저감할 수 있는 장점이 있다. 그러나 본 종래기술에 따른 분산편집 시스템은 첫째, 이미 촬영이 완료된 비디오 컨텐츠에 대한 편집으로 사후제작(post-production) 공정만 고려한 문제가 있다. 예컨대 미숙한 촬영으로 인해 영상자체의 품질이 떨어지는 경우 사후적인 편집만으로 비디오 컨텐츠의 품질을 높이는 것에는 한계가 있다. 한편 비디오 컨텐츠는 시각적인 비디오 데이터와 청각적인 오디오 데이터를 포함하여 구성되고, 비디오 편집과 오디오 편집은 서로 다른 전문적인 영역에 속하는 것에 불구하고, 해당 인용발명은 단순히 통신망을 통해 비디오 컨텐츠를 편집하는 구성만 개시함으로써 각 비디오 편집 단말장치와 오디오 편집 단말장치 간 효율적인 데이터 전송 및 데이터 접근권한 배분에 관한 문제를 고려하지 않은 한계가 있다.EYESPOT CORPORATION's US Patent Publication No. 2009-0196570 “System and Methods for Online Collaborative Video Creation” discloses a distributed editing system in a post-production process through a communication network. According to this system, there is an advantage in that a user with editing skills can reduce the effort and cost required for editing by editing video content through a communication network. However, the distributed editing system according to the prior art has a problem in that, first, only a post-production process is considered as editing for video contents that have already been filmed. For example, when the quality of video itself is degraded due to inexperienced shooting, there is a limit to improving the quality of video contents only by post-editing. Meanwhile, video content includes visual video data and auditory audio data, and although video editing and audio editing belong to different specialized areas, the cited invention simply edits video content through a communication network. By disclosing only the video editing terminal device and the audio editing terminal device, there is a limit that does not consider the problem of efficient data transmission and distribution of data access rights.

USUS 42837664283766 AA USUS 63926946392694 B1B1 USUS 73490087349008 B2B2 JPJP 51114225111422 B2B2 JPJP 51524585152458 B2B2 USUS 2009-01965702009-0196570 A1A1

본 발명은 상기의 문제점을 해결하기 위한 것으로, 본 발명에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 카메라 사전 제어 데이터 및 오디오 사전 제어 데이터를 통해 사전제작(pre-production) 공정, 비디오 소스 데이터 및 오디오 소스 데이터를 수신하는 실제제작(production) 공정, 실시간 편집 비디오 데이터, 실시간 편집 오디오 데이터, 사후 편집 비디오 데이터 및 사후 편집 오디오 데이터를 생산하는 사후제작(post-production) 공정을 단일의 시스템을 통해 수행함으로써 멀티미디어 컨텐츠 제작비용 및 제작소요시간을 저감하고, 제작효율 및 컨텐츠 품질을 증가시키는 것을 목적으로 한다.The present invention is to solve the above problems, and the distributed multimedia editing system and editing method according to the present invention, through camera pre-control data and audio pre-control data, pre-production process, video source data and The actual production process of receiving audio source data, and the post-production process of producing real-time edited video data, real-time edited audio data, post-edited video data, and post-edited audio data are performed through a single system. By doing so, it aims to reduce the production cost and production time of multimedia contents, and to increase production efficiency and contents quality.

본 발명에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 비디오 소스 데이터들을 통해 우선적으로 실시간 편집 비디오 데이터를 생성하여 사후 오디오 편집 단말장치에게 제공함으로써 사후 비디오 편집 단말장치의 사후 비디오 편집 작업 전이라도 사후 오디오 편집 단말장치가 실시간 편집 비디오 데이터를 참조하여 이와 동기화된 오디오를 편집할 수 있도록 하고, 오디오 소스 데이터들을 통해 우선적으로 실시간 편집 오디오 데이터를 생성하여 사후 비디오 편집 단말장치에게 제공함으로써 사후 오디오 편집 단말장치의 사후 오디오 편집 작업 전이라도 사후 비디오 편집 단말장치가 실시간 편집 오디오 데이터를 참조하여 이와 동기화된 비디오를 편집할 수 있도록 하는 것을 다른 목적으로 한다.The distributed multimedia editing system and editing method according to the present invention preferentially generate real-time edited video data through video source data and provide it to a post-audio editing terminal device, so that the post-video editing terminal device can perform post-video editing even before post-video editing. The editing terminal device refers to the real-time editing video data to edit audio synchronized with it, and generates real-time editing audio data preferentially through audio source data and provides it to the post-video editing terminal device, thereby improving the quality of the post-audio editing terminal device. Another object is to allow a post-video editing terminal device to refer to real-time edited audio data and edit video synchronized therewith even before post-audio editing work.

본 발명에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 멀티미디어 편집 서버가 사후 비디오 편집 단말장치에게 선택적으로 비디오 소스 데이터들에 접근하게 하고, 사후 오디오 편집 단말장치에게 선택적으로 소스 오디오 데이터들에 접근하게 하는 선택적 접근권한 관리모듈을 포함함으로써, 사후 비디오 편집 단말장치에 의한 임의적인 오디오 편집 및 오디오 소스 데이터 접근을 방지하고, 사후 오디오 편집 단말장치에 의한 임의적인 비디오 편집 및 비디오 소스 데이터 접근을 방지함으로써 통신망을 통한 분산편집 환경에서 체계적인 데이터 관리를 제공하는 것을 다른 목적으로 한다.Distributed multimedia editing system and editing method according to the present invention, a multimedia editing server allows a post-video editing terminal device to selectively access video source data, and a post-audio editing terminal device to selectively access source audio data. By including an optional access right management module to prevent arbitrary audio editing and audio source data access by post-video editing terminal devices, and by preventing arbitrary video editing and video source data access by post-audio editing terminal devices, communication network Another purpose is to provide systematic data management in a distributed editing environment through

본 발명에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 사후 비디오 편집을 담당하는 사후 비디오 편집 단말장치에는 오디오 소스 데이터들 보다 작은 크기를 갖는 실시간 편집 오디오 데이터 또는 사후 편집 오디오 데이터를 제공하고, 사후 오디오 편집 단말장치에는 비디오 소스 데이터들 보다 작은 크기를 갖는 실시간 편집 오디오 데이터 또는 사후 편집 오디오 데이터를 제공함으로써, 통신망을 통해 접속하는 단말장치의 저장 용량 및 프로세서 성능이 떨어지는 경우에도 분산편집에 참여할 수 있도록 하고 단말장치로의 데이터 전송량을 최소화하여 멀티미디어 편집 서버의 연산처리 부담을 경감하는 것을 다른 목적으로 한다.Distributed multimedia editing system and editing method according to the present invention provides real-time edited audio data or post-edited audio data having a smaller size than audio source data to a post-video editing terminal device responsible for post-video editing, and post-editing audio data. Editing terminal devices are provided with real-time editing audio data or post-editing audio data having a smaller size than video source data, so that they can participate in distributed editing even when the storage capacity and processor performance of terminal devices connected through a communication network are poor, Another object of the present invention is to reduce the burden of computational processing on a multimedia editing server by minimizing the amount of data transmission to a terminal device.

본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 사후 비디오 편집 단말장치를 통해 카메라 사전 제어 데이터를 더 생성하거나, 사후 오디오 편집 단말장치를 통해 오디오 사전 제어 데이터를 더 생성함으로써, 사후제작(post-production) 공정 뿐 아니라 사전제작(pre-production) 단계를 통신망을 통해 분산함으로써 멀티미디어 컨텐츠 제작을 효율화하는 것을 다른 목적으로 한다.Distributed multimedia editing system and editing method according to an embodiment of the present invention further generates camera pre-control data through a post-video editing terminal device or further generates audio pre-control data through a post-audio editing terminal device, Another purpose is to streamline the production of multimedia contents by distributing not only the post-production process but also the pre-production stage through a communication network.

본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 카메라들에서 생성된 비디오 소스 데이터들에 배경 비디오 데이터를 더 포함시켜 실시간 편집 비디오 데이터를 생성함으로써, 크로마키 합성과 같은 편집작업을 실시간으로 수행함과 동시에 사후 오디오 편집 단말장치는 최종 결과물과 유사하도록 배경이 합성된 실시간 편집 비디오 데이터를 참조하여 영상과 부합하는 오디오를 사후 편집하도록 하는 것을 다른 목적으로 한다.Distributed multimedia editing system and editing method according to an embodiment of the present invention further includes background video data in video source data generated by cameras to generate real-time edited video data, thereby performing editing operations such as chroma key synthesis. As well as performing in real time, the post-audio editing terminal device refers to real-time edited video data in which a background is synthesized to be similar to the final result, and post-edits audio that matches the video for another purpose.

본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 멀티미디어 편집 서버가 사후 비디오 편집 단말장치 또는 사후 오디오 편집 단말장치에 의한 사후 편집 데이터의 생성 이벤트 및 수정 이벤트가 발생하는 경우 통신망을 통해 다른 사후 편집 단말장치에게 통보하는 데이터 변경 알림모듈을 더 포함함으로써, 통신망을 통해 접속된 복수의 사후 편집 단말장치들이 편집 협업과정의 변화를 신속하게 파악할 수 있도록 하는 것을 다른 목적으로 한다.Distributed multimedia editing system and editing method according to an embodiment of the present invention, when a creation event and a modification event of post-editing data by a post-video editing terminal device or a post-audio editing terminal device occur in a multimedia editing server through a communication network. Another object is to further include a data change notification module for notifying other post-editing terminal devices so that a plurality of post-editing terminal devices connected through a communication network can quickly grasp changes in an editing collaboration process.

본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 멀티미디어 편집 서버가 사후 비디오 편집 단말장치 및 사후 오디오 편집 단말장치의 편집순서를 시간적으로 할당할 수 있는 편집작업 분배모듈을 더 포함함으로써, 통신망을 통해 분산되어 편집작업을 수행하는 사후 편집 단말장치들 간의 편집순서를 지정함으로써 멀티미디어 편집작업의 효율성을 제고하는 것을 다른 목적으로 한다. Distributed multimedia editing system and editing method according to an embodiment of the present invention, the multimedia editing server further includes an editing task distribution module capable of temporally allocating the editing order of the post-video editing terminal device and the post-audio editing terminal device. Another purpose is to improve the efficiency of multimedia editing work by designating the editing order among post-editing terminal devices that perform editing work distributed over a communication network.

마지막으로, 본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 멀티미디어 편집 서버가 사후 비디오 편집에 있어서 카메라들에서 촬영된 고품질의 비디오 소스 데이터들을 보다 작은 용량의 프록시 미디어로 변경하여 사후 비디오 편집 단말장치에 제공함으로써, 데이터 전송량을 저감하고, 사후 비디오 소스 데이터의 편집에 소요되는 연산부담을 저감하는 것을 다른 목적으로 한다.Finally, in the distributed multimedia editing system and editing method according to an embodiment of the present invention, the multimedia editing server changes high-quality video source data captured by cameras into smaller-capacity proxy media in post-video editing. Another object is to reduce the amount of data transmission and reduce the computational burden required for editing post-video source data by providing it to a video editing terminal device.

상기의 목적을 달성하기 위해 본 발명에 따른 분산형 멀티미디어 편집 시스템은, 제 1 카메라 사전 제어 데이터를 통해 제 1 카메라 모듈을 제어하여 공연자의 퍼포먼스를 촬영한 제 1 비디오 소스 데이터를 수신하는 제 1 카메라 제어모듈; 제 2 카메라 사전 제어 데이터를 통해 제 2 카메라 모듈을 제어하여 상기 공연자의 상기 퍼포먼스를 촬영한 제 2 비디오 소스 데이터를 수신하는 제 2 카메라 제어모듈; 및 상기 공연자의 상기 퍼포먼스를 녹음한 녹음 오디오 소스 데이터를 생성하는 마이크 모듈;을 포함하여 구성되는 스튜디오 제어 서버; 상기 제 1 비디오 소스 데이터와 상기 제 2 비디오 소스 데이터를 저장하는 비디오 소스 저장모듈; 상기 녹음 오디오 소스 데이터 및 오디오 사전 제어 데이터에 의해 정의된 배경 오디오 소스 데이터를 저장하는 오디오 소스 저장모듈; 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터에 기반하여 상기 제 1 비디오 소스 데이터의 데이터 크기 및 상기 제 2 비디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 실시간 편집 비디오 데이터를 생성하는 실시간 비디오 편집모듈; 및 상기 녹음 오디오 소스 데이터 및 상기 배경 오디오 소스 데이터에 기반하여 상기 녹음 오디오 소스 데이터의 데이터 크기 및 상기 배경 오디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 실시간 편집 오디오 데이터를 생성하는 실시간 오디오 편집모듈;을 포함하여 구성되는 멀티미디어 편집 서버; 통신망을 통해 상기 멀티미디어 편집 서버에 접속하고, 비디오 편집을 통해 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터를 기반으로 상기 제 1 비디오 소스 데이터의 데이터 크기 및 상기 제 2 비디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 사후 편집 비디오 데이터를 생성하여 상기 멀티미디어 편집 서버에게 전송하는 사후 비디오 편집 단말장치; 및 통신망을 통해 상기 멀티미디어 편집 서버에 접속하고, 오디오 편집을 통해 상기 녹음 오디오 소스 데이터 및 상기 배경 오디오 소스 데이터를 기반으로 상기 녹음 오디오 소스 데이터의 데이터 크기 및 상기 배경 오디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 사후 편집 오디오 데이터를 생성하여 상기 멀티미디어 편집 서버에게 전송하는 사후 오디오 편집 단말장치;를 포함하여 구성되고, 상기 멀티미디어 편집 서버는, 상기 사후 비디오 편집 단말장치에게 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터에 대한 접근권한을 선택적으로 부여하고, 상기 사후 오디오 편집 단말장치에게 상기 녹음 오디오 소스 데이터 및 상기 배경 오디오 소스 데이터에 대한 접근권한을 선택적으로 부여하는 선택적 접근권한 관리모듈; 상기 사후 비디오 편집 단말장치에게 상기 실시간 편집 오디오 데이터 또는 상기 사후 편집 오디오 데이터를 선택적으로 전송하고 상기 사후 오디오 편집 단말장치에게 상기 실시간 편집 비디오 데이터 또는 상기 사후 편집 비디오 데이터를 선택적으로 전송하는 선택적 편집 데이터 전송모듈; 및 상기 사후 편집 비디오 데이터에 적용된 비디오 편집 및 상기 사후 편집 오디오 데이터에 적용된 오디오 편집에 따라 단일의 멀티미디어 파일 데이터를 생성하는 멀티미디어 파일 생성모듈;을 더 포함하는 것을 특징으로 한다.In order to achieve the above object, the distributed multimedia editing system according to the present invention includes a first camera that receives first video source data of a performer's performance by controlling a first camera module through first camera pre-control data. control module; a second camera control module for receiving second video source data obtained by capturing the performance of the performer by controlling the second camera module through second camera pre-control data; and a microphone module for generating recorded audio source data in which the performance of the performer is recorded; a studio control server including; a video source storage module for storing the first video source data and the second video source data; an audio source storage module configured to store background audio source data defined by the recorded audio source data and audio pre-control data; single real-time editing video data having a data size smaller than the sum of the data size of the first video source data and the data size of the second video source data based on the first video source data and the second video source data Real-time video editing module to create; and generating single real-time edited audio data having a data size smaller than the sum of the data sizes of the recording audio source data and the data sizes of the background audio source data based on the recording audio source data and the background audio source data. Audio editing module; Multimedia editing server comprising a; A data size of the first video source data and a data size of the second video source data based on the first video source data and the second video source data through video editing by accessing the multimedia editing server through a communication network a post-video editing terminal device generating a single post-editing video data having a data size smaller than the sum of and transmitting the post-editing video data to the multimedia editing server; and connects to the multimedia editing server through a communication network, and through audio editing, based on the recorded audio source data and the background audio source data, a data size of the recorded audio source data and a data size of the background audio source data are greater than the sum of the data sizes of the recorded audio source data and the background audio source data. and a post-audio editing terminal device generating a single post-editing audio data having a small data size and transmitting the post-editing audio data to the multimedia editing server, wherein the multimedia editing server sends the post-video editing terminal device to the post-video editing terminal device. Optional access right management for selectively granting access rights to source data and the second video source data, and selectively granting access rights to the recorded audio source data and background audio source data to the post-audio editing terminal device module; Selective editing data transmission for selectively transmitting the real-time edited audio data or the post-editing audio data to the post-video editing terminal device and selectively transmitting the real-time edited video data or the post-editing video data to the post-editing audio editing terminal device module; and a multimedia file generation module for generating single multimedia file data according to video editing applied to the post-edited video data and audio editing applied to the post-edited audio data.

본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템에 있어서, 상기 사후 비디오 편집 단말장치는, 상기 제 1 카메라 사전 제어 데이터를 더 생성하는 것을 특징으로 한다.In the distributed multimedia editing system according to an embodiment of the present invention, the post-video editing terminal device may further generate the first camera pre-control data.

본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템에 있어서, 상기 사후 오디오 편집 단말장치는, 상기 오디오 사전 제어 데이터를 더 생성하는 것을 특징으로 한다.In the distributed multimedia editing system according to an embodiment of the present invention, the post-audio editing terminal device is characterized in that it further generates the audio pre-control data.

본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템에 있어서, 상기 실시간 비디오 편집 모듈은, 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터의 상기 공연자의 객체영상과 비디오 사전 제어 데이터에 의해 정의된 제 1 배경 비디오 소스 데이터를 합성하여 상기 실시간 비디오 편집 데이터를 생성하는 것을 특징으로 한다.In the distributed multimedia editing system according to an embodiment of the present invention, the real-time video editing module is defined by the object image of the performer and video pre-control data of the first video source data and the second video source data. It is characterized in that the real-time video editing data is generated by synthesizing the first background video source data.

본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템에 있어서, 상기 사후 비디오 편집 단말장치는, 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터의 상기 공연자의 객체영상과 제 2 배경 비디오 소스 데이터를 합성하여 상기 사후 편집 비디오 데이터를 생성하는 것을 특징으로 한다.In the distributed multimedia editing system according to an embodiment of the present invention, the post-video editing terminal device generates the object image of the performer and the second background video source data of the first video source data and the second video source data. It is characterized in that the post-editing video data is generated by synthesis.

본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템에 있어서, 상기 멀티미디어 편집 서버는, 상기 사후 비디오 편집 단말장치에서 상기 사후 편집 비디오 데이터의 생성 이벤트 또는 사후 편집 비디오 데이터의 수정 이벤트가 발생하는 경우 상기 사후 오디오 편집 단말장치에 이를 통보하고, 상기 사후 오디오 편집 단말장치에서 상기 사후 편집 오디오 데이터의 생성 이벤트 또는 사후 편집 오디오 데이터의 수정 이벤트가 발생하는 경우 상기 사후 비디오 편집 단말장치에 이를 통보하는 데이터 변경 알림모듈;을 더 포함하는 것을 특징으로 한다.In the distributed multimedia editing system according to an embodiment of the present invention, the multimedia editing server may perform the post-editing video data creation event or post-editing video data modification event in the post-editing terminal device. A data change notification module that notifies the audio editing terminal device and, when the post-editing audio data generation event or the post-editing audio data modification event occurs in the post-editing audio editing terminal device, notifies the post-video editing terminal device thereof. It is characterized in that it further includes;

본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템에 있어서, 상기 멀티미디어 편집 서버는, 상기 사후 비디오 편집 단말장치에 의한 상기 사후 편집 비디오 데이터의 생성 이벤트가 발생한 경우에 한해 상기 사후 오디오 편집 단말장치가 상기 사후 편집 오디오 데이터를 생성할 수 있도록 제어하는 편집작업 분배모듈;을 더 포함하는 것을 특징으로 한다. In the distributed multimedia editing system according to an embodiment of the present invention, the multimedia editing server operates the post-editing audio editing terminal device only when an event of generating the post-editing video data by the post-video editing terminal device occurs. It is characterized in that it further includes; an editing work distribution module for controlling generation of post-editing audio data.

본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템에 있어서, 상기 사후 비디오 편집 단말장치는, 상기 제 1 비디오 소스 데이터의 프록시 미디어 및 상기 제 2 비디오 소스 데이터의 프록시 미디어를 이용하여 상기 사후 편집 비디오 데이터를 생성하는 것을 특징으로 한다.In the distributed multimedia editing system according to an embodiment of the present invention, the post-editing video data terminal device uses proxy media of the first video source data and proxy media of the second video source data to edit the post-editing video data. It is characterized by generating.

본 발명에 따른 분산형 멀티미디어 편집방법은, 스튜디오 제어 서버가, 제 1 카메라 사전 제어 데이터를 통해 제 1 카메라 모듈을 제어하여 공연자의 퍼포먼스를 촬영한 제 1 비디오 소스 데이터를 수신하는 단계; 상기 스튜디오 제어 서버가, 제 2 카메라 사전 제어 데이터를 통해 제 2 카메라 모듈을 제어하여 상기 공연자의 상기 퍼포먼스를 촬영한 제 2 비디오 소스 데이터를 수신하는 단계; 상기 스튜디오 제어 서버가, 마이크 모듈을 통해 상기 공연자의 상기 퍼포먼스를 녹음한 녹음 오디오 소스 데이터를 수신하는 단계; 멀티미디어 편집 서버가, 상기 제 1 비디오 소스 데이터와 상기 제 2 비디오 소스 데이터를 저장하는 단계; 상기 멀티미디어 편집 서버가, 상기 녹음 오디오 소스 데이터 및 오디오 사전 제어 데이터에 의해 정의된 배경 오디오 소스 데이터를 저장하는 단계; 상기 멀티미디어 편집 서버가, 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터에 기반하여 상기 제 1 비디오 소스 데이터의 데이터 크기 및 상기 제 2 비디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 실시간 편집 비디오 데이터를 생성하는 단계; 상기 멀티미디어 편집 서버가, 상기 녹음 오디오 소스 데이터 및 상기 배경 오디오 소스 데이터에 기반하여 상기 녹음 오디오 소스 데이터의 데이터 크기 및 상기 배경 오디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 실시간 편집 오디오 데이터를 생성하는 단계; 상기 멀티미디어 편집 서버가, 상기 사후 비디오 편집 단말장치에게 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터에 대한 접근권한을 선택적으로 부여하고, 상기 사후 오디오 편집 단말장치에게 상기 녹음 오디오 소스 데이터 및 상기 배경 오디오 소스 데이터에 대한 접근권한을 선택적으로 부여하는 단계; 상기 멀티미디어 편집 서버가, 상기 사후 비디오 편집 단말장치에게 상기 실시간 편집 오디오 데이터를 선택적으로 전송하고, 상기 사후 오디오 편집 단말장치에게 상기 실시간 편집 비디오 데이터를 선택적으로 전송하는 단계; 상기 사후 비디오 편집 단말장치가, 통신망을 통해 상기 멀티미디어 편집 서버에 접속하고, 비디오 편집을 통해 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터를 기반으로 상기 제 1 비디오 소스 데이터의 데이터 크기 및 상기 제 2 비디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 사후 편집 비디오 데이터를 생성하여 상기 멀티미디어 편집 서버에게 전송하는 단계; 상기 사후 오디오 편집 단말장치가, 통신망을 통해 상기 멀티미디어 편집 서버에 접속하고, 오디오 편집을 통해 상기 녹음 오디오 소스 데이터 및 상기 배경 오디오 소스 데이터를 기반으로 상기 녹음 오디오 소스 데이터의 데이터 크기 및 상기 배경 오디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 사후 편집 오디오 데이터를 생성하여 상기 멀티미디어 편집 서버에게 전송하는 단계; 및 상기 멀티미디어 편집 서버가, 상기 사후 편집 비디오 데이터에 적용된 비디오 편집 및 상기 사후 편집 오디오 데이터에 적용된 오디오 편집에 따라 단일의 멀티미디어 파일 데이터를 생성하는 단계;를 포함하는 것을 특징으로 한다.A distributed multimedia editing method according to the present invention includes the steps of receiving, by a studio control server, first video source data obtained by capturing a performer's performance by controlling a first camera module through first camera pre-control data; receiving, by the studio control server, second video source data obtained by capturing the performance of the performer by controlling a second camera module through second camera pre-control data; receiving, by the studio control server, recorded audio source data obtained by recording the performance of the performer through a microphone module; storing, by a multimedia editing server, the first video source data and the second video source data; storing, by the multimedia editing server, background audio source data defined by the recorded audio source data and audio pre-control data; The multimedia editing server, based on the first video source data and the second video source data, a single data size having a data size smaller than the sum of the data size of the first video source data and the data size of the second video source data generating real-time editing video data of; wherein the multimedia editing server has a data size smaller than the sum of the data size of the recorded audio source data and the data size of the background audio source data, based on the recorded audio source data and the background audio source data; generating data; The multimedia editing server selectively grants access rights to the first video source data and the second video source data to the post-video editing terminal device, and allows the post-audio editing terminal device to access the recorded audio source data and the selectively granting access to background audio source data; selectively transmitting, by the multimedia editing server, the real-time edited audio data to the post-video editing terminal device, and selectively transmitting the real-time edited video data to the post-audio editing terminal device; The post-video editing terminal device accesses the multimedia editing server through a communication network, and determines the data size of the first video source data and the data size of the first video source data based on the first video source data and the second video source data through video editing. generating single post-editing video data having a data size smaller than the sum of data sizes of second video source data and transmitting the data to the multimedia editing server; The post-audio editing terminal device accesses the multimedia editing server through a communication network, and the data size of the recorded audio source data and the background audio source data are based on the recorded audio source data and the background audio source data through audio editing. generating and transmitting single post-editing audio data having a data size smaller than the sum of the data sizes of data to the multimedia editing server; and generating, by the multimedia editing server, single multimedia file data according to video editing applied to the post-edited video data and audio editing applied to the post-edited audio data.

본 발명의 실시예에 따른 상기 분산형 멀티미디어 편집방법은, 상기 제 1 비디오 소스 데이터를 수신하는 단계 이전에, 상기 사후 비디오 편집 단말장치가 상기 제 1 카메라 사전 제어 데이터를 생성하는 단계;를 더 포함하는 것을 특징으로 한다.The distributed multimedia editing method according to an embodiment of the present invention further includes generating the first camera pre-control data by the post-video editing terminal device before receiving the first video source data. It is characterized by doing.

본 발명의 실시예에 따른 상기 분산형 멀티미디어 편집방법은, 상기 녹음 오디오 소스 데이터를 수신하는 단계 이전에, 상기 사후 오디오 편집 단말장치가 상기 오디오 사전 제어 데이터를 생성하는 단계;를 더 포함하는 것을 특징으로 한다.The distributed multimedia editing method according to an embodiment of the present invention further comprises, before the step of receiving the recorded audio source data, the post-audio editing terminal device generating the audio pre-control data. to be

본 발명의 실시예에 따른 분산형 멀티미디어 편집방법에 있어서, 상기 실시간 비디오 편집 데이터를 생성하는 단계는, 상기 멀티미디어 편집 서버가, 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터의 상기 공연자의 객체영상과 비디오 사전 제어 데이터에 의해 정의된 제 1 배경 비디오 소스 데이터를 합성하여 상기 실시간 비디오 편집 데이터를 생성하는 것을 특징으로 한다.In the distributed multimedia editing method according to an embodiment of the present invention, the generating of the real-time video editing data may include, in the multimedia editing server, the performer's object of the first video source data and the second video source data and generating the real-time video editing data by synthesizing first background video source data defined by video and video pre-control data.

본 발명의 실시예에 따른 분산형 멀티미디어 편집방법에 있어서, 상기 사후 편집 비디오 데이터를 생성하는 단계는, 상기 사후 비디오 편집 단말장치가, 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터의 상기 공연자의 객체영상과 제 2 배경 비디오 소스 데이터를 합성하여 상기 사후 편집 비디오 데이터를 생성하는 것을 특징으로 한다.In the distributed multimedia editing method according to an embodiment of the present invention, the generating of the post-editing video data may include, in the post-editing video editing terminal device, the performer of the first video source data and the second video source data It is characterized in that the post-edited video data is generated by synthesizing the object image of and the second background video source data.

본 발명의 실시예에 따른 상기 분산형 멀티미디어 편집방법은, 상기 멀티미디어 편집 서버가, 상기 사후 비디오 편집 단말장치에서 상기 사후 편집 비디오 데이터의 생성 이벤트 또는 사후 편집 비디오 데이터의 수정 이벤트가 발생하는 경우 상기 사후 오디오 편집 단말장치에 이를 통보하고, 상기 사후 오디오 편집 단말장치에서 상기 사후 편집 오디오 데이터의 생성 이벤트 또는 사후 편집 오디오 데이터의 수정 이벤트가 발생하는 경우 상기 사후 비디오 편집 단말장치에 이를 통보하는 단계;를 더 포함하는 것을 특징으로 한다.In the distributed multimedia editing method according to an embodiment of the present invention, when the multimedia editing server generates the post-edited video data or the post-edited video data modification event in the post-video editing terminal device, the post-edited video data is generated. notifying the audio editing terminal device and notifying the post-editing audio data generation event or post-editing audio data modification event to the post-editing audio data terminal device when the post-editing audio data generation event occurs in the post-editing audio editing terminal device; It is characterized by including.

본 발명의 실시예에 따른 분산형 멀티미디어 편집방법에 있어서, 상기 사후 편집 오디오 데이터를 생성하는 단계는, 상기 사후 비디오 편집 단말장치에 의한 상기 사후 편집 비디오 데이터의 생성 이벤트가 발생한 경우에 한해 상기 사후 오디오 편집 단말장치가 상기 사후 편집 오디오 데이터를 생성하는 것을 특징으로 한다. In the distributed multimedia editing method according to an embodiment of the present invention, the generating of the post-editing audio data may include the post-editing audio data only when an event of generating the post-editing video data occurs by the post-video editing terminal device. It is characterized in that the editing terminal device generates the post-editing audio data.

본 발명의 실시예에 따른 분산형 멀티미디어 편집방법에 있어서, 상기 사후 편집 비디오 데이터를 생성하는 단계는, 상기 사후 비디오 편집 단말장치가, 상기 제 1 비디오 소스 데이터의 프록시 미디어 및 상기 제 2 비디오 소스 데이터의 프록시 미디어를 이용하여 상기 사후 편집 비디오 데이터를 생성하는 것을 특징으로 한다.In the distributed multimedia editing method according to an embodiment of the present invention, the generating of the post-editing video data may include the post-editing video editing terminal device using proxy media of the first video source data and the second video source data It is characterized in that the post-editing video data is generated using proxy media of.

상기의 구성에 따라 본 발명에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 카메라 사전 제어 데이터 및 오디오 사전 제어 데이터를 통해 사전제작(pre-production) 공정, 비디오 소스 데이터 및 오디오 소스 데이터를 수신하는 실제제작(production) 공정, 실시간 편집 비디오 데이터, 실시간 편집 오디오 데이터, 사후 편집 비디오 데이터 및 사후 편집 오디오 데이터를 생산하는 사후제작(post-production) 공정을 단일의 시스템을 통해 수행함으로써 멀티미디어 컨텐츠 제작비용 및 제작소요시간을 저감하고, 제작효율 및 컨텐츠 품질을 증가시키는 효과를 제공한다.According to the above configuration, the distributed multimedia editing system and editing method according to the present invention receive a pre-production process, video source data and audio source data through camera pre-control data and audio pre-control data. Production process, real-time edited video data, real-time edited audio data, post-production process that produces post-edited video data, and post-edited audio data are performed through a single system to reduce the cost and production of multimedia contents. It reduces the required time and provides an effect of increasing production efficiency and content quality.

본 발명에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 비디오 소스 데이터들을 통해 우선적으로 실시간 편집 비디오 데이터를 생성하여 사후 오디오 편집 단말장치에게 제공함으로써 사후 비디오 편집 단말장치의 사후 비디오 편집 작업 전이라도 사후 오디오 편집 단말장치가 실시간 편집 비디오 데이터를 참조하여 이와 동기화된 오디오를 편집할 수 있도록 하고, 오디오 소스 데이터들을 통해 우선적으로 실시간 편집 오디오 데이터를 생성하여 사후 비디오 편집 단말장치에게 제공함으로써 사후 오디오 편집 단말장치의 사후 오디오 편집 작업 전이라도 사후 비디오 편집 단말장치가 실시간 편집 오디오 데이터를 참조하여 이와 동기화된 비디오를 편집할 수 있도록 하는 효과를 제공한다.The distributed multimedia editing system and editing method according to the present invention preferentially generate real-time edited video data through video source data and provide it to a post-audio editing terminal device, so that the post-video editing terminal device can perform post-video editing even before post-video editing. The editing terminal device refers to the real-time editing video data to edit audio synchronized with it, and generates real-time editing audio data preferentially through audio source data and provides it to the post-video editing terminal device, thereby improving the quality of the post-audio editing terminal device. Even before post-audio editing, post-video editing terminal devices refer to real-time editing audio data and provide an effect of editing synchronized video with it.

본 발명에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 멀티미디어 편집 서버가 사후 비디오 편집 단말장치에게 선택적으로 비디오 소스 데이터들에 접근하게 하고, 사후 오디오 편집 단말장치에게 선택적으로 소스 오디오 데이터들에 접근하게 하는 선택적 접근권한 관리모듈을 포함함으로써, 사후 비디오 편집 단말장치에 의한 임의적인 오디오 편집 및 오디오 소스 데이터 접근을 방지하고, 사후 오디오 편집 단말장치에 의한 임의적인 비디오 편집 및 비디오 소스 데이터 접근을 방지함으로써 통신망을 통한 분산편집 환경에서 체계적인 데이터 관리를 제공하는 효과를 제공한다.Distributed multimedia editing system and editing method according to the present invention, a multimedia editing server allows a post-video editing terminal device to selectively access video source data, and a post-audio editing terminal device to selectively access source audio data. By including an optional access right management module to prevent arbitrary audio editing and audio source data access by post-video editing terminal devices, and by preventing arbitrary video editing and video source data access by post-audio editing terminal devices, communication network Provides the effect of providing systematic data management in a distributed editing environment through

본 발명에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 사후 비디오 편집을 담당하는 사후 비디오 편집 단말장치에는 오디오 소스 데이터들 보다 작은 크기를 갖는 실시간 편집 오디오 데이터 또는 사후 편집 오디오 데이터를 제공하고, 사후 오디오 편집 단말장치에는 비디오 소스 데이터들 보다 작은 크기를 갖는 실시간 편집 오디오 데이터 또는 사후 편집 오디오 데이터를 제공함으로써, 통신망을 통해 접속하는 단말장치의 저장 용량 및 프로세서 성능이 떨어지는 경우에도 분산편집에 참여할 수 있도록 하고 단말장치로의 데이터 전송량을 최소화하여 멀티미디어 편집 서버의 연산처리 부담을 경감하는 효과를 제공한다.Distributed multimedia editing system and editing method according to the present invention provides real-time edited audio data or post-edited audio data having a smaller size than audio source data to a post-video editing terminal device responsible for post-video editing, and post-editing audio data. Editing terminal devices are provided with real-time editing audio data or post-editing audio data having a smaller size than video source data, so that they can participate in distributed editing even when the storage capacity and processor performance of terminal devices connected through a communication network are poor, By minimizing the amount of data transmission to the terminal device, it provides an effect of reducing the computational processing burden of the multimedia editing server.

본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 사후 비디오 편집 단말장치를 통해 카메라 사전 제어 데이터를 더 생성하거나, 사후 오디오 편집 단말장치를 통해 오디오 사전 제어 데이터를 더 생성함으로써, 사후제작(post-production) 공정 뿐 아니라 사전제작(pre-production) 단계를 통신망을 통해 분산함으로써 멀티미디어 컨텐츠 제작을 효율화하는 효과를 제공한다.Distributed multimedia editing system and editing method according to an embodiment of the present invention further generates camera pre-control data through a post-video editing terminal device or further generates audio pre-control data through a post-audio editing terminal device, It provides the effect of streamlining the production of multimedia contents by distributing not only the post-production process but also the pre-production step through a communication network.

본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 카메라들에서 생성된 비디오 소스 데이터들에 배경 비디오 데이터를 더 포함시켜 실시간 편집 비디오 데이터를 생성함으로써, 크로마키 합성과 같은 편집작업을 실시간으로 수행함과 동시에 사후 오디오 편집 단말장치는 최종 결과물과 유사하도록 배경이 합성된 실시간 편집 비디오 데이터를 참조하여 영상과 부합하는 오디오를 사후 편집하도록 하는 효과를 제공한다.Distributed multimedia editing system and editing method according to an embodiment of the present invention further includes background video data in video source data generated by cameras to generate real-time edited video data, thereby performing editing operations such as chroma key synthesis. At the same time as performing in real time, the post-audio editing terminal device refers to the real-time edited video data in which the background is synthesized to be similar to the final result, and provides an effect of post-editing the audio that matches the video.

본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 멀티미디어 편집 서버가 사후 비디오 편집 단말장치 또는 사후 오디오 편집 단말장치에 의한 사후 편집 데이터의 생성 이벤트 및 수정 이벤트가 발생하는 경우 통신망을 통해 다른 사후 편집 단말장치에게 통보하는 데이터 변경 알림모듈을 더 포함함으로써, 통신망을 통해 접속된 복수의 사후 편집 단말장치들이 편집 협업과정의 변화를 신속하게 파악할 수 있도록 하는 효과를 제공한다.Distributed multimedia editing system and editing method according to an embodiment of the present invention, when a creation event and a modification event of post-editing data by a post-video editing terminal device or a post-audio editing terminal device occur in a multimedia editing server through a communication network. By further including a data change notification module for notifying other post-editing terminal devices, an effect of enabling a plurality of post-editing terminal devices connected through a communication network to quickly grasp changes in an editing collaboration process is provided.

본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 멀티미디어 편집 서버가 사후 비디오 편집 단말장치 및 사후 오디오 편집 단말장치의 편집순서를 시간적으로 할당할 수 있는 편집작업 분배모듈을 더 포함함으로써, 통신망을 통해 분산되어 편집작업을 수행하는 사후 편집 단말장치들 간의 편집순서를 지정함으로써 멀티미디어 편집작업의 효율성을 제고하는 효과를 제공한다. Distributed multimedia editing system and editing method according to an embodiment of the present invention, the multimedia editing server further includes an editing task distribution module capable of temporally allocating the editing order of the post-video editing terminal device and the post-audio editing terminal device. , It provides the effect of improving the efficiency of multimedia editing work by specifying the editing order among post-editing terminal devices that are distributed through the communication network and perform editing work.

마지막으로, 본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템 및 편집방법은, 멀티미디어 편집 서버가 사후 비디오 편집에 있어서 카메라들에서 촬영된 고품질의 비디오 소스 데이터들을 보다 작은 용량의 프록시 미디어로 변경하여 사후 비디오 편집 단말장치에 제공함으로써, 데이터 전송량을 저감하고, 사후 비디오 소스 데이터의 편집에 소요되는 연산부담을 저감하는 효과를 제공한다.Finally, in the distributed multimedia editing system and editing method according to an embodiment of the present invention, the multimedia editing server changes high-quality video source data captured by cameras into smaller-capacity proxy media in post-video editing. By providing it to the video editing terminal device, it provides an effect of reducing the amount of data transmission and reducing the computational burden required for editing post-video source data.

도 1은 본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템을 도시하는 구성도.
도 2는 본 발명의 실시예에 따른 스튜디오 장치들의 구성을 도시하는 예시도.
도 3은 본 발명의 실시예에 따른 제 1 카메라 사전 제어 데이터의 편집 인터페이스 예시도.
도 4는 본 발명의 실시예에 따른 스튜디오 제어 서버의 구성 예시도.
도 5는 본 발명의 실시예에 따른 조명 사전 제어 데이터의 편집 인터페이스 예시도.
도 6은 본 발명의 실시예에 따른 오디오 사전 제어 데이터의 편집 인터페이스 예시도.
도 7은 본 발명의 실시예에 따른 제 1 배경 비디오 소스 데이터를 지정한 비디오 사전 제어 데이터의 편집 인터페이스 예시도.
도 8은 본 발명의 실시예에 따른 사후 비디오 편집 단말장치에서의 비디오 편집 인터페이스 예시도.
도 9는 본 발명의 실시예에 따른 사후 오디오 편집 단말장치에서의 오디오 편집 인터페이스 예시도.
도 10은 본 발명의 실시예에 따른 분산형 멀티미디어 편집방법을 도시하는 처리 흐름도.
1 is a configuration diagram showing a distributed multimedia editing system according to an embodiment of the present invention;
2 is an exemplary view showing the configuration of studio devices according to an embodiment of the present invention.
3 is an exemplary view of an editing interface of first camera pre-control data according to an embodiment of the present invention;
4 is an exemplary configuration diagram of a studio control server according to an embodiment of the present invention.
5 is an exemplary view of an editing interface of lighting pre-control data according to an embodiment of the present invention;
6 is an exemplary diagram of an editing interface of audio pre-control data according to an embodiment of the present invention;
Fig. 7 is an exemplary diagram of an editing interface of video pre-control data specifying a first background video source data according to an embodiment of the present invention;
8 is an exemplary view of a video editing interface in a post-video editing terminal device according to an embodiment of the present invention;
9 is an exemplary view of an audio editing interface in a post-audio editing terminal device according to an embodiment of the present invention;
10 is a process flow diagram illustrating a distributed multimedia editing method according to an embodiment of the present invention.

본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정 해석되어서는 안 되며, 자신의 발명을 최선의 방법으로 설명하기 위해 발명자가 용어와 개념을 정의할 수 있는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 한다.The terms or words used in this specification and claims should not be construed as limited in their usual or dictionary meanings, and based on the principle that the inventors can define terms and concepts in order to best describe their inventions. It should be interpreted as meaning and concept consistent with the technical idea of the present invention.

따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 바람직한 일 실시예에 해당하며, 본 발명의 기술적 사상을 모두 대변하는 것이 아니므로 해당 구성은 본 발명의 출원시점에서 이를 대체할 다양한 균등물과 변형예가 있을 수 있다.Therefore, the embodiments described in this specification and the configurations shown in the drawings correspond to a preferred embodiment of the present invention, and do not represent all the technical ideas of the present invention, so that the corresponding configurations are various to replace them at the time of filing of the present invention. There may be equivalents and variations.

명세서 전반에서 어떠한 부분이 어떤 구성요소를 “포함”한다는 기재는, 이에 대한 특별한 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한 명세서에 기재된 “..모듈”, “..부”, “..시스템” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있으며, 하나의 장치 또는 각각 다른 장치에 포함될 수 있다.Throughout the specification, the description that a certain part "includes" a certain component means that it may further include other components, not excluding other components unless otherwise specified. In addition, terms such as “..module”, “..unit”, and “..system” described in the specification mean a unit that processes at least one function or operation, which is hardware or software, or a combination of hardware and software. It can be implemented and included in one device or each other device.

본 발명에서 사용되는 용어 중 “멀티미디어 파일 데이터”는 재생구간 동안 변화하는 시각적인 정보(비디오 데이터)와 재생구간 동안 변화하는 청각적인 정보(오디오 데이터)가 동기적으로 결합된 동영상 데이터를 의미하고, “비디오 데이터”는 재생구간 동안 변화하는 시각적인 정보로만 구성된 데이터를 의미하고, “오디오 데이터”는 재생구간 동안 변화하는 청각적인 정보로만 구성된 데이터를 의미한다.Among the terms used in the present invention, “multimedia file data” refers to video data in which visual information (video data) that changes during a playback period and auditory information (audio data) that changes during a playback period are synchronously combined. “Video data” refers to data composed only of visual information that changes during a playback section, and “audio data” refers to data composed only of auditory information that changes during a play section.

도 1은 본 발명의 실시예에 따른 분산형 멀티미디어 편집 시스템을 도시한다. 본 발명의 분산형 멀티미디어 편집 시스템은 스튜디오 제어 서버(100), 멀티미디어 편집 서버(200), 사후 비디오 편집 단말장치(300), 및 사후 오디오 편집 단말장치(400)를 포함하여 구성된다.1 illustrates a distributed multimedia editing system according to an embodiment of the present invention. The distributed multimedia editing system of the present invention includes a studio control server 100, a multimedia editing server 200, a post video editing terminal device 300, and a post audio editing terminal device 400.

스튜디오 제어 서버(100)는 카메라 모듈(111,121)및 마이크 모듈(130)를 포함하는 스튜디오의 장비들을 제어하는 기능을 수행하며, 제 1 카메라 제어모듈(110), 제 2 카메라 제어모듈(120), 및 마이크 모듈(130)을 포함하여 구성된다. 도 2는 스튜디오 장비들이 설치된 스튜디오를 예시적으로 도시한다. 스튜디오는 예컨대 촬영을 위한 공간과 무대소품, 카메라, 마이크 등의 촬영장비, 조명, 모니터 등의 부가장비들로 구성될 수 있다. 스튜디오는 동영상 촬영에 최적화된 환경을 제공하도록 구성되는 것이 바람직하며, 반드시 밀폐된 공간일 필요는 없다. 스튜디오의 촬영 배경은 촬영되는 멀티미디어 컨텐츠의 종류에 따라 변경될 수 있고, 크로마키 합성을 통해 배경을 합성하는 경우 녹색 또는 파란색 등의 단일색상의 배경을 사용할 수도 있다.The studio control server 100 performs a function of controlling studio equipment including the camera modules 111 and 121 and the microphone module 130, and includes a first camera control module 110, a second camera control module 120, and a microphone module 130. 2 shows an example of a studio in which studio equipment is installed. A studio may be composed of, for example, a space for shooting, stage props, shooting equipment such as a camera and a microphone, and additional equipment such as lighting and a monitor. The studio is preferably configured to provide an environment optimized for video recording, and does not necessarily have to be an enclosed space. The shooting background of the studio may be changed according to the type of multimedia content to be photographed, and when the background is synthesized through chroma key synthesis, a single color background such as green or blue may be used.

제 1 카메라 제어모듈(110)은 제 1 카메라 사전 제어 데이터(data_control_pre_camera_1)를 통해 제 1 카메라 모듈(111)을 제어하여 공연자의 퍼포먼스를 촬영한 제 1 비디오 소스 데이터(data_video_source_1)를 수신하는 기능을 수행한다. 제 2 카메라 제어모듈(120)은 제 2 카메라 사전 제어 데이터(data_control_pre_camera_2)를 통해 제 2 카메라 모듈(121)을 제어하여 공연자의 퍼포먼스를 촬영한 제 2 비디오 소스 데이터(data_video_source_2)를 수신하는 기능을 수행한다.The first camera control module 110 controls the first camera module 111 through first camera pre-control data (data_control_pre_camera_1) to perform a function of receiving first video source data (data_video_source_1) in which a performer's performance is captured. do. The second camera control module 120 controls the second camera module 121 through second camera pre-control data (data_control_pre_camera_2) to perform a function of receiving second video source data (data_video_source_2) in which a performer's performance is captured. do.

카메라 모듈(111,121)은 비디오 촬영이 가능한 캠코더, 방송용 카메라, 스마트폰의 카메라 모듈 등일 수 있고, 카메라 제어모듈(110,120)은 카메라의 촬영 시작을 제어하거나, 카메라의 줌 기능을 제어할 수 있다. 또한 기계적인 카메라 마운팅 장치에 의해 카메라의 패닝(panning), 카메라의 틸트(tilt), 카메라의 위치이동을 제어하는 것이 바람직하다.The camera modules 111 and 121 may be video recording capable camcorders, broadcasting cameras, and smartphone camera modules, and the camera control modules 110 and 120 may control the camera's shooting start or the camera's zoom function. In addition, it is preferable to control camera panning, camera tilt, and camera position movement by a mechanical camera mounting device.

멀티미디어 컨텐츠의 품질을 향상시키기 위해서는 카메라 모듈은 안정적으로 고정된 상태에서 촬영하는 것이 바람직하고, 배경을 합성하기 위해 크로마키 배경에서 비디오 촬영을 하거나 깊이 측정(depth-sensing) 기능이 있는 비디오카메라를 사용하는 것이 바람직하다. 영상의 깊이 측정방식은 Microsoft사의 Kinnect 및 Intel사의 RealSense Camera를 통해 상용화된 멀티 카메라 방식, ToF(Time-of-Flight) 방식 또는 적외선 패턴 인식 방식을 통해 구현하거나 Lytro사에 의해 상용화된 Micro Lens Array를 통한 Light Field 방식을 예시할 수 있다. 이러한 피사체의 깊이 측정 기술을 통해 크로마키 배경이 없이도 배경과 전경을 용이하게 분리하여 카메라 모듈(111,121)을 통해 촬영된 전경영상과 준비된 배경영상을 합성할 수 있다.In order to improve the quality of multimedia contents, it is desirable to shoot the camera module in a stable fixed state. It is desirable to do The method of measuring the depth of an image is a multi-camera method commercialized through Microsoft's Kinnect and Intel's RealSense Camera, a Time-of-Flight (ToF) method, or an infrared pattern recognition method, or a Micro Lens Array commercialized by Lytro. Light Field method through can be exemplified. Through this technique of measuring the depth of a subject, it is possible to easily separate the background from the foreground without a chroma key background and synthesize the foreground image captured through the camera modules 111 and 121 and the prepared background image.

또한 하나의 피사체를 여러 개의 카메라를 통해 촬영한 후 적절하게 카메라 시점을 변경하는 편집을 하는 방법을 통해 동영상의 역동성과 품질을 높일 수 있다. 이를 위해서 본 발명에 따른 분산형 멀티미디어 편집 시스템은 적어도 두 개의 카메라 모듈(111,121)을 포함하도록 구성한다. 실시예에 따라서는 세 개 이상의 카메라 모듈로 구성할 수도 있다. 본 발명에서는 적어도 두 개의 카메라 모듈(111,121)들을 통해 단일의 피사체에 대한 복수의 비디오 소스 데이터를 생성하기 때문에 비디오 편집을 반드시 필요로 한다.In addition, the dynamics and quality of a video can be improved by editing a subject by changing the camera point of view appropriately after photographing one subject through multiple cameras. To this end, the distributed multimedia editing system according to the present invention is configured to include at least two camera modules 111 and 121. Depending on the embodiment, it may be configured with three or more camera modules. In the present invention, since a plurality of video source data for a single subject is generated through at least two camera modules 111 and 121, video editing is necessarily required.

다른 위치에 복수 개 설치되는 카메라 모듈들(111,121)과는 달리 카메라 모듈들(111,121)을 제어하는 제 1 카메라 제어모듈(110) 및 제 2 카메라 제어모듈(120)은 단일의 제어장치로 구현될 수 있다.Unlike the plurality of camera modules 111 and 121 installed in different locations, the first camera control module 110 and the second camera control module 120 controlling the camera modules 111 and 121 may be implemented as a single control device. can

제 1 카메라 사전 제어 데이터(data_control_pre_camera_1) 및 제 2 카메라 사전 제어 데이터(data_control_pre_camera_2)는 각각 촬영시점에서 카메라 모듈의 동작을 정의하는 제어신호들의 집합으로 구성된다. 도 3은 제 1 카메라 사전 제어 데이터(data_control_pre_camera_1)를 생성하는 편집화면을 예시한다. 예시된 바와 같이 애플리케이션 또는 웹브라우저를 통해 특정 촬영시점에서의 카메라의 X축 이동, Y축 이동, 줌, 팬, 틸트 등을 정의하면 3D 모델링된 피사체가 화면상에 보이는 모습을 랜더링하도록 구성함으로써 촬영결과를 사전에 예상할 수 있도록 구성할 수 있다. 이러한 카메라 사전 제어 데이터의 편집은 도 3에 도시된 바와 같이 직관적인 사용자 인터페이스로 구성되는 화면을 통해 비전문가인 사용자도 손쉽게 편집할 수 있도록 구성하는 것이 바람직하다.The first camera pre-control data (data_control_pre_camera_1) and the second camera pre-control data (data_control_pre_camera_2) are each composed of a set of control signals defining the operation of the camera module at the time of capturing. 3 illustrates an editing screen for generating first camera pre-control data (data_control_pre_camera_1). As an example, if you define X-axis movement, Y-axis movement, zoom, pan, tilt, etc. of the camera at a specific shooting point through an application or web browser, the 3D modeled subject is configured to render what it looks like on the screen. It can be configured so that the results can be predicted in advance. As shown in FIG. 3 , editing of such camera pre-control data is preferably configured so that even a non-expert user can easily edit through a screen composed of an intuitive user interface.

제 1 카메라 사전 제어 데이터(data_control_pre_camera_1) 및 제 2 카메라 사전 제어 데이터(data_control_pre_camera_2)는 예컨대 통신망을 통해 스튜디오 제어 서버(100) 또는 멀티미디어 편집 서버(200)와 연결되는 멀티미디어 파일 제작 요청자의 단말장치 또는 사후 비디오 편집 단말장치(300)에 의해 편집되도록 구성할 수 있다. 또한 실시예에 따라서는 유사한 성격의 다른 멀티미디어 파일 생성에서 사용하였던 제 1 카메라 사전 제어 데이터(data_control_pre_camera_1) 및 제 2 카메라 사전 제어 데이터(data_control_pre_camera_2)를 새로운 멀티미디어 파일 생성에 그대로 사용하거나 이를 수정하여 사용하는 방법으로 멀티미디어 파일 생성에 소요되는 노력 및 비용을 저감할 수 있다.The first camera pre-control data (data_control_pre_camera_1) and the second camera pre-control data (data_control_pre_camera_2) are connected to the studio control server 100 or the multimedia editing server 200 through a communication network, for example, a multimedia file production requester's terminal device or post-video It can be configured to be edited by the editing terminal device 300 . In addition, depending on the embodiment, the first camera pre-control data (data_control_pre_camera_1) and the second camera pre-control data (data_control_pre_camera_2) used in the creation of other multimedia files with similar characteristics are used as they are or modified to use them to create a new multimedia file. As a result, it is possible to reduce the effort and cost required to create a multimedia file.

제 1 비디오 소스 데이터(data_video_source_1) 및 제 2 비디오 소스 데이터(data_video_source_2)는 원본 촬영 데이터이기 때문에 다양한 해상도를 지원할 수 있도록 높은 해상도로 생성되고, 화질의 손실을 방지하기 위해 비압축 방식 또는 낮은 압축률의 압축 방식으로 생성되는 것이 바람직하다.Since the first video source data (data_video_source_1) and the second video source data (data_video_source_2) are original captured data, they are generated in high resolution to support various resolutions, and are compressed using a non-compression method or a low compression rate to prevent loss of image quality. It is preferable to create in this way.

마이크 모듈(130)은 공연자의 퍼포먼스를 녹음한 녹음 오디오 소스 데이터(data_audio_source_recording)를 생성하는 기능을 수행한다. 마이크 모듈(130)은 음향 또는 음성의 녹음이 가능한 전문가용 마이크, 캠코더 또는 방송용 카메라에 부가된 마이크 모듈(130), 스마트폰의 마이크 모듈(130) 등일 수 있다. 또한 멀티미디어 파일이 입체적인 음향을 재생할 수 있도록 복수의 마이크 모듈(130)을 사용할 수도 있다. 이 경우 복수의 녹음 오디오 소스 데이터(data_audio_source_recording)들이 생성된다.The microphone module 130 performs a function of generating recorded audio source data (data_audio_source_recording) in which a performer's performance is recorded. The microphone module 130 may be a professional microphone capable of recording sound or voice, a microphone module 130 added to a camcorder or broadcasting camera, or a microphone module 130 of a smartphone. In addition, a plurality of microphone modules 130 may be used to reproduce stereoscopic sound from a multimedia file. In this case, a plurality of recorded audio source data (data_audio_source_recording) is generated.

도 4는 스튜디오 제어 서버(100)의 구성예를 도시한다. 도시된 바와 같이 스튜디오 제어 서버(100)는 실시예에 따라서 광원의 점멸, 광원의 밝기, 광원의 색상, 광원의 색온도 또는 광원의 방향이 제어되는 조명모듈 및 조명 제어모듈을 더 포함하여 구성될 수 있다. 도 5는 본 발명의 실시예에 따른 조명 사전 제어 데이터(data_control_pre_lighting)를 생성하는 편집화면을 예시한다. 조명 제어모듈은 조명 사전 제어 데이터(data_control_pre_lighting)를 통해 조명모듈을 제어하도록 구성되며, 조명 사전 제어 데이터(data_control_pre_lighting)는 촬영시간별로 조명모듈의 조명을 설정하도록 구성될 수 있다.4 shows an example of the configuration of the studio control server 100. As shown, the studio control server 100 may further include a lighting module and a lighting control module for controlling flickering of the light source, brightness of the light source, color of the light source, color temperature of the light source, or direction of the light source according to the embodiment. have. 5 illustrates an editing screen for generating lighting pre-control data (data_control_pre_lighting) according to an embodiment of the present invention. The lighting control module is configured to control the lighting module through lighting pre-control data (data_control_pre_lighting), and the lighting pre-control data (data_control_pre_lighting) may be configured to set lighting of the lighting module for each shooting time.

멀티미디어 편집 서버(200)는 비디오 소스 저장모듈(210), 오디오 소스 저장모듈(211), 실시간 오디오 편집모듈(221), 선택적 접근권한 관리모듈(230), 선택적 편집 데이터 전송모듈(240), 및 멀티미디어 파일 생성모듈(250)을 포함하여 구성된다.The multimedia editing server 200 includes a video source storage module 210, an audio source storage module 211, a real-time audio editing module 221, an optional access rights management module 230, an optional editing data transmission module 240, and It is configured to include a multimedia file creation module 250.

멀티미디어 편집 서버(200)는 스튜디오 제어 서버(100)에서 생성된 제 1 비디오 소스 데이터(data_video_source_1), 제 2 비디오 소스 데이터(data_video_source_2), 녹음 오디오 소스 데이터(data_audio_source_recording)를 이용하여 멀티미디어 파일 데이터(data_multimedia_file)를 생성하는 기능을 수행한다. 멀티미디어 편집 서버(200)는 스튜디오 제어 서버(100)와 물리적으로 분리되어 통신망을 통해 연결되도록 구성할 수도 있고, 단일의 서버로 구성될 수 있다.The multimedia editing server 200 generates multimedia file data (data_multimedia_file) by using the first video source data (data_video_source_1), the second video source data (data_video_source_2), and the recorded audio source data (data_audio_source_recording) generated by the studio control server 100. performs the function of generating The multimedia editing server 200 may be configured to be physically separated from the studio control server 100 and connected through a communication network, or may be configured as a single server.

비디오 소스 저장모듈(210)은 제 1 비디오 소스 데이터(data_video_source_1)와 제 2 비디오 소스 데이터(data_video_source_2)를 서로 저장하는 기능을 수행한다.The video source storage module 210 performs a function of storing first video source data (data_video_source_1) and second video source data (data_video_source_2) together.

오디오 소스 저장모듈(211)은 녹음 오디오 소스 데이터(data_audio_source_recording) 및 오디오 사전 제어 데이터(data_control_pre_audio)에 의해 정의된 배경 오디오 소스 데이터(data_audio_source_BG)를 저장하는 기능을 수행한다.The audio source storage module 211 performs a function of storing background audio source data (data_audio_source_BG) defined by recorded audio source data (data_audio_source_recording) and audio pre-control data (data_control_pre_audio).

오디오 사전 제어 데이터(data_control_pre_audio)는 사전에 정의되는 추가 오디오 데이터 또는 사운드 이펙트일 수 있다. 오디오 사전 제어 데이터(data_control_pre_audio)는 촬영 전에 미리 멀티미디어에 포함될 음향효과, 배경음향 등을 지정하는 데이터로서 사전제작(pre-production) 단계에서의 미리 오디오 편집을 설정하는 데이터로서 기능한다. 오디오 사전 제어 데이터(data_control_pre_audio)는 배경음악에 대한 음원 데이터 및 효과음에 대한 음원 데이터를 포함하거나, 해당 음원 데이터에 대한 URL 정보와 같은 음원 데이터 저장위치 정보를 포함하여 구성될 수 있다. 또한 특정 멀티미디어 파일의 특정 재생지점에 부가된 효과음의 경우 해당 효과음이 재생될 재생시간 정보인 타임스탬프 정보를 더 포함할 수 있다. 오디오 사전 제어 데이터(data_control_pre_audio)는 또한 디지털 음향필터 등을 이용한 이퀄라이저 파라미터 정보 또는 음향효과 파라미터 정보를 더 포함할 수 있다. 음향효과는 예컨대 잔향 효과(reverb), 메아리 효과(delay), 코러스 합창 효과(harmony), 동음합창 효과(doubler), 기계음 변조 효과(hard tune) 등을 예시할 수 있다. 배경 오디오 소스 데이터(data_audio_source_BG)는 멀티미디어 컨텐츠에 포함되는 배경음악이거나 뮤직비디오 컨텐츠의 경우 반주음악의 데이터일 수 있다.The audio pre-control data (data_control_pre_audio) may be predefined additional audio data or sound effects. The audio pre-control data (data_control_pre_audio) is data specifying sound effects, background sounds, etc. to be included in multimedia in advance before filming, and functions as data for setting audio editing in advance in a pre-production stage. The audio pre-control data (data_control_pre_audio) may include sound source data for background music and sound source data for effect sounds, or may include sound source data storage location information such as URL information for the corresponding sound source data. In addition, in the case of a sound effect added to a specific reproduction point of a specific multimedia file, timestamp information, which is reproduction time information at which the corresponding sound effect is to be reproduced, may be further included. The audio pre-control data (data_control_pre_audio) may further include equalizer parameter information using a digital sound filter or sound effect parameter information. The sound effect may include, for example, a reverb effect (reverb), an echo effect (delay), a chorus chorus effect (harmony), a homophonic choral effect (doubler), and a mechanical sound modulation effect (hard tune). The background audio source data (data_audio_source_BG) may be background music included in multimedia content or data of accompaniment music in the case of music video content.

도 6은 오디오 사전 제어 데이터(data_control_pre_audio)를 편집하는 화면을 예시한다. 오디오 사전 제어 데이터(data_control_pre_audio)는 멀티미디어 컨텐츠의 제작자, 오디오 편집 전문가, 또는 오디오 편집에 재능있는 일반인에 의해 생성될 수 있으며, 사후 오디오 편집 단말장치(400)에 의해 미리 편집될 수도 있다. 도 6에 예시된 바와 같이 애플리케이션 또는 웹브라우저를 통해 오디오 사전 제어 데이터(data_control_pre_audio)를 생성 및 편집할 수 있다.6 illustrates a screen for editing audio pre-control data (data_control_pre_audio). The audio pre-control data (data_control_pre_audio) may be created by a multimedia content producer, an audio editing expert, or an ordinary person talented in audio editing, and may be edited in advance by the audio editing terminal device 400 after the fact. As illustrated in FIG. 6 , audio pre-control data (data_control_pre_audio) may be created and edited through an application or a web browser.

실시간 비디오 편집모듈(220)은 제 1 비디오 소스 데이터(data_video_source_1) 및 제 2 비디오 소스 데이터(data_video_source_2)에 기반하여 제 1 비디오 소스 데이터(data_video_source_1)의 데이터 크기 및 제 2 비디오 소스 데이터(data_video_source_2)의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 실시간 편집 비디오 데이터(data_video_edited_RT)를 생성하는 기능을 수행한다. 실시간 비디오 편집모듈(220)은 비디오 편집 인력에 의존하지 않고 주어진 편집 룰에 따라 자동으로 비디오 편집을 수행한다. 실시간 비디오 편집모듈(220)은 실시예에 따라 다양하게 실시간 비디오 편집을 자동으로 수행할 수 있다. 예컨대 실시간 비디오 편집모듈(220)은 실시간 편집 비디오 데이터(data_video_edited_RT)를 사후 오디오 편집 단말장치(400)에서 오디오 편집에 참고하기 위한 용도로 간단하게 편집할 수도 있고, 최종 결과물에 가까운 품질로 편집할 수도 있다. 예컨대 오디오 편집 참고용으로 제작하는 경우 제 1 비디오 소스 데이터(data_video_source_1)만으로 실시간 편집 비디오 데이터(data_video_edited_RT)를 생성할 수도 있고, 제 1 비디오 소스 데이터(data_video_source_1)와 제 2 비디오 소스 데이터(data_video_source_2)가 화면에 분할되어 동시에 표시되도록 실시간 편집 비디오 데이터(data_video_edited_RT)를 생성할 수도 있고, 임의의 시점에서 카메라 전환이 이루어지도록 실시간 편집 비디오 데이터(data_video_edited_RT)를 생성할 수도 있다. 최종 결과물에 가까운 품질로 자동편집을 하고자 하는 경우 비디오 사전 제어 데이터(data_control_pre_video)를 통해 카메라 전환지점을 미리 설정하고, 동영상에 미리 합성될 배경화면 및 합성 오브젝트를 지정하도록 구성할 수도 있다.The real-time video editing module 220 determines the data size of the first video source data (data_video_source_1) and the data of the second video source data (data_video_source_2) based on the first video source data (data_video_source_1) and the second video source data (data_video_source_2). It performs a function of generating single real-time edited video data (data_video_edited_RT) having a data size smaller than the sum of the sizes. The real-time video editing module 220 automatically performs video editing according to given editing rules without relying on video editing personnel. The real-time video editing module 220 may automatically perform real-time video editing in various ways according to embodiments. For example, the real-time video editing module 220 may simply edit the real-time edited video data (data_video_edited_RT) for reference in audio editing in the post-audio editing terminal device 400 or may edit with a quality close to the final result. have. For example, when producing for audio editing reference, real-time edited video data (data_video_edited_RT) may be generated with only the first video source data (data_video_source_1), and the first video source data (data_video_source_1) and the second video source data (data_video_source_2) are displayed on the screen. Real-time edited video data (data_video_edited_RT) may be generated to be divided into and simultaneously displayed, or real-time edited video data (data_video_edited_RT) may be generated so that a camera is switched at an arbitrary point in time. If you want to automatically edit with a quality close to the final result, you can set the camera transition point in advance through video pre-control data (data_control_pre_video), and designate the background screen and composite object to be synthesized in advance with the video.

배경화면을 자동으로 합성하는 실시예에 따르면, 실시간 비디오 편집모듈(220)은 제 1 비디오 소스 데이터(data_video_source_1) 및 제 2 비디오 소스 데이터(data_video_source_2)의 공연자 객체영상과 비디오 사전 제어 데이터(data_control_pre_video)에 의해 정의된 제 1 배경 비디오 소스 데이터(data_video_source_BG_1)를 합성하여 실시간 비디오 편집 데이터를 생성하도록 구성한다. 도 7은 제 1 배경 비디오 소스 데이터(data_video_source_BG_1)를 지정하여 비디오 사전 제어 데이터(data_control_pre_video)를 편집하는 인터페이스를 예시한다. 이러한 실시예에 따르면 비디오 소스 데이터들의 생성에 따라 미리 지정한 제 1 배경 비디오 소스 데이터(data_video_source_BG_1)를 추가함으로써 비디오 편집에 소요되는 시간 및 비용을 저감할 수 있는 효과를 제공한다. 비디오 사전 제어 데이터(data_control_pre_video)는 전술한 오디오 사전 제어 데이터(data_control_pre_audio)와 유사하게 자막정보, 영상필터 정보, 색보정 정보 등을 사전에 정의하는 데이터들로 구성될 수 있으며, 제 1 배경 비디오 소스 데이터(data_video_source_BG_1)를 포함하거나 제 1 배경 비디오 소스 데이터(data_video_source_BG_1)에 대한 URL 정보와 같은 저장위치 정보를 포함하여 구성될 수 있다. 실시예에 따라서는 제 1 배경 비디오 소스 데이터(data_video_source_BG_1)는 평면 영상이 아닌 3차원으로 모델링된 가상배경으로 구현되며 카메라 모듈(111,121)의 촬영위치 또는 카메라 모듈(111,121)의 이동에 따라 카메라 뷰에 적응적으로 랜더링되어 제 1 비디오 소스 데이터(data_video_source_1) 및 제 2 비디오 소스 데이터(data_video_source_2)에 합성될 수 있다.According to the embodiment of automatically synthesizing the background screen, the real-time video editing module 220 is performed on the performer object image of the first video source data (data_video_source_1) and the second video source data (data_video_source_2) and the video pre-control data (data_control_pre_video). The first background video source data (data_video_source_BG_1) defined by is synthesized to generate real-time video editing data. 7 illustrates an interface for editing video pre-control data (data_control_pre_video) by specifying a first background video source data (data_video_source_BG_1). According to this embodiment, by adding the first background video source data (data_video_source_BG_1) designated in advance according to the generation of video source data, an effect of reducing time and cost required for video editing is provided. Similar to the aforementioned audio pre-control data (data_control_pre_audio), the video pre-control data (data_control_pre_video) may be composed of data that pre-defines subtitle information, image filter information, color correction information, etc., and includes the first background video source data. (data_video_source_BG_1) or storage location information such as URL information for the first background video source data (data_video_source_BG_1). Depending on the embodiment, the first background video source data (data_video_source_BG_1) is implemented as a virtual background modeled in three dimensions rather than a flat image, and is displayed in a camera view according to the shooting position of the camera modules 111 and 121 or the movement of the camera modules 111 and 121. It may be adaptively rendered and combined with the first video source data (data_video_source_1) and the second video source data (data_video_source_2).

실시간 편집 비디오 데이터(data_video_edited_RT)는 동영상 플레이어와 같은 소프트웨어를 통해 재생 가능한 비디오 파일로 구성되며, 직접 편집의 대상이 되는 비디오 파일이 아니고 사후 오디오 편집 시 오디오 편집에 참고되는 참고 비디오 파일이기 때문에 원본 비디오 데이터인 제 1 비디오 소스 데이터(data_video_source_1) 및 제 2 비디오 소스 데이터(data_video_source_2)와 별도로 단일의 파일 형태로 생성된다. 또한 가능한 작은 데이터 크기를 갖도록 작은 화면 크기로의 리사이즈, 낮은 해상도로 해상도 변경, 높은 압축률로의 압축저장 등의 방법으로 실시간 편집 비디오 데이터(data_video_edited_RT)를 생성하는 것이 바람직하다. 또한 사후 오디오 편집 단말장치(400)의 네트워크 환경, 연산처리 능력, 잔여 저장공간 등에 따라 적응적으로 실시간 편집 비디오 데이터(data_video_edited_RT)의 해상도를 변경하도록 구성할 수도 있다. 하지만 어느 경우에도 실시간 편집 비디오 데이터(data_video_edited_RT)의 데이터 크기는 제 1 비디오 소스 데이터(data_video_source_1)의 데이터 크기 및 제 2 비디오 소스 데이터(data_video_source_2)의 데이터 크기의 합을 넘지 않도록 함으로써 사후 오디오 편집 단말장치(400)의 오디오 편집 시 불필요한 과도한 크기의 비디오 데이터의 전송을 방지하고, 오디오 편집 시 비디오 데이터로 인한 불필요한 연산부담을 저감할 수 있다.Real-time edited video data (data_video_edited_RT) consists of video files that can be played through software such as a video player. It is not a video file that is directly edited, but a reference video file that is used as a reference for audio editing in post-audio editing, so it is the original video data. It is created as a single file separately from the first video source data (data_video_source_1) and the second video source data (data_video_source_2). In addition, it is desirable to generate real-time edited video data (data_video_edited_RT) by resizing to a small screen size to have as small a data size as possible, changing the resolution to a low resolution, and compressing and storing with a high compression rate. In addition, the resolution of the real-time edited video data (data_video_edited_RT) may be adaptively changed according to the network environment, calculation processing capability, remaining storage space, etc. of the post-audio editing terminal device 400 . However, in any case, the data size of the real-time edited video data (data_video_edited_RT) does not exceed the sum of the data size of the first video source data (data_video_source_1) and the data size of the second video source data (data_video_source_2), so that the post-audio editing terminal device ( 400), it is possible to prevent transmission of excessively large video data during audio editing, and to reduce unnecessary computational burden due to video data during audio editing.

실시간 오디오 편집모듈(221)은 녹음 오디오 소스 데이터(data_audio_source_recording) 및 배경 오디오 소스 데이터(data_audio_source_BG)에 기반하여 녹음 오디오 소스 데이터(data_audio_source_recording)의 데이터 크기 및 배경 오디오 소스 데이터(data_audio_source_BG)의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 실시간 편집 오디오 데이터(data_audio_edited_RT)를 생성하는 기능을 수행한다. 실시간 오디오 편집모듈(221)은 오디오 편집 인력에 의존하지 않고 주어진 편집 룰에 따라 자동으로 오디오 편집을 수행한다. 실시간 오디오 편집모듈(221)은 실시예에 따라 다양하게 오디오 편집을 자동으로 수행할 수 있다. 예컨대 실시간 오디오 편집모듈(221)은 실시간 편집 오디오 데이터(data_audio_edited_RT)를 사후 비디오 편집 단말장치(300)에서 비디오 편집에 참고하는 용도로 간단하게 편집할 수도 있고, 최종 결과물에 가까운 품질로 편집할 수도 있다. 예컨대 비디오 편집 참고용으로 제작하는 경우 녹음 오디오 소스 데이터(data_audio_source_recording)와 배경 오디오 소스 데이터(data_audio_source_BG)를 단순히 믹싱하여 실시간 편집 오디오 데이터(data_audio_edited_RT)를 생성할 수 있고, 전술한 오디오 사전 제어 데이터(data_control_pre_audio)에 정의된 효과음 또는 음향효과를 녹음 오디오 소스 데이터(data_audio_source_recording) 또는 배경 오디오 소스 데이터(data_audio_source_BG)에 추가하는 방법으로 높은 품질의 실시간 편집 오디오 데이터(data_audio_edited_RT)가 생성될 수 있다.Based on the recorded audio source data (data_audio_source_recording) and the background audio source data (data_audio_source_BG), the real-time audio editing module 221 is configured to exceed the sum of the data size of the recorded audio source data (data_audio_source_recording) and the data size of the background audio source data (data_audio_source_BG). It performs a function of generating single real-time edited audio data (data_audio_edited_RT) with a small data size. The real-time audio editing module 221 automatically performs audio editing according to given editing rules without relying on audio editing personnel. The real-time audio editing module 221 may automatically perform audio editing in various ways according to embodiments. For example, the real-time audio editing module 221 may simply edit the real-time edited audio data (data_audio_edited_RT) for reference in video editing in the post-video editing terminal device 300 or may edit with a quality close to the final result. . For example, when producing for video editing reference, recording audio source data (data_audio_source_recording) and background audio source data (data_audio_source_BG) can be simply mixed to generate real-time edited audio data (data_audio_edited_RT), and the aforementioned audio pre-control data (data_control_pre_audio) High-quality real-time edited audio data (data_audio_edited_RT) can be generated by adding the sound effects or sound effects defined in [0080] to the recorded audio source data (data_audio_source_recording) or the background audio source data (data_audio_source_BG).

실시간 편집 오디오 데이터(data_audio_edited_RT)는 가능한 작은 데이터 크기를 갖도록 높은 압축률의 압축저장 등의 방법으로 실시간 편집 오디오 데이터(data_audio_edited_RT)를 생성하는 것이 바람직하다. 이를 통해 사후 비디오 편집 단말장치(300)의 비디오 편집 시 과도한 크기의 오디오 데이터의 전송을 방지하고, 비디오 편집 시 과도한 오디오 데이터로 인한 불필요한 연산부담을 저감할 수 있다.It is preferable to generate the real-time edited audio data (data_audio_edited_RT) by a method such as compression and storage with a high compression rate so as to have a data size as small as possible. Through this, it is possible to prevent transmission of excessively large audio data during video editing of the post-video editing terminal device 300 and reduce unnecessary computational burden due to excessive audio data during video editing.

실시간 편집 비디오 데이터(data_video_edited_RT)와 실시간 편집 오디오 데이터(data_audio_edited_RT)는 전문적인 스튜디오 장비를 통해 생성된 제 1 비디오 소스 데이터(data_video_source_1), 제 2 비디오 소스 데이터(data_video_source_2), 녹음 오디오 소스 데이터(data_audio_source_recording)를 기반으로 생성되고 미리 정의된 편집 룰에 따라 자동화된 편집 프로세스를 통해 생성되기 때문에 일반적인 사용자가 자체적으로 제작하는 UGC에 비해 높은 품질을 갖도록 하는 효과가 있다. 그럼에도 불구하고 전문 편집인력에 의한 비디오 편집 및 오디오 편집을 통해 보다 높은 품질의 멀티미디어 파일을 제작할 필요가 있다. 이를 위해 본 발명에서는 통신망을 통해 사후적으로 비디오 편집 및 오디오 편집을 더 수행함으로써 높은 품질의 멀티미디어 컨텐츠를 효율적으로 생성할 수 있도록 한다. 실시간 편집 오디오 데이터(data_audio_edited_RT)와 실시간 편집 비디오 데이터(data_video_edited_RT)는 촬영에 의해 생성된 제 1 비디오 소스 데이터(data_video_source_1), 제 2 비디오 소스 데이터(data_video_source_2), 및 녹음 오디오 소스 데이터(data_audio_source_recording)가 입력되면 실시간 편집 비디오 데이터(data_video_edited_RT) 및 실시간 편집 오디오 데이터(data_audio_edited_RT)의 생성이 시작되도록 구성한다.Real-time edited video data (data_video_edited_RT) and real-time edited audio data (data_audio_edited_RT) are first video source data (data_video_source_1), second video source data (data_video_source_2), and recorded audio source data (data_audio_source_recording) generated through professional studio equipment. Since it is generated based on the UGC and generated through an automated editing process according to predefined editing rules, it has an effect of having a higher quality than the UGC that general users produce on their own. Nevertheless, it is necessary to produce higher quality multimedia files through video editing and audio editing by professional editors. To this end, in the present invention, video editing and audio editing are further performed post-processing through a communication network so that high-quality multimedia contents can be efficiently generated. Real-time edited audio data (data_audio_edited_RT) and real-time edited video data (data_video_edited_RT) are input when first video source data (data_video_source_1), second video source data (data_video_source_2), and recorded audio source data (data_audio_source_recording) generated by shooting are input. Configure to start generating real-time edited video data (data_video_edited_RT) and real-time edited audio data (data_audio_edited_RT).

실시예에 따라서는 본 발명의 분산형 멀티미디어 편집 시스템은 생성된 멀티미디어 컨텐츠를 업로드하여 일반 사용자에게 제공하는 멀티미디어 컨텐츠 서버를 더 포함하여 구성될 수 있다. 이때 멀티미디어 컨텐츠 서버는 해당 멀티미디어 컨텐츠의 비디오 편집을 담당한 사용자의 식별정보 및 오디오 편집을 담당한 사용자의 식별정보를 더 포함하여 해당 멀티미디어 컨텐츠를 제공하도록 구성하고, 해당 멀티미디어 컨텐츠를 관람한 사용자는 자신의 새로운 멀티미디어 컨텐츠 제작시 해당 편집작업 참여 사용자의 식별정보를 통해 자신의 멀티미디어 컨텐츠 제작의 비디오 편집 또는 오디오 편집을 통신망으로 해당 사용자에게 의뢰하도록 구성할 수 있다. 이를 통해 비디오 편집 또는 오디오 편집에 재능이 있는 일반 사용자가 멀티미디어 컨텐츠 편집작업에 참여하도록 구성할 수 있다. 이러한 실시예에 따르면 멀티미디어 컨텐츠 제작 환경을 일반 사용자들이 자발적으로 구축할 수 있도록 하고, 편집 결과물인 멀티미디어 컨텐츠를 통해 새로운 의뢰자와 편집자를 다시 매칭하도록 하는 효과를 제공한다.Depending on embodiments, the distributed multimedia editing system of the present invention may further include a multimedia content server that uploads generated multimedia content and provides it to general users. At this time, the multimedia content server is configured to provide the multimedia content by further including the identification information of the user in charge of video editing and the identification information of the user in charge of audio editing of the multimedia content, and the user who has viewed the multimedia content is himself/herself. When creating new multimedia contents, through the identification information of the user participating in the editing work, the user can be configured to request video editing or audio editing of the multimedia contents production to the corresponding user through the communication network. Through this, general users with talent in video editing or audio editing can be configured to participate in multimedia content editing. According to this embodiment, it is possible for general users to voluntarily build a multimedia content production environment, and provides an effect of matching a new requester and editor again through multimedia content, which is an edited result.

사후 비디오 편집 단말장치(300)는 통신망을 통해 멀티미디어 편집 서버(200)에 접속하고, 제 1 비디오 소스 데이터(data_video_source_1) 및 제 2 비디오 소스 데이터(data_video_source_2)를 기반으로 제 1 비디오 소스 데이터(data_video_source_1)의 데이터 크기 및 제 2 비디오 소스 데이터(data_video_source_2)의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 사후 편집 비디오 데이터(data_video_edited_post)를 생성하여 멀티미디어 편집 서버(200)에게 전송하는 기능을 수행한다. 사후 비디오 편집 단말장치(300)는 PC, 스마트폰, 태블릿 PC 등과 같은 정보 단말기로 구현될 수 있으며, 예컨대 도 8에 도시된 바와 같은 비디오 편집 인터페이스를 제공하는 애플리케이션 또는 비디오 편집을 원격으로 수행하는 기능을 제공하는 웹페이지에 접속할 수 있는 웹브라우저를 포함하여 구성된다. 사후 비디오 편집 단말장치(300)는 비디오 편집만 담당하기 때문에 선택적 접근권한 관리모듈(230)에 의해 오디오 편집에 필요한 녹음 오디오 소스 데이터(data_audio_source_recording) 및 배경 오디오 소스 데이터(data_audio_source_BG)에 대한 접근권한을 부여받지 못하고, 비디오 편집에 필요한 제 1 비디오 소스 데이터(data_video_source_1) 및 제 2 비디오 소스 데이터(data_video_source_2)에 대한 접근권한을 선택적으로 부여받는다. 한편 비디오 편집을 위해서는 해당 재생시간에서의 음향정보를 참조하여야 하기 때문에 선택적 편집 데이터 전송모듈(240)은 데이터 크기가 작은 실시간 편집 오디오 데이터(data_audio_edited_RT) 또는 사후 편집 오디오 데이터(data_audio_edited_post)(사후 오디오 편집 단말장치(400)가 사후 편집 오디오 데이터(data_audio_edited_post)를 생성한 경우)를 제공받는다.The post-video editing terminal device 300 accesses the multimedia editing server 200 through a communication network, and generates first video source data (data_video_source_1) based on the first video source data (data_video_source_1) and the second video source data (data_video_source_2). Performs a function of generating single post-edited video data (data_video_edited_post) having a data size smaller than the sum of the data size of and the data size of the second video source data (data_video_source_2) and transmitting it to the multimedia editing server 200. The post-video editing terminal device 300 may be implemented as an information terminal such as a PC, smart phone, or tablet PC, and may be implemented as an application that provides a video editing interface as shown in FIG. 8 or a function for remotely performing video editing. It is configured to include a web browser that can access a web page that provides. Since the post-video editing terminal device 300 is only responsible for video editing, the selective access management module 230 grants access to recorded audio source data (data_audio_source_recording) and background audio source data (data_audio_source_BG) necessary for audio editing. access rights to the first video source data (data_video_source_1) and the second video source data (data_video_source_2) required for video editing are selectively granted. On the other hand, since it is necessary to refer to the sound information at the corresponding playback time for video editing, the selective editing data transmission module 240 uses real-time editing audio data (data_audio_edited_RT) or post-editing audio data (data_audio_edited_post) with a small data size (post-audio editing terminal). When the device 400 generates post-edited audio data (data_audio_edited_post)) is provided.

사후 편집 비디오 데이터(data_video_edited_post)는 예컨대 제 1 비디오 소스 데이터(data_video_source_1)와 제 2 비디오 소스 데이터(data_video_source_2)의 선택적 재생시점에 따른 영상편집, 사후적으로 부가된 영상효과의 적용, 추가적인 영상의 부가와 같은 비디오 편집이 적용되어 생성된다. 사후 편집 비디오 데이터(data_video_edited_post)는 동영상 플레이어와 같은 소프트웨어를 통해 재생 가능한 비디오 파일로 구성되며, 직접 편집의 대상이 되는 비디오 파일이 아니고 사후 오디오 편집 시 사후 오디오 편집 단말장치(400)에서 오디오 편집에 참고되는 참고 비디오 파일이기 때문에 원본 비디오 데이터인 제 1 비디오 소스 데이터(data_video_source_1) 및 제 2 비디오 소스 데이터(data_video_source_2)와 별도의 단일 파일 형태로 생성된다. 또한 가능한 작은 데이터 크기를 갖도록 작은 화면 크기로의 리사이즈, 낮은 해상도로 해상도 변경, 높은 압축률로 압축저장 등의 방법으로 사후 편집 비디오 데이터(data_video_edited_post)를 생성하는 것이 바람직하다. 또한 사후 오디오 편집 단말장치(400)의 네트워크 환경, 연산처리 능력, 저장공간 등에 따라 적응적으로 사후 편집 비디오 데이터(data_video_edited_RT)의 해상도를 변경하도록 구성할 수도 있다. 하지만 어느 경우에도 사후 편집 비디오 데이터(data_video_edited_post)의 데이터 크기는 제 1 비디오 소스 데이터(data_video_source_1)의 데이터 크기 및 제 2 비디오 소스 데이터(data_video_source_2)의 데이터 크기의 합을 넘지 않도록 함으로써 사후 오디오 편집 단말장치(400)의 오디오 편집 시 불필요한 과도한 크기의 비디오 데이터의 전송을 방지하고, 오디오 편집 시 비디오 파일에 의한 연산부담을 저감할 수 있다.The post-edited video data (data_video_edited_post) is, for example, video editing according to the selective playback time of the first video source data (data_video_source_1) and the second video source data (data_video_source_2), application of post-added video effects, addition of additional video and It is created with the same video editing applied. The post-edited video data (data_video_edited_post) consists of a video file that can be played through software such as a video player, and is not a video file that is directly subject to editing. Since the reference video file is a reference video file, it is generated in the form of a single file separate from the first video source data (data_video_source_1) and the second video source data (data_video_source_2), which are original video data. In addition, it is desirable to generate post-edited video data (data_video_edited_post) by a method such as resizing to a small screen size, changing the resolution to a low resolution, and compressing and storing with a high compression rate so as to have the smallest possible data size. In addition, the resolution of the post-editing video data (data_video_edited_RT) may be adaptively changed according to the network environment, calculation processing capability, storage space, etc. of the post-audio editing terminal device 400 . However, in any case, the data size of the post-edited video data (data_video_edited_post) does not exceed the sum of the data size of the first video source data (data_video_source_1) and the data size of the second video source data (data_video_source_2), so that the post audio editing terminal device ( 400), it is possible to prevent transmission of excessively large video data during audio editing, and to reduce the computational burden of video files during audio editing.

실시예에 따라서는 사후 비디오 편집 단말장치(300)의 비디오 편집에 따라 멀티미디어 편집서버가 사후 편집 비디오 데이터(data_video_edited_post)를 생성하도록 구성할 수 있다.Depending on the embodiment, the multimedia editing server may be configured to generate post-edited video data (data_video_edited_post) according to video editing by the post-video editing terminal device 300 .

데이터 크기가 큰 소스 비디오 파일을 편집하기 위해서는 높은 연산처리속도 및 데이터 처리속도가 요구된다. 따라서 비디오 편집 중에는 비디오 소스 데이터 보다 작은 데이터 크기로 인코딩된 프록시 미디어를 사용하고, 비디오 편집 후 비디오 편집에 적용된 룰에 따라 비디오 소스 데이터를 편집하여 최종 결과물을 생성하는 것이 바람직하다. 이를 위해 사후 비디오 편집 단말장치(300)는 제 1 비디오 소스 데이터(data_video_source_1)의 프록시 미디어 및 제 2 비디오 소스 데이터(data_video_source_2)의 프록시 미디어를 이용하여 사후 편집 비디오 데이터(data_video_edited_post)를 생성하도록 구성할 수 있다.In order to edit a source video file having a large data size, high processing speed and data processing speed are required. Therefore, during video editing, it is preferable to use proxy media encoded with a smaller data size than video source data, and to edit the video source data according to rules applied to video editing to create a final result. To this end, the post-video editing terminal device 300 may be configured to generate post-edited video data (data_video_edited_post) by using proxy media of the first video source data (data_video_source_1) and proxy media of the second video source data (data_video_source_2). have.

사후 비디오 편집 단말장치(300)의 사용자는 사후제작(post-production) 공정 뿐 아니라 사전제작(pre-production) 공정부터 관여하는 것이 보다 바람직하다. 이를 위해 사후 비디오 편집 단말장치(300)는 도 3에 도시된 바와 같은 편집 인터페이스를 통해 제 1 카메라 사전 제어 데이터(data_control_pre_camera_1)를 더 생성하도록 구성하는 것이 바람직하다.It is more desirable for the user of the post-video editing terminal device 300 to be involved not only in the post-production process but also in the pre-production process. To this end, it is preferable to configure the post video editing terminal device 300 to further generate first camera pre-control data (data_control_pre_camera_1) through an editing interface as shown in FIG. 3 .

또한 배경화면을 합성하는 실시예에 있어서, 사후 비디오 편집 단말장치(300)에 의해 새로운 배경화면을 합성하거나 실시간 비디오 편집모듈(220)이 합성한 제 1 배경 비디오 소스 데이터(data_video_source_BG_1)와 다른 배경화면을 합성하도록 함으로써 보다 다양한 비디오 편집이 가능하다. 이를 위해 사후 편집 단말장치는 제 1 비디오 소스 데이터(data_video_source_1) 및 제 2 비디오 소스 데이터(data_video_source_2)의 공연자 객체영상과 제 2 배경 비디오 소스 데이터(data_video_source_BG_2)를 합성하여 사후 편집 비디오 데이터(data_video_edited_post)를 생성하도록 구성하는 것이 바람직하다.In addition, in the embodiment of synthesizing the background screen, a new background screen is synthesized by the post-video editing terminal device 300 or a background screen different from the first background video source data (data_video_source_BG_1) synthesized by the real-time video editing module 220. By compositing, more diverse video editing is possible. To this end, the post-editing terminal device generates post-edited video data (data_video_edited_post) by synthesizing the performer object image of the first video source data (data_video_source_1) and the second video source data (data_video_source_2) and the second background video source data (data_video_source_BG_2). It is desirable to configure it so that

사후 오디오 편집 단말장치(400)는 통신망을 통해 멀티미디어 편집 서버(200)에 접속하고, 녹음 오디오 소스 데이터(data_audio_source_recording) 및 배경 오디오 소스 데이터(data_audio_source_BG)를 기반으로 녹음 오디오 소스 데이터(data_audio_source_recording)의 데이터 크기 및 배경 오디오 소스 데이터(data_audio_source_BG)의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 사후 편집 오디오 데이터(data_audio_edited_post)를 생성하여 멀티미디어 편집 서버(200)에게 전송하는 기능을 수행한다. 사후 오디오 편집 단말장치(400)는 PC, 스마트폰, 태블릿 PC 등과 같은 정보 단말기로 구현될 수 있으며, 예컨대 도 9에 도시된 바와 같은 오디오 편집 인터페이스를 제공하는 애플리케이션 또는 오디오 편집을 원격으로 수행하는 기능을 제공하는 웹페이지에 접속할 수 있는 웹브라우저를 포함하여 구성된다. 사후 오디오 편집 단말장치(400)는 오디오 편집만 담당하기 때문에 선택적 접근권한 관리모듈(230)에 의해 제 1 비디오 소스 데이터(data_video_source_1) 및 제 2 비디오 소스 데이터(data_video_source_2)에 대한 접근권한을 부여받지 못하고, 녹음 오디오 소스 데이터(data_audio_source_recording) 및 배경 오디오 소스 데이터(data_audio_source_BG)에 대한 접근권한을 선택적으로 부여받는다. 한편 오디오 편집을 위해서는 해당 재생시간에서의 영상정보를 참조하여야 하기 때문에 선택적 편집 데이터 전송모듈(240)은 데이터 크기가 작은 실시간 편집 비디오 데이터(data_video_edited_RT) 또는 사후 편집 비디오 데이터(data_video_edited_post)(사후 비디오 편집 단말장치(300)가 사후 편집 비디오 데이터(data_video_edited_post)를 생성한 경우)를 제공받는다.The post-audio editing terminal device 400 accesses the multimedia editing server 200 through a communication network, and the data size of the recorded audio source data (data_audio_source_recording) based on the recorded audio source data (data_audio_source_recording) and the background audio source data (data_audio_source_BG). and generating a single post-edited audio data (data_audio_edited_post) having a data size smaller than the sum of the data sizes of the background audio source data (data_audio_source_BG) and transmitting it to the multimedia editing server 200. The post-audio editing terminal device 400 may be implemented as an information terminal such as a PC, smart phone, tablet PC, etc., for example, an application that provides an audio editing interface as shown in FIG. 9 or a function for performing audio editing remotely. It is configured to include a web browser that can access a web page that provides. Since the post-audio editing terminal device 400 is in charge of only audio editing, access to the first video source data (data_video_source_1) and the second video source data (data_video_source_2) is not granted by the optional access right management module 230, , Access rights to recording audio source data (data_audio_source_recording) and background audio source data (data_audio_source_BG) are selectively granted. On the other hand, since video information at the corresponding playback time must be referred to for audio editing, the selective editing data transmission module 240 transmits real-time edited video data (data_video_edited_RT) or post-edited video data (data_video_edited_post) with a small data size (post-video editing terminal). When the device 300 generates post-edited video data (data_video_edited_post)) is provided.

사후 편집 오디오 데이터(data_audio_edited_post)는 예컨대 사후적으로 부가된 음향효과의 적용 등의 오디오 편집이 적용되어 생성된다. 사후 편집 오디오 데이터(data_audio_edited_post)는 오디오 플레이어와 같은 소프트웨어를 통해 재생 가능한 오디오 파일로 구성되며, 직접 편집의 대상이 되는 오디오 파일이 아니고 사후 비디오 편집 시 사후 비디오 편집 단말장치(300)에서 비디오 편집에 참고되는 참고 오디오 파일이기 때문에 원본 오디오 데이터인 녹음 오디오 소스 데이터(data_audio_source_recording) 및 배경 오디오 소스 데이터(data_audio_source_BG)와 별도로 단일의 파일 형태로 생성된다. 또한 가능한 작은 데이터 크기를 갖도록 높은 압축률을 갖는 압축저장 등의 방법으로 사후 편집 오디오 데이터(data_audio_edited_post)를 생성하는 것이 바람직하다. 이를 통해 사후 비디오 편집 단말장치(300)의 비디오 편집 시 불필요한 과도한 크기의 오디오 데이터의 전송을 방지하고, 비디오 편집 시 오디오 파일에 의한 연산부담을 저감할 수 있다.The post-edited audio data (data_audio_edited_post) is generated by applying audio editing, such as, for example, applying sound effects added posthumously. The post-edited audio data (data_audio_edited_post) consists of an audio file that can be played through software such as an audio player, and is not an audio file that is directly subject to editing. Since it is a reference audio file to be used, it is created as a single file separately from the original audio data, the recording audio source data (data_audio_source_recording) and the background audio source data (data_audio_source_BG). In addition, it is desirable to generate the post-edited audio data (data_audio_edited_post) by a method such as compression and storage having a high compression rate so as to have a data size as small as possible. Through this, it is possible to prevent transmission of unnecessary audio data of an excessive size during video editing of the post-video editing terminal device 300, and to reduce the computational burden of audio files during video editing.

실시예에 따라서는 사후 오디오 편집 단말장치(400)의 오디오 편집에 따라 멀티미디어 편집서버가 사후 편집 오디오 데이터(data_audio_edited_post)를 생성하도록 구성할 수 있다.Depending on the embodiment, the multimedia editing server may be configured to generate post-edited audio data (data_audio_edited_post) according to the audio editing of the post-audio editing terminal device 400 .

사후 오디오 편집 단말장치(400)의 사용자는 사후제작(post-production) 공정 뿐 아니라 사전제작(pre-production) 공정부터 관여하는 것이 보다 바람직하다. 이를 위해 사후 오디오 편집 단말장치(400)는 도 6에 도시된 바와 같은 편집 인터페이스를 통해 오디오 사전 제어 데이터(data_control_pre_audio)를 더 생성하도록 구성하는 것이 바람직하다.It is more desirable for the user of the post-audio editing terminal device 400 to be involved not only in the post-production process but also in the pre-production process. To this end, it is preferable to configure the post-audio editing terminal device 400 to further generate audio pre-control data (data_control_pre_audio) through an editing interface as shown in FIG. 6 .

멀티미디어 편집 서버(200)의 선택적 접근권한 관리모듈(230)은 전술한 바와 같이 사후 비디오 편집 단말장치(300)에게 제 1 비디오 소스 데이터(data_video_source_1) 및 제 2 비디오 소스 데이터(data_video_source_2)에 대한 접근권한을 선택적으로 부여하고, 사후 오디오 편집 단말장치(400)에게 녹음 오디오 소스 데이터(data_audio_source_recording) 및 배경 오디오 소스 데이터(data_audio_source_BG)에 대한 접근권한을 선택적으로 부여한다. 선택적 편집 데이터 전송모듈(240)은 사후 비디오 편집 단말장치(300)에게 실시간 편집 오디오 데이터(data_audio_edited_RT) 또는 사후 편집 오디오 데이터(data_audio_edited_post)를 선택적으로 전송하고 사후 오디오 편집 단말장치(400)에게 실시간 편집 비디오 데이터(data_video_edited_RT) 또는 사후 편집 비디오 데이터(data_video_edited_post)를 선택적으로 전송한다. 예컨대 사후 오디오 편집 단말장치(400)가 사후 편집 오디오 데이터(data_audio_edited_post)를 생성하기 전에 사후 비디오 편집 단말장치(300)가 비디오 편집을 먼저 시작하는 경우 선택적 편집 데이터 전송모듈(240)은 사후 비디오 편집 단말장치(300)에게 실시간 편집 오디오 데이터(data_audio_edited_RT)를 전송하고, 사후 오디오 편집 단말장치(400)가 사후 편집 오디오 데이터(data_audio_edited_post)를 생성한 후에 사후 비디오 편집 단말장치(300)가 비디오 편집을 시작하는 경우 선택적 편집 데이터 전송모듈(240)은 사후 비디오 편집 단말장치(300)에게 사후 편집 오디오 데이터(data_audio_edited_post)를 전송한다. 만일 사후 오디오 편집 단말장치(400)가 수차례 사후 편집 오디오 데이터(data_audio_edited_post)를 생성한 경우라면 가장 최근에 생성된 사후 편집 오디오 데이터(data_audio_edited_post)를 사후 비디오 편집 단말장치(300)에게 제공한다.As described above, the optional access rights management module 230 of the multimedia editing server 200 grants the post-video editing terminal device 300 access rights to the first video source data (data_video_source_1) and the second video source data (data_video_source_2). is selectively granted, and access rights to recorded audio source data (data_audio_source_recording) and background audio source data (data_audio_source_BG) are selectively granted to the post-audio editing terminal device 400. The optional editing data transmission module 240 selectively transmits real-time edited audio data (data_audio_edited_RT) or post-edited audio data (data_audio_edited_post) to the post-video editing terminal device 300 and transmits the post-video editing terminal device 400 to the real-time edited video. Data (data_video_edited_RT) or post-edited video data (data_video_edited_post) is selectively transmitted. For example, when the post video editing terminal device 300 first starts video editing before the post audio editing terminal device 400 generates the post editing audio data (data_audio_edited_post), the selective editing data transmission module 240 may perform post video editing terminal device 300. After transmitting the real-time edited audio data (data_audio_edited_RT) to the device 300 and generating the post-edited audio data (data_audio_edited_post) by the post-audio editing terminal device 400, the post-video editing terminal device 300 starts video editing. In this case, the optional edited data transmission module 240 transmits post-edited audio data (data_audio_edited_post) to the post-video editing terminal device 300 . If the post-editing audio data (data_audio_edited_post) is generated several times by the post-audio editing terminal device 400, the most recently created post-editing audio data (data_audio_edited_post) is provided to the post-video editing terminal device 300.

반대로 사후 비디오 편집 단말장치(300)가 사후 편집 비디오 데이터(data_video_edited_post)를 생성하기 전에 사후 오디오 편집 단말장치(400)가 오디오 편집을 먼저 시작하는 경우 선택적 편집 데이터 전송모듈(240)은 사후 오디오 편집 단말장치(400)에게 실시간 편집 비디오 데이터(data_video_edited_RT)를 전송하고, 사후 비디오 편집 단말장치(300)가 사후 편집 비디오 데이터(data_video_edited_post)를 생성한 후에 사후 오디오 편집 단말장치(400)가 오디오 편집을 시작하는 경우 선택적 편집 데이터 전송모듈(240)은 사후 오디오 편집 단말장치(400)에게 사후 편집 비디오 데이터(data_video_edited_post)를 전송한다. 만일 사후 비디오 편집 단말장치(300)가 수차례 사후 편집 비디오 데이터(data_video_edited_post)를 생성한 경우라면 가장 최근에 생성된 사후 편집 비디오 데이터(data_video_edited_post)를 사후 오디오 편집 단말장치(400)에게 제공한다.Conversely, if the post-video editing terminal device 400 starts audio editing before the post-video editing terminal device 300 generates the post-editing video data (data_video_edited_post), the selective editing data transmission module 240 transmits the post-editing audio data data_video_edited_post. After transmitting the real-time edited video data (data_video_edited_RT) to the device 400 and generating the post-edited video data (data_video_edited_post) by the post-video editing terminal device 300, the post-audio editing terminal device 400 starts audio editing. In this case, the optional edited data transmission module 240 transmits post-edited video data (data_video_edited_post) to the post-audio editing terminal device 400 . If the post-video editing terminal device 300 generates post-editing video data (data_video_edited_post) several times, the most recently generated post-editing video data (data_video_edited_post) is provided to the post-audio editing terminal device 400.

멀티미디어 파일 생성모듈(250)은 사후 편집 비디오 데이터(data_video_edited_post)에 적용된 비디오 편집 및 사후 편집 오디오 데이터(data_audio_edited_post)에 적용된 오디오 편집에 따라 단일의 멀티미디어 파일 데이터(data_multimedia_file)를 생성한다. 사후 비디오 편집 단말장치(300)는 이를 위해 비디오 편집작업을 사후 비디오 편집 데이터로서 생성하여 멀티미디어 편집 서버(200)에게 전송하고, 사후 오디오 편집 단말장치(400)는 이를 위해 오디오 편집작업을 사후 오디오 편집 데이터로서 생성하여 멀티미디어 편집 서버(200)에게 전송하고, 멀티미디어 파일 생성모듈(250)은 사후 비디오 편집 데이터 및 사후 오디오 편집 데이터를 비디오 소스 데이터 및 오디오 소스 데이터에 적용하여 멀티미디어 파일을 생성한다. 사후 비디오 편집 데이터는 사후 편집 비디오 데이터(data_video_edited_post)와는 달리 실제 편집된 비디오 데이터가 아니고, 비디오 편집에 대한 정보들을 포함하여 구성되며 예컨대 비디오 편집자가 적용한 각 재생시간에서 선택된 비디오 소스 데이터에 대한 정보, 배경을 합성하는 경우 선택된 배경 소스 데이터에 대한 정보, 각 재생시간에 적용된 영상효과에 대한 정보 등을 포함하여 구성될 수 있다. 사후 오디오 편집 데이터는 사후 편집 오디오 데이터(data_audio_edited_post)와는 달리 실제 편집된 오디오 데이터가 아니고, 오디오 편집에 대한 정보들을 포함하여 구성되며 예컨대 오디오 편집자가 적용한 각 재생시간에서 선택된 오디오 소스 데이터에 대한 정보, 오디오 믹싱을 수행한 경우 믹싱된 복수의 오디오 소스 데이터들에 대한 정보, 각 재생시간에 적용된 음향효과에 대한 정보를 포함하여 구성될 수 있다. 한편, 실시예에 따라서는 마지막 편집 작업을 완료한 사후 비디오 편집 단말장치(300) 또는 사후 오디오 편집 단말장치(300)가 멀티미디어 파일 데이터(data_multimedeia_file)을 생성하여 멀티미디어 편집 서버(200)로 전송할 수도 있다.The multimedia file generation module 250 generates a single multimedia file data (data_multimedia_file) according to video editing applied to the post-edited video data (data_video_edited_post) and audio editing applied to the post-edited audio data (data_audio_edited_post). To this end, the post video editing terminal device 300 generates a video editing job as post video editing data and transmits it to the multimedia editing server 200, and the post audio editing terminal device 400 converts the audio editing job to post audio editing for this purpose. It is generated as data and transmitted to the multimedia editing server 200, and the multimedia file generation module 250 generates a multimedia file by applying the post-video editing data and post-audio editing data to the video source data and the audio source data. Unlike the post-edited video data (data_video_edited_post), the post-edited video data is not actually edited video data, and is composed of information about video editing. For example, information about video source data selected at each playback time applied by the video editor, background In the case of synthesizing, it may be configured to include information on selected background source data, information on video effects applied to each playback time, and the like. Unlike the post-edited audio data (data_audio_edited_post), the post-edited audio data is not actual edited audio data, and is composed of information about audio editing. For example, information about audio source data selected at each playback time applied by the audio editor, audio When mixing is performed, information on a plurality of mixed audio source data and information on sound effects applied to each playback time may be included. Meanwhile, depending on the embodiment, the post-video editing terminal device 300 or the post-audio editing terminal device 300 that has completed the last editing task may generate multimedia file data (data_multimedia_file) and transmit it to the multimedia editing server 200. .

멀티미디어 파일 데이터(data_multimedia_file)는 최종적인 생산물이기 때문에 높은 품질로 생성되는 것이 바람직하다. 전술한 멀티미디어 컨텐츠 서버를 더 포함하는 실시예의 경우 생성된 멀티미디어 파일 데이터(data_multimedia_file)는 통신망을 통해 스트리밍 방식 또는 다운로드 방식으로 제공될 수 있는 형태로 멀티미디어 컨텐츠 서버에 업로드되도록 구성할 수 있다. 이때 실시예에 따라서는 비디오 편집에 참여한 사용자의 사용자 식별자와 오디오 편집에 참여한 사용자의 사용자 식별자와 연관되도록 멀티미디어 파일 데이터(data_multimedia_file)가 제공되는 것이 바람직하다. Since the multimedia file data (data_multimedia_file) is a final product, it is desirable to generate it with high quality. In the case of the embodiment further including the above-described multimedia content server, the generated multimedia file data (data_multimedia_file) may be configured to be uploaded to the multimedia content server in a form that can be provided in a streaming method or a download method through a communication network. At this time, depending on the embodiment, it is preferable that multimedia file data (data_multimedia_file) is provided to be associated with the user identifier of the user who participated in the video editing and the user identifier of the user who participated in the audio editing.

한편 오디오 편집과 비디오 편집은 서로 연관되어 수행되는 것이 바람직하다. 이를 위해 멀티미디어 편집 서버(200)는 사후 비디오 편집 단말장치(300)에서 사후 편집 비디오 데이터(data_video_edited_post)의 생성 이벤트 또는 사후 편집 비디오 데이터(data_video_edited_post)의 수정 이벤트가 발생하는 경우 사후 오디오 편집 단말장치(400)에 이를 통보하고, 사후 오디오 편집 단말장치(400)에서 사후 편집 오디오 데이터(data_audio_edited_post)의 생성 이벤트 또는 사후 편집 오디오 데이터(data_audio_edited_post)의 수정 이벤트가 발생하는 경우 사후 비디오 편집 단말장치(300)에 이를 통보하는 데이터 변경 알림모듈(260)을 더 포함할 수 있다.Meanwhile, audio editing and video editing are preferably performed in association with each other. To this end, the multimedia editing server 200 may generate a post-editing video data (data_video_edited_post) event or a post-editing video data (data_video_edited_post) modification event in the post-video editing terminal device 300. ) is notified of this, and when an event of generating post-edited audio data (data_audio_edited_post) or a modification event of post-edited audio data (data_audio_edited_post) occurs in the post-audio editing terminal device 400, the post-video editing terminal device 300 is notified of this. A data change notification module 260 for notifying may be further included.

경우에 따라서는 비디오 편집이 오디오 편집에 선행되어야 하는 경우가 있다. 예컨대 부가적인 인트로 영상을 비디오 편집을 통해 추가한다면 오디오 트랙을 추가된 재생시간에 맞추어 늘려야 할 수 있고, 부가적인 영상효과를 추가하였을 때 이에 부합하는 음향효과가 들어가야 하는 경우가 있다. 이를 위해 멀티미디어 편집 서버(200)는 사후 비디오 편집 단말장치(300)에 의한 사후 편집 비디오 데이터(data_video_edited_post)의 생성 이벤트가 발생한 경우에 한해 사후 오디오 편집 단말장치(400)가 사후 편집 오디오 데이터(data_audio_edited_post)를 생성할 수 있도록 제어하는 편집작업 분배모듈(270)을 더 포함할 수 있다. 이때 비디오 편집의 수정사항에 따른 오디오 편집에 대한 요청사항이 있는 경우 사후 비디오 편집 단말장치(300)는 통신망을 통해 해당 요청사항을 사후 오디오 편집 단말장치(400)에게 전송할 수 있도록 구성하는 것이 바람직하다.In some cases, video editing must precede audio editing. For example, if an additional intro video is added through video editing, the audio track may need to be increased according to the added playback time, and when an additional video effect is added, a corresponding sound effect may need to be included. To this end, the multimedia editing server 200 generates post-editing audio data (data_audio_edited_post) only when an event of generating post-editing video data (data_video_edited_post) by the post-video editing terminal device 300 occurs. It may further include an editing work distribution module 270 that controls to generate. At this time, if there is a request for audio editing according to the corrections in video editing, it is preferable to configure the post-video editing terminal device 300 to transmit the request to the post-audio editing terminal device 400 through a communication network. .

이하에서는, 도 10을 참조하여 본 발명에 따른 분산형 멀티미디어 편집방법을 설명한다.Hereinafter, a distributed multimedia editing method according to the present invention will be described with reference to FIG. 10 .

먼저, 스튜디오 제어 서버(100)가 제 1 카메라 사전 제어 데이터(data_control_pre_camera_1)를 통해 제 1 카메라 모듈(111)을 제어하여 공연자의 퍼포먼스를 촬영한 제 1 비디오 소스 데이터(data_video_source_1)를 수신하는 단계(s11)를 수행한다. 그리고 상기 스튜디오 제어 서버(100)가 제 2 카메라 사전 제어 데이터(data_control_pre_camera_2)를 통해 제 2 카메라 모듈(121)을 제어하여 상기 공연자의 퍼포먼스를 촬영한 제 2 비디오 소스 데이터(data_video_source_2)를 수신하는 단계(s12) 및 스튜디오 제어 서버(100)가 마이크 모듈(130)을 통해 공연자의 퍼포먼스를 녹음한 녹음 오디오 소스 데이터(data_audio_source_recording)를 수신하는 단계(s13)를 수행한다.First, the studio control server 100 controls the first camera module 111 through the first camera pre-control data (data_control_pre_camera_1) to receive first video source data (data_video_source_1) in which a performance of a performer is captured (s11). ) is performed. And the studio control server 100 controlling the second camera module 121 through the second camera pre-control data (data_control_pre_camera_2) to receive second video source data (data_video_source_2) recording the performance of the performer ( s12) and the studio control server 100 receives recorded audio source data (data_audio_source_recording) in which the performer's performance is recorded through the microphone module 130 (s13).

제 1 비디오 소스 데이터(data_video_source_1), 제 2 비디오 소스 데이터(data_video_source_2) 및 녹음 오디오 소스 데이터(data_audio_source_recording)는 동일한 공연자의 퍼포먼스를 통해 생성되고, 위 단계들(s11, s12, s13)은 동시에 이루어진다. 제 1 비디오 소스 데이터(data_video_source_1), 제 2 비디오 소스 데이터(data_video_source_2) 및 녹음 오디오 소스 데이터(data_audio_source_recording)는 비디오 편집 및 오디오 편집의 대상이 되는 원본 데이터로서 높은 품질의 비디오 데이터 및 오디오 데이터로 생성되는 것이 바람직하다.The first video source data (data_video_source_1), the second video source data (data_video_source_2), and the recorded audio source data (data_audio_source_recording) are created through the performance of the same performer, and the above steps (s11, s12, and s13) are performed simultaneously. The first video source data (data_video_source_1), the second video source data (data_video_source_2), and the recorded audio source data (data_audio_source_recording) are original data that are subject to video editing and audio editing, and are preferably generated as high quality video data and audio data. desirable.

다음으로, 멀티미디어 편집 서버(200)가 제 1 비디오 소스 데이터(data_video_source_1)와 제 2 비디오 소스 데이터(data_video_source_2)를 저장하는 단계(s21)를 수행하고, 멀티미디어 편집 서버(200)가 녹음 오디오 소스 데이터(data_audio_source_recording) 및 오디오 사전 제어 데이터(data_control_pre_audio)에 의해 정의된 배경 오디오 소스 데이터(data_audio_source_BG)를 저장하는 단계(s22)를 수행한다. 두 단계(s21,s22)는 서로 동시에 이루어질 수 있다.Next, the multimedia editing server 200 performs step s21 of storing the first video source data (data_video_source_1) and the second video source data (data_video_source_2), and the multimedia editing server 200 performs recording audio source data ( A step s22 of storing background audio source data (data_audio_source_BG) defined by data_audio_source_recording) and audio pre-control data (data_control_pre_audio) is performed. The two steps s21 and s22 may be performed simultaneously with each other.

다음으로, 멀티미디어 편집 서버(200)가 제 1 비디오 소스 데이터(data_video_source_1) 및 제 2 비디오 소스 데이터(data_video_source_2)에 기반하여 제 1 비디오 소스 데이터(data_video_source_1)의 데이터 크기 및 제 2 비디오 소스 데이터(data_video_source_2)의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 실시간 편집 비디오 데이터(data_video_edited_RT)를 생성하는 단계(s31)를 수행한다. 실시간 편집 비디오 데이터(data_video_edited_RT)는 사후 오디오 편집 단말장치(400)에서 오디오 편집 시 참고하는 비디오 데이터로서 비디오 편집에 직접 사용되지 않기 때문에 예컨대 높은 압축률, 작은 크기, 낮은 해상도로 인코딩된 비디오 파일의 형태로 생성될 수 있다.Next, the multimedia editing server 200 determines the data size of the first video source data (data_video_source_1) and the second video source data (data_video_source_2) based on the first video source data (data_video_source_1) and the second video source data (data_video_source_2). A step (s31) of generating single real-time edited video data (data_video_edited_RT) having a data size smaller than the sum of the data sizes of s is performed. The real-time edited video data (data_video_edited_RT) is video data that is used as a reference for audio editing in the post-audio editing terminal device 400 and is not directly used for video editing. can be created

사전 정의된 배경화면과 촬영영상을 합성하는 실시예에 따르면, 실시간 비디오 편집 데이터를 생성하는 단계(s31)는, 멀티미디어 편집 서버(200)가 제 1 비디오 소스 데이터(data_video_source_1) 및 제 2 비디오 소스 데이터(data_video_source_2)의 공연자 객체영상과 비디오 사전 제어 데이터에 의해 정의된 제 1 배경 비디오 소스 데이터(data_video_source_BG_1)를 합성하여 실시간 편집 비디오 데이터(data_video_edited_RT)를 생성하도록 구성할 수 있다.According to an embodiment of synthesizing a predefined background screen and a captured image, in the step of generating real-time video editing data (s31), the multimedia editing server 200 converts first video source data (data_video_source_1) and second video source data It can be configured to generate real-time edited video data (data_video_edited_RT) by synthesizing the first background video source data (data_video_source_BG_1) defined by the performer object image of (data_video_source_2) and video pre-control data.

다음으로, 멀티미디어 편집 서버(200)가 녹음 오디오 소스 데이터(data_audio_source_recording) 및 배경 오디오 소스 데이터(data_audio_source_BG)에 기반하여 녹음 오디오 소스 데이터(data_audio_source_recording)의 데이터 크기 및 배경 오디오 소스 데이터(data_audio_source_BG)의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 실시간 편집 오디오 데이터(data_audio_edited_RT)를 생성하는 단계(s32)를 수행한다. 실시간 편집 오디오 데이터(data_audio_edited_RT)는 사후 비디오 편집 단말장치(300)에서 비디오 편집 시 참고하는 오디오 데이터로서 오디오 편집에 직접 사용되지 않기 때문에 예컨대 높은 압축률로 인코딩된 오디오 파일의 형태로 생성될 수 있다. 실시간 편집 비디오 데이터(data_video_edited_RT)를 생성하는 단계(s31)와 실시간 편집 오디오 데이터(data_audio_edited_RT)를 생성하는 단계(s32)는 동시에 이루어질 수 있다.Next, the multimedia editing server 200 determines the data size of the recorded audio source data (data_audio_source_recording) and the data size of the background audio source data (data_audio_source_BG) based on the recorded audio source data (data_audio_source_recording) and the background audio source data (data_audio_source_BG). A step s32 of generating single real-time edited audio data (data_audio_edited_RT) having a data size smaller than the sum is performed. Real-time edited audio data (data_audio_edited_RT) is audio data that is referred to when editing video in the post-video editing terminal device 300 and is not directly used for audio editing, so it can be generated, for example, in the form of an audio file encoded with a high compression rate. The step s31 of generating the real-time edited video data (data_video_edited_RT) and the step s32 of generating the real-time edited audio data (data_audio_edited_RT) may be performed simultaneously.

다음으로, 멀티미디어 편집 서버(200)가 사후 비디오 편집 단말장치(300)에게 제 1 비디오 소스 데이터(data_video_source_1) 및 제 2 비디오 소스 데이터(data_video_source_2)에 대한 접근권한을 선택적으로 부여하고, 사후 오디오 편집 단말장치(400)에게 녹음 오디오 소스 데이터(data_audio_source_recording) 및 배경 오디오 소스 데이터(data_audio_source_BG)에 대한 접근권한을 선택적으로 부여하는 단계(s40)를 수행한다. 이러한 선택적 접근권한 부여를 통해 비디오 편집 시 사후 비디오 편집 단말장치(300)에 의한 소스 오디오 데이터에 대한 오편집을 방지하고 오디오 편집 시 사후 오디오 편집 단말장치(400)에 의한 소스 비디오 데이터에 대한 오편집을 방지할 수 있다.Next, the multimedia editing server 200 selectively grants access to the first video source data (data_video_source_1) and the second video source data (data_video_source_2) to the post-video editing terminal device 300, and the post-audio editing terminal A step s40 of selectively granting access to the recorded audio source data (data_audio_source_recording) and the background audio source data (data_audio_source_BG) to the device 400 is performed. Through this selective access right, misediting of the source audio data by the post video editing terminal device 300 during video editing is prevented and misediting of the source video data by the post audio editing terminal device 400 during audio editing. can prevent

다음으로, 멀티미디어 편집 서버(200)가 사후 비디오 편집 단말장치(300)에게 실시간 편집 오디오 데이터(data_audio_edited_RT)를 선택적으로 전송하고, 사후 오디오 편집 단말장치(400)에게 실시간 편집 비디오 데이터(data_video_edited_RT)를 선택적으로 전송하는 단계(s50)를 수행한다. 이러한 구성을 통해 사후 비디오 편집 단말장치(300)가 과도한 크기의 오디오 소스 데이터를 수신하거나 사후 오디오 편집 단말장치(400)가 과도한 크기의 비디오 소스 데이터를 수신하는 것을 방지할 수 있고, 각 편집 단말장치에서의 편집 시 불필요한 데이터로 인해 발생할 수 있는 편집작업의 연산처리 부담을 저감할 수 있다. 한편 사후 비디오 편집 단말장치(300)에 의해 사후 편집 비디오 데이터(data_video_edited_post)가 생성된 경우 멀티미디어 편집 서버(200)는 실시간 편집 비디오 데이터(data_video_edited_RT)가 아닌 사후 편집 비디오 데이터(data_video_edited_post)를 사후 오디오 편집 단말장치(400)에게 제공하고, 사후 오디오 편집 단말장치(400)에 의해 사후 편집 오디오 데이터(data_audio_edited_post)가 생성된 경우 멀티미디어 편집 서버(200)는 실시간 편집 오디오 데이터(data_audio_edited_RT)가 아닌 사후 편집 오디오 데이터(data_audio_edited_post)를 사후 비디오 편집 단말장치(300)에게 제공하도록 구성할 수 있다.Next, the multimedia editing server 200 selectively transmits real-time edited audio data (data_audio_edited_RT) to the post-video editing terminal device 300, and selectively transmits real-time edited video data (data_video_edited_RT) to the post-audio editing terminal device 400. The step (s50) of transmitting to is performed. Through this configuration, it is possible to prevent the post-video editing terminal device 300 from receiving audio source data of an excessive size or the post-audio editing terminal device 400 from receiving excessive-size video source data, and each editing terminal device It is possible to reduce the computational processing burden of editing work that may occur due to unnecessary data during editing in . Meanwhile, when the post-editing video data (data_video_edited_post) is generated by the post-video editing terminal device 300, the multimedia editing server 200 transmits the post-editing video data (data_video_edited_post) instead of the real-time edited video data (data_video_edited_RT) to the post-audio editing terminal. Provided to the device 400, and when post-editing audio data (data_audio_edited_post) is generated by the post-audio editing terminal device 400, the multimedia editing server 200 provides post-edited audio data (not real-time edited audio data (data_audio_edited_RT)) data_audio_edited_post) may be provided to the post-video editing terminal device 300.

다음으로, 사후 비디오 편집 단말장치(300)가 통신망을 통해 멀티미디어 편집 서버(200)에 접속하고, 비디오 편집을 통해 제 1 비디오 소스 데이터(data_video_source_1) 및 제 2 비디오 소스 데이터(data_video_source_2)를 기반으로 제 1 비디오 소스 데이터(data_video_source_1)의 데이터 크기 및 제 2 비디오 소스 데이터(data_video_source_2)의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 사후 편집 비디오 데이터(data_video_edited_post)를 생성하여 멀티미디어 편집 서버(200)에게 전송하는 단계(s61)를 수행한다. 이때 사후 비디오 편집 단말장치(300)는 실시간 편집 오디오 데이터(data_audio_edited_RT)를 참조하여 사후 비디오 편집작업을 수행하도록 구성한다. 예컨대 사후 비디오 편집 단말장치(300)의 편집 애플리케이션은 특정 재생시간의 비디오를 편집하는 경우 스피커를 통해 해당 재생시간의 실시간 편집 오디오 데이터(data_audio_edited_RT)를 재생하는 방법으로 비디오 편집작업에 오디오 데이터를 참고할 수 있다.Next, the post-video editing terminal device 300 accesses the multimedia editing server 200 through a communication network, and through video editing, based on the first video source data (data_video_source_1) and the second video source data (data_video_source_2), A single post-edited video data (data_video_edited_post) having a data size smaller than the sum of the data size of the first video source data (data_video_source_1) and the data size of the second video source data (data_video_source_2) is generated and transmitted to the multimedia editing server 200. Step (s61) is performed. At this time, the post-video editing terminal device 300 is configured to perform post-video editing by referring to the real-time edited audio data (data_audio_edited_RT). For example, the editing application of the post-video editing terminal device 300 may refer to audio data for video editing by reproducing real-time edited audio data (data_audio_edited_RT) of the corresponding playback time through a speaker when editing a video of a specific playback time. have.

사후 편집 비디오 데이터(data_video_edited_post)는 사후 오디오 편집 단말장치(400)에서 오디오 편집 시 참고하는 비디오 데이터로서 비디오 편집에 직접 사용되지 않기 때문에 예컨대 높은 압축률로 인코딩된 비디오 파일의 형태로 생성될 수 있다.The post-edited video data (data_video_edited_post) is video data that is used as a reference for audio editing in the post-audio editing terminal device 400 and is not directly used for video editing.

사후 비디오 편집 단말장치(300)가 사전제작(pre-production) 공정에 참여하는 실시예에 따르면, 제 1 비디오 소스 데이터(data_video_source_1)를 수신하는 단계(s11) 이전에, 사후 비디오 편집 단말장치(300)가 제 1 카메라 사전 제어 데이터(data_control_pre_camera_1)를 생성하는 단계를 더 수행하도록 구성할 수 있다.According to an embodiment in which the post-video editing terminal device 300 participates in a pre-production process, before the step s11 of receiving the first video source data (data_video_source_1), the post-video editing terminal device 300 ) may be configured to further perform the step of generating the first camera pre-control data (data_control_pre_camera_1).

사후 비디오 편집 단말장치(300)가 사후 비디오 편집과정에서 배경영상을 추가하거나 변경하는 실시예에 따르면, 사후 편집 비디오 데이터(data_video_edited_post)를 생성하는 단계(s61)는, 사후 비디오 편집 단말장치(300)가 제 1 비디오 소스 데이터(data_video_source_1) 및 제 2 비디오 소스 데이터(data_video_source_2)의 공연자 객체영상과 제 2 배경 비디오 소스 데이터(data_video_source_BG_2)를 합성하여 사후 편집 비디오 데이터(data_video_edited_post)를 생성하도록 구성할 수 있다.According to an embodiment in which the post-video editing terminal device 300 adds or changes a background image in a post-video editing process, the step of generating post-edited video data (data_video_edited_post) (s61) includes the post-video editing terminal device 300 may be configured to generate post-edited video data (data_video_edited_post) by synthesizing the performer object image of the first video source data (data_video_source_1) and the second video source data (data_video_source_2) and the second background video source data (data_video_source_BG_2).

한편, 사후 비디오 편집 단말장치(300)의 비디오 편집 시 연산부담을 저감하기 위해 프록시 미디어를 사용하는 실시예에 따르면, 사후 편집 비디오 데이터(data_video_edited_post)를 생성하는 단계(s61)는, 사후 비디오 편집 단말장치(300)가 제 1 비디오 소스 데이터(data_video_source_1)의 프록시 미디어 및 제 2 비디오 소스 데이터(data_video_source_2)의 프록시 미디어를 이용하여 사후 편집 비디오 데이터(data_video_edited_post)를 생성하도록 구성할 수 있다.Meanwhile, according to an embodiment in which proxy media is used to reduce the computational load of the post-video editing terminal device 300 during video editing, the step of generating post-edited video data (data_video_edited_post) (s61) is a post-video editing terminal. The device 300 may be configured to generate post-edited video data (data_video_edited_post) by using proxy media of the first video source data (data_video_source_1) and proxy media of the second video source data (data_video_source_2).

다음으로, 사후 오디오 편집 단말장치(400)가 통신망을 통해 멀티미디어 편집 서버(200)에 접속하고, 오디오 편집을 통해 녹음 오디오 소스 데이터(data_audio_source_recording) 및 배경 오디오 소스 데이터(data_audio_source_BG)를 기반으로 녹음 오디오 소스 데이터(data_audio_source_recording)의 데이터 크기 및 배경 오디오 소스 데이터(data_audio_source_BG)의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 사후 편집 오디오 데이터(data_audio_edited_post)를 생성하여 멀티미디어 편집 서버(200)에게 전송하는 단계(S62)를 수행한다. 이때 사후 오디오 편집 단말장치(400)는 실시간 편집 비디오 데이터(data_video_edited_RT)를 참조하여 사후 오디오 편집작업을 수행하도록 구성한다. 예컨대 사후 오디오 편집 단말장치(400)의 편집 애플리케이션은 특정 재생시간의 오디오를 편집하는 경우 비디오 플레이어를 통해 해당 재생시간의 실시간 편집 비디오 데이터(data_video_edited_RT)를 재생하는 방법으로 오디오 편집작업에 비디오 데이터를 참고할 수 있다.Next, the post-audio editing terminal device 400 accesses the multimedia editing server 200 through a communication network, and records the audio source based on the recorded audio source data (data_audio_source_recording) and the background audio source data (data_audio_source_BG) through audio editing. Generating single post-edited audio data (data_audio_edited_post) having a data size smaller than the sum of the data size of the data (data_audio_source_recording) and the data size of the background audio source data (data_audio_source_BG) and transmitting the data to the multimedia editing server 200 (S62). ) is performed. At this time, the post-audio editing terminal device 400 is configured to perform post-audio editing by referring to the real-time edited video data (data_video_edited_RT). For example, when editing audio of a specific playback time, the editing application of the post-audio editing terminal device 400 reproduces real-time edited video data (data_video_edited_RT) of the corresponding playback time through a video player to refer to the video data for audio editing. can

사후 편집 오디오 데이터(data_audio_edited_post)는 사후 비디오 편집 단말장치(300)에서 비디오 편집 시 참고하는 오디오 데이터로서 오디오 편집에 직접 사용되지 않기 때문에 예컨대 높은 압축률로 인코딩된 오디오 파일의 형태로 생성될 수 있다.Post-edited audio data (data_audio_edited_post) is audio data that is referred to when editing video in the post-video editing terminal device 300 and is not directly used for audio editing, so it can be generated in the form of an audio file encoded with a high compression rate, for example.

사후 오디오 편집 단말장치(400)가 사전제작(pre-production) 공정에 참여하는 실시예에 따르면, 녹음 오디오 소스 데이터(data_audio_source_recording)를 수신하는 단계(S13) 이전에, 사후 오디오 편집 단말장치(400)가 오디오 사전 제어 데이터(data_control_pre_audio)를 생성하는 단계를 더 수행하도록 구성할 수 있다.According to an embodiment in which the post-audio editing terminal device 400 participates in a pre-production process, before the step of receiving the recorded audio source data (data_audio_source_recording) (S13), the post-audio editing terminal device 400 may be configured to further perform a step of generating audio pre-control data (data_control_pre_audio).

마지막으로, 멀티미디어 편집 서버(200)가 사후 편집 비디오 데이터(data_video_edited_post)에 적용된 비디오 편집 및 사후 편집 오디오 데이터(data_audio_edited_post)에 적용된 오디오 편집에 따라 단일의 멀티미디어 파일 데이터(data_multimedia_file)를 생성하는 단계(S70)를 수행한다. 멀티미디어 파일 데이터(data_multimedia_file)는 최종 결과물로서 높은 품질을 갖도록 비디오 소스 데이터 및 오디오 소스 데이터를 통해 생성되도록 구성한다.Finally, the multimedia editing server 200 generates a single multimedia file data (data_multimedia_file) according to the video editing applied to the post-editing video data (data_video_edited_post) and the audio editing applied to the post-editing audio data (data_audio_edited_post) (S70) do The multimedia file data (data_multimedia_file) is configured to be generated through video source data and audio source data so as to have high quality as a final result.

한편, 사후 비디오 편집 이벤트 발생시 또는 사후 오디오 편집 이벤트 발생시 다른 단말장치에게 이를 통보하는 실시예에 따르면, 분산형 멀티미디어 편집방법은, 멀티미디어 편집 서버(200)가 사후 비디오 편집 단말장치(300)에서 사후 편집 비디오 데이터(data_video_edited_post)의 생성 이벤트 또는 사후 편집 비디오 데이터(data_video_edited_post)의 수정 이벤트가 발생하는 경우 사후 오디오 편집 단말장치(400)에 이를 통보하고, 사후 오디오 편집 단말장치(400)에서 사후 편집 오디오 데이터(data_audio_edited_post)의 생성 이벤트 또는 사후 편집 오디오 데이터(data_audio_edited_post)의 수정 이벤트가 발생하는 경우 사후 비디오 편집 단말장치(300)에 이를 통보하는 단계를 더 포함하도록 구성할 수 있다.Meanwhile, according to an embodiment of notifying other terminal devices when a post video editing event or a post audio editing event occurs, in the distributed multimedia editing method, the multimedia editing server 200 performs post editing in the post video editing terminal device 300. When a creation event of video data (data_video_edited_post) or a modification event of post-edited video data (data_video_edited_post) occurs, the post-editing audio editing terminal device 400 is notified of this, and the post-editing audio editing terminal device 400 post-editing audio data ( When a creation event of data_audio_edited_post) or a modification event of post-edited audio data (data_audio_edited_post) occurs, a step of notifying the post-video editing terminal device 300 may be further included.

사후 비디오 편집작업의 수행 후 사후 오디오 편집작업을 수행하도록 하는 실시예에 따르면, 사후 편집 오디오 데이터(data_audio_edited_post)를 생성하는 단계(S62)는, 사후 비디오 편집 단말장치(300)에 의한 사후 편집 비디오 데이터(data_video_edited_post)의 생성 이벤트가 발생한 경우에 한해 사후 오디오 편집 단말장치(400)가 사후 편집 오디오 데이터(data_audio_edited_post)를 생성하도록 구성할 수 있다.According to an embodiment in which a post-video editing job is performed and then a post-editing audio editing job is performed, the step of generating post-edited audio data (data_audio_edited_post) (S62) is the post-edited video data by the post-video editing terminal device 300. Only when a generation event of (data_video_edited_post) occurs, the post audio editing terminal device 400 can be configured to generate post edited audio data (data_audio_edited_post).

본 명세서에서의 발명의 상세한 설명은 바람직한 실시예를 설명하는 것으로, 본 발명은 이러한 실시예에 한정되지 않는다. 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 이상의 실시예에 대한 다양한 변경과 수정이 가능하고, 본 발명의 기술적 사상은 이러한 다양한 변경과 수정을 모두 포함한다.The detailed description of the invention in this specification describes preferred embodiments, and the present invention is not limited to these embodiments. Those skilled in the art to which the present invention pertains can make various changes and modifications to the above embodiments without departing from the technical spirit of the present invention, and the technical spirit of the present invention is all of these various changes and modifications. include

스튜디오 제어서버 : 100 제 1 카메라 제어모듈 : 110
제 1 카메라 모듈 : 111 제 2 카메라 제어모듈 : 120
제 2 카메라 모듈 : 121 마이크 모듈 : 130
멀티미디어 편집 서버 : 200 비디오 소스 저장모듈 : 210
오디오 소스 저장모듈 : 211 실시간 비디오 편집모듈 : 220
실시간 오디오 편집모듈 : 221 멀티미디어 파일 생성모듈 : 250
선택적 접근권한 관리모듈 : 230 선택적 편집 데이터 전송모듈 : 240
사후 비디오 편집 단말장치 : 300 사후 오디오 편집 단말장치 : 400
Studio control server: 100 1st camera control module: 110
1st camera module: 111 2nd camera control module: 120
Second camera module: 121 Microphone module: 130
Multimedia editing server: 200 Video source storage module: 210
Audio source storage module: 211 Real-time video editing module: 220
Real-time audio editing module: 221 Multimedia file creation module: 250
Optional access authority management module: 230 Optional editing data transmission module: 240
Post video editing terminals: 300 Post audio editing terminals: 400

Claims (16)

제 1 카메라 사전 제어 데이터를 통해 제 1 카메라 모듈을 제어하여 공연자의 퍼포먼스를 촬영한 제 1 비디오 소스 데이터를 수신하는 제 1 카메라 제어모듈; 제 2 카메라 사전 제어 데이터를 통해 제 2 카메라 모듈을 제어하여 상기 공연자의 상기 퍼포먼스를 촬영한 제 2 비디오 소스 데이터를 수신하는 제 2 카메라 제어모듈; 및 상기 공연자의 상기 퍼포먼스를 녹음한 녹음 오디오 소스 데이터를 생성하는 마이크 모듈;을 포함하여 구성되는 스튜디오 제어 서버;
상기 제 1 비디오 소스 데이터와 상기 제 2 비디오 소스 데이터를 저장하는 비디오 소스 저장모듈; 상기 녹음 오디오 소스 데이터 및 오디오 사전 제어 데이터에 의해 정의된 배경 오디오 소스 데이터를 저장하는 오디오 소스 저장모듈; 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터에 기반하여 상기 제 1 비디오 소스 데이터의 데이터 크기 및 상기 제 2 비디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 실시간 편집 비디오 데이터를 생성하는 실시간 비디오 편집모듈; 및 상기 녹음 오디오 소스 데이터 및 상기 배경 오디오 소스 데이터에 기반하여 상기 녹음 오디오 소스 데이터의 데이터 크기 및 상기 배경 오디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 실시간 편집 오디오 데이터를 생성하는 실시간 오디오 편집모듈;을 포함하여 구성되는 멀티미디어 편집 서버;
통신망을 통해 상기 멀티미디어 편집 서버에 접속하고, 비디오 편집을 통해 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터를 기반으로 상기 제 1 비디오 소스 데이터의 데이터 크기 및 상기 제 2 비디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 사후 편집 비디오 데이터를 생성하여 상기 멀티미디어 편집 서버에게 전송하는 사후 비디오 편집 단말장치; 및
통신망을 통해 상기 멀티미디어 편집 서버에 접속하고, 오디오 편집을 통해 상기 녹음 오디오 소스 데이터 및 상기 배경 오디오 소스 데이터를 기반으로 상기 녹음 오디오 소스 데이터의 데이터 크기 및 상기 배경 오디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 사후 편집 오디오 데이터를 생성하여 상기 멀티미디어 편집 서버에게 전송하는 사후 오디오 편집 단말장치;를 포함하여 구성되고,
상기 멀티미디어 편집 서버는, 상기 사후 비디오 편집 단말장치에게 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터에 대한 접근권한을 선택적으로 부여하고, 상기 사후 오디오 편집 단말장치에게 상기 녹음 오디오 소스 데이터 및 상기 배경 오디오 소스 데이터에 대한 접근권한을 선택적으로 부여하는 선택적 접근권한 관리모듈;
상기 사후 오디오 편집 단말장치가 상기 사후 편집 오디오 데이터를 생성하기 이전에 상기 사후 비디오 편집 단말장치가 상기 사후 비디오 편집을 시작하는 경우, 상기 사후 비디오 편집 단말장치에게 상기 실시간 편집 오디오 데이터를 제공하고, 상기 사후 오디오 편집 단말장치가 상기 사후 편집 오디오 데이터를 생성한 이후에 상기 사후 비디오 편집 단말장치가 상기 사후 비디오 편집을 시작하는 경우, 상기 사후 비디오 편집 단말장치에게 상기 사후 편집 오디오 데이터를 제공하고, 상기 사후 비디오 편집 단말장치가 상기 사후 편집 비디오 데이터를 생성하기 이전에 상기 사후 오디오 편집 단말장치가 상기 사후 오디오 편집을 시작하는 경우, 상기 사후 오디오 편집 단말장치에게 상기 실시간 편집 비디오 데이터를 제공하고, 상기 사후 비디오 편집 단말장치가 상기 사후 편집 비디오 데이터를 생성한 이후에 상기 사후 오디오 편집 단말장치가 상기 사후 오디오 편집을 시작하는 경우, 상기 사후 오디오 편집 단말장치에게 상기 사후 편집 비디오 데이터를 제공하는 선택적 편집 데이터 전송모듈; 및 상기 사후 편집 비디오 데이터에 적용된 비디오 편집 및 상기 사후 편집 오디오 데이터에 적용된 오디오 편집에 따라 단일의 멀티미디어 파일 데이터를 생성하는 멀티미디어 파일 생성모듈;을 더 포함하는 것을 특징으로 하는 분산형 멀티미디어 편집 시스템.
a first camera control module that controls the first camera module through first camera pre-control data to receive first video source data of a performer's performance; a second camera control module for receiving second video source data obtained by capturing the performance of the performer by controlling the second camera module through second camera pre-control data; and a microphone module for generating recorded audio source data in which the performance of the performer is recorded; a studio control server including;
a video source storage module for storing the first video source data and the second video source data; an audio source storage module configured to store background audio source data defined by the recorded audio source data and audio pre-control data; single real-time editing video data having a data size smaller than the sum of the data size of the first video source data and the data size of the second video source data based on the first video source data and the second video source data Real-time video editing module to create; and generating single real-time edited audio data having a data size smaller than the sum of the data sizes of the recording audio source data and the data sizes of the background audio source data based on the recording audio source data and the background audio source data. Audio editing module; Multimedia editing server comprising a;
A data size of the first video source data and a data size of the second video source data based on the first video source data and the second video source data through video editing by accessing the multimedia editing server through a communication network a post-video editing terminal device generating a single post-editing video data having a data size smaller than the sum of and transmitting the post-editing video data to the multimedia editing server; and
It accesses the multimedia editing server through a communication network, and through audio editing is smaller than the sum of the data size of the recorded audio source data and the data size of the background audio source data based on the recorded audio source data and the background audio source data. A post-audio editing terminal device generating a single post-editing audio data having a data size and transmitting the post-editing audio data to the multimedia editing server;
The multimedia editing server selectively grants access rights to the first video source data and the second video source data to the post-video editing terminal device, and to the post-audio editing terminal device to access the recorded audio source data and the An optional access right management module that selectively grants access to background audio source data;
When the post video editing terminal device starts the post video editing before the post audio editing terminal device generates the post editing audio data, the real time editing audio data is provided to the post video editing terminal device; When the post video editing terminal device starts editing the post video after the post audio editing terminal device generates the post editing audio data, the post editing audio data is provided to the post video editing terminal device; if the post audio editing terminal device starts the post audio editing before the video editing terminal device generates the post edited video data, the real time edited video data is provided to the post audio editing terminal device; An optional editing data transmission module for providing the post-editing video data to the post-editing video data when the post-audio editing terminal device starts the post-editing audio editing after the editing terminal device generates the post-editing video data. ; and a multimedia file generation module for generating single multimedia file data according to video editing applied to the post-edited video data and audio editing applied to the post-edited audio data.
제 1 항에 있어서, 상기 사후 비디오 편집 단말장치는,
상기 제 1 카메라 사전 제어 데이터를 더 생성하는 것을 특징으로 하는 분산형 멀티미디어 편집 시스템.
The method of claim 1, wherein the post-video editing terminal device,
Distributed multimedia editing system, characterized in that further generating the first camera pre-control data.
제 1 항에 있어서, 상기 사후 오디오 편집 단말장치는,
상기 오디오 사전 제어 데이터를 더 생성하는 것을 특징으로 하는 분산형 멀티미디어 편집 시스템.
The method of claim 1, wherein the post-audio editing terminal device,
Distributed multimedia editing system, characterized in that further generating the audio pre-control data.
제 1 항에 있어서, 상기 실시간 비디오 편집 모듈은,
상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터의 상기 공연자의 객체영상과 비디오 사전 제어 데이터에 의해 정의된 제 1 배경 비디오 소스 데이터를 합성하여 상기 실시간 비디오 편집 데이터를 생성하는 것을 특징으로 하는 분산형 멀티미디어 편집 시스템.
The method of claim 1, wherein the real-time video editing module,
Dispersion characterized in that the real-time video editing data is generated by synthesizing first background video source data defined by the object image of the performer and video pre-control data of the first video source data and the second video source data. type multimedia editing system.
제 4 항에 있어서, 상기 사후 비디오 편집 단말장치는,
상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터의 상기 공연자의 객체영상과 제 2 배경 비디오 소스 데이터를 합성하여 상기 사후 편집 비디오 데이터를 생성하는 것을 특징으로 하는 분산형 멀티미디어 편집 시스템.
The method of claim 4, wherein the post-video editing terminal device,
Distributed multimedia editing system, characterized in that the post-editing video data is generated by synthesizing the object image of the performer and the second background video source data of the first video source data and the second video source data.
제 1 항에 있어서, 상기 멀티미디어 편집 서버는,
상기 사후 비디오 편집 단말장치에서 상기 사후 편집 비디오 데이터의 생성 이벤트 또는 사후 편집 비디오 데이터의 수정 이벤트가 발생하는 경우 상기 사후 오디오 편집 단말장치에 이를 통보하고, 상기 사후 오디오 편집 단말장치에서 상기 사후 편집 오디오 데이터의 생성 이벤트 또는 사후 편집 오디오 데이터의 수정 이벤트가 발생하는 경우 상기 사후 비디오 편집 단말장치에 이를 통보하는 데이터 변경 알림모듈;을 더 포함하는 것을 특징으로 하는 분산형 멀티미디어 편집 시스템.
The method of claim 1, wherein the multimedia editing server,
When an event of generating the post-edited video data or a modification event of the post-edited video data occurs in the post-video editing terminal device, the post-editing audio editing terminal device notifies the post-editing audio data generation event or the post-editing audio data modification event. Distributed multimedia editing system, characterized in that it further comprises; a data change notification module for notifying the post-editing video editing terminal device when a creation event or post-editing audio data modification event occurs.
제 1 항에 있어서, 상기 멀티미디어 편집 서버는,
상기 사후 비디오 편집 단말장치에 의한 상기 사후 편집 비디오 데이터의 생성 이벤트가 발생한 경우에 한해 상기 사후 오디오 편집 단말장치가 상기 사후 편집 오디오 데이터를 생성할 수 있도록 제어하는 편집작업 분배모듈;을 더 포함하는 것을 특징으로 하는 분산형 멀티미디어 편집 시스템.
The method of claim 1, wherein the multimedia editing server,
and an editing task distribution module for controlling the post-video editing terminal device to generate the post-editing audio data only when an event of generating the post-editing video data by the post-video editing terminal device occurs. Distributed multimedia editing system featuring.
제 1 항에 있어서, 상기 사후 비디오 편집 단말장치는,
상기 제 1 비디오 소스 데이터의 프록시 미디어 및 상기 제 2 비디오 소스 데이터의 프록시 미디어를 이용하여 상기 사후 편집 비디오 데이터를 생성하는 것을 특징으로 하는 분산형 멀티미디어 편집 시스템.
The method of claim 1, wherein the post-video editing terminal device,
and generating the post-edited video data using proxy media of the first video source data and proxy media of the second video source data.
스튜디오 제어 서버가, 제 1 카메라 사전 제어 데이터를 통해 제 1 카메라 모듈을 제어하여 공연자의 퍼포먼스를 촬영한 제 1 비디오 소스 데이터를 수신하는 단계;
상기 스튜디오 제어 서버가, 제 2 카메라 사전 제어 데이터를 통해 제 2 카메라 모듈을 제어하여 상기 공연자의 상기 퍼포먼스를 촬영한 제 2 비디오 소스 데이터를 수신하는 단계;
상기 스튜디오 제어 서버가, 마이크 모듈을 통해 상기 공연자의 상기 퍼포먼스를 녹음한 녹음 오디오 소스 데이터를 수신하는 단계;
멀티미디어 편집 서버가, 상기 제 1 비디오 소스 데이터와 상기 제 2 비디오 소스 데이터를 저장하는 단계;
상기 멀티미디어 편집 서버가, 상기 녹음 오디오 소스 데이터 및 오디오 사전 제어 데이터에 의해 정의된 배경 오디오 소스 데이터를 저장하는 단계;
상기 멀티미디어 편집 서버가, 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터에 기반하여 상기 제 1 비디오 소스 데이터의 데이터 크기 및 상기 제 2 비디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 실시간 편집 비디오 데이터를 생성하는 단계;
상기 멀티미디어 편집 서버가, 상기 녹음 오디오 소스 데이터 및 상기 배경 오디오 소스 데이터에 기반하여 상기 녹음 오디오 소스 데이터의 데이터 크기 및 상기 배경 오디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 실시간 편집 오디오 데이터를 생성하는 단계;
상기 멀티미디어 편집 서버가, 사후 비디오 편집 단말장치에게 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터에 대한 접근권한을 선택적으로 부여하고, 사후 오디오 편집 단말장치에게 상기 녹음 오디오 소스 데이터 및 상기 배경 오디오 소스 데이터에 대한 접근권한을 선택적으로 부여하는 단계;
상기 멀티미디어 편집 서버가, 상기 사후 비디오 편집 단말장치에게 상기 실시간 편집 오디오 데이터를 선택적으로 전송하고, 상기 사후 오디오 편집 단말장치에게 상기 실시간 편집 비디오 데이터를 선택적으로 전송하는 단계;
상기 사후 비디오 편집 단말장치가, 통신망을 통해 상기 멀티미디어 편집 서버에 접속하고, 비디오 편집을 통해 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터를 기반으로 상기 제 1 비디오 소스 데이터의 데이터 크기 및 상기 제 2 비디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 사후 편집 비디오 데이터를 생성하여 상기 멀티미디어 편집 서버에게 전송하는 단계;
상기 사후 오디오 편집 단말장치가, 통신망을 통해 상기 멀티미디어 편집 서버에 접속하고, 오디오 편집을 통해 상기 녹음 오디오 소스 데이터 및 상기 배경 오디오 소스 데이터를 기반으로 상기 녹음 오디오 소스 데이터의 데이터 크기 및 상기 배경 오디오 소스 데이터의 데이터 크기의 합 보다 작은 데이터 크기를 갖는 단일의 사후 편집 오디오 데이터를 생성하여 상기 멀티미디어 편집 서버에게 전송하는 단계; 및
상기 멀티미디어 편집 서버가, 상기 사후 편집 비디오 데이터에 적용된 비디오 편집 및 상기 사후 편집 오디오 데이터에 적용된 오디오 편집에 따라 단일의 멀티미디어 파일 데이터를 생성하는 단계;를 포함하는 것을 특징으로 하는 분산형 멀티미디어 편집방법.
receiving, by a studio control server, first video source data of a performer's performance by controlling a first camera module through first camera pre-control data;
receiving, by the studio control server, second video source data obtained by capturing the performance of the performer by controlling a second camera module through second camera pre-control data;
receiving, by the studio control server, recorded audio source data obtained by recording the performance of the performer through a microphone module;
storing, by a multimedia editing server, the first video source data and the second video source data;
storing, by the multimedia editing server, background audio source data defined by the recorded audio source data and audio pre-control data;
The multimedia editing server, based on the first video source data and the second video source data, a single data size having a data size smaller than the sum of the data size of the first video source data and the data size of the second video source data generating real-time editing video data of;
wherein the multimedia editing server has a data size smaller than the sum of the data size of the recorded audio source data and the data size of the background audio source data, based on the recorded audio source data and the background audio source data; generating data;
The multimedia editing server selectively grants access rights to the first video source data and the second video source data to a post-video editing terminal device, and provides a post-audio editing terminal device with the recorded audio source data and the background audio selectively granting access to source data;
selectively transmitting, by the multimedia editing server, the real-time edited audio data to the post-video editing terminal device, and selectively transmitting the real-time edited video data to the post-audio editing terminal device;
The post-video editing terminal device accesses the multimedia editing server through a communication network, and determines the data size of the first video source data and the data size of the first video source data based on the first video source data and the second video source data through video editing. generating single post-editing video data having a data size smaller than the sum of data sizes of second video source data and transmitting the data to the multimedia editing server;
The post-audio editing terminal device accesses the multimedia editing server through a communication network, and the data size of the recorded audio source data and the background audio source data are based on the recorded audio source data and the background audio source data through audio editing. generating and transmitting single post-editing audio data having a data size smaller than the sum of the data sizes of data to the multimedia editing server; and
and generating, by the multimedia editing server, single multimedia file data according to video editing applied to the post-edited video data and audio editing applied to the post-edited audio data.
제 9 항에 있어서, 상기 분산형 멀티미디어 편집방법은,
상기 제 1 비디오 소스 데이터를 수신하는 단계 이전에, 상기 사후 비디오 편집 단말장치가 상기 제 1 카메라 사전 제어 데이터를 생성하는 단계;를 더 포함하는 것을 특징으로 하는 분산형 멀티미디어 편집방법.
The method of claim 9, wherein the distributed multimedia editing method comprises:
Distributed multimedia editing method, characterized in that it further comprises a step of generating the first camera pre-control data by the post-video editing terminal device before the step of receiving the first video source data.
제 9 항에 있어서, 상기 분산형 멀티미디어 편집방법은,
상기 녹음 오디오 소스 데이터를 수신하는 단계 이전에, 상기 사후 오디오 편집 단말장치가 상기 오디오 사전 제어 데이터를 생성하는 단계;를 더 포함하는 것을 특징으로 하는 분산형 멀티미디어 편집방법.
The method of claim 9, wherein the distributed multimedia editing method comprises:
and generating the audio pre-control data by the post-audio editing terminal device prior to the receiving of the recorded audio source data.
제 9 항에 있어서, 상기 실시간 비디오 편집 데이터를 생성하는 단계는,
상기 멀티미디어 편집 서버가, 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터의 상기 공연자의 객체영상과 비디오 사전 제어 데이터에 의해 정의된 제 1 배경 비디오 소스 데이터를 합성하여 상기 실시간 비디오 편집 데이터를 생성하는 것을 특징으로 하는 분산형 멀티미디어 편집방법.
10. The method of claim 9, wherein generating the real-time video editing data comprises:
The multimedia editing server generates the real-time video editing data by synthesizing the first background video source data defined by the object image of the performer and the video pre-control data of the first video source data and the second video source data. Distributed multimedia editing method, characterized in that.
제 12 항에 있어서, 상기 사후 편집 비디오 데이터를 생성하는 단계는,
상기 사후 비디오 편집 단말장치가, 상기 제 1 비디오 소스 데이터 및 상기 제 2 비디오 소스 데이터의 상기 공연자의 객체영상과 제 2 배경 비디오 소스 데이터를 합성하여 상기 사후 편집 비디오 데이터를 생성하는 것을 특징으로 하는 분산형 멀티미디어 편집방법.
13. The method of claim 12, wherein generating the post-edited video data comprises:
wherein the post-video editing terminal apparatus generates the post-editing video data by synthesizing the object image of the performer and the second background video source data of the first video source data and the second video source data. Type multimedia editing method.
제 9 항에 있어서, 상기 분산형 멀티미디어 편집방법은,
상기 멀티미디어 편집 서버가, 상기 사후 비디오 편집 단말장치에서 상기 사후 편집 비디오 데이터의 생성 이벤트 또는 사후 편집 비디오 데이터의 수정 이벤트가 발생하는 경우 상기 사후 오디오 편집 단말장치에 이를 통보하고, 상기 사후 오디오 편집 단말장치에서 상기 사후 편집 오디오 데이터의 생성 이벤트 또는 사후 편집 오디오 데이터의 수정 이벤트가 발생하는 경우 상기 사후 비디오 편집 단말장치에 이를 통보하는 단계;를 더 포함하는 것을 특징으로 하는 분산형 멀티미디어 편집방법.
The method of claim 9, wherein the distributed multimedia editing method comprises:
The multimedia editing server notifies the post-editing audio editing terminal device of the post-editing video data generation event or the post-editing video data modification event when the post-editing video data generation event occurs in the post-editing video editing terminal device. Distributed multimedia editing method further comprising a step of notifying the post-editing audio data generation event or the post-editing audio data modification event in the post-editing audio data.
제 9 항에 있어서, 상기 사후 편집 오디오 데이터를 생성하는 단계는,
상기 사후 비디오 편집 단말장치에 의한 상기 사후 편집 비디오 데이터의 생성 이벤트가 발생한 경우에 한해 상기 사후 오디오 편집 단말장치가 상기 사후 편집 오디오 데이터를 생성하는 것을 특징으로 하는 분산형 멀티미디어 편집방법.
10. The method of claim 9, wherein generating the post-edited audio data comprises:
The distributed multimedia editing method, characterized in that the post-editing audio data is generated by the post-editing audio data only when an event of generating the post-editing video data by the post-video editing terminal device occurs.
제 9 항에 있어서, 상기 사후 편집 비디오 데이터를 생성하는 단계는,
상기 사후 비디오 편집 단말장치가, 상기 제 1 비디오 소스 데이터의 프록시 미디어 및 상기 제 2 비디오 소스 데이터의 프록시 미디어를 이용하여 상기 사후 편집 비디오 데이터를 생성하는 것을 특징으로 하는 분산형 멀티미디어 편집방법.
10. The method of claim 9, wherein generating the post-edited video data comprises:
The distributed multimedia editing method according to claim 1 , wherein the post-editing video editing terminal device generates the post-editing video data by using proxy media of the first video source data and proxy media of the second video source data.
KR1020180091228A 2016-10-12 2018-08-06 Distributed Multimedia editing System and Method KR102472801B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180091228A KR102472801B1 (en) 2016-10-12 2018-08-06 Distributed Multimedia editing System and Method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160132123A KR20170044590A (en) 2015-10-15 2016-10-12 Distributed Multimedia editing System and Method
KR1020180091228A KR102472801B1 (en) 2016-10-12 2018-08-06 Distributed Multimedia editing System and Method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020160132123A Division KR20170044590A (en) 2015-10-15 2016-10-12 Distributed Multimedia editing System and Method

Publications (2)

Publication Number Publication Date
KR20180090977A KR20180090977A (en) 2018-08-14
KR102472801B1 true KR102472801B1 (en) 2022-12-01

Family

ID=84440721

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180091228A KR102472801B1 (en) 2016-10-12 2018-08-06 Distributed Multimedia editing System and Method

Country Status (1)

Country Link
KR (1) KR102472801B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102349180B1 (en) * 2020-01-06 2022-01-07 이상훈 Method for creating multidedia content through reconstruction of sound and content managing server

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060129933A1 (en) 2000-12-19 2006-06-15 Sparkpoint Software, Inc. System and method for multimedia authoring and playback
JP2010176383A (en) * 2009-01-29 2010-08-12 Nippon Hoso Kyokai <Nhk> Content manufacturing system and content manufacturing program
JP2011507100A (en) * 2007-12-14 2011-03-03 マイクロソフト コーポレーション Joint authoring mode
US20140082091A1 (en) 2012-09-19 2014-03-20 Box, Inc. Cloud-based platform enabled with media content indexed for text-based searches and/or metadata extraction

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5111422B2 (en) 1973-10-27 1976-04-10
US4283766A (en) 1979-09-24 1981-08-11 Walt Disney Productions Automatic camera control for creating special effects in motion picture photography
US6392694B1 (en) 1998-11-03 2002-05-21 Telcordia Technologies, Inc. Method and apparatus for an automatic camera selection system
US7349008B2 (en) 2002-11-30 2008-03-25 Microsoft Corporation Automated camera management system and method for capturing presentations using videography rules
WO2007082171A2 (en) 2006-01-05 2007-07-19 Eyespot Corporation System and methods for online collaborative video creation
KR100908144B1 (en) * 2006-07-12 2009-07-16 (주)아이뮤직소프트 Multimedia editing / playback system and its operation method
JP5152458B2 (en) 2006-12-01 2013-02-27 株式会社メガチップス Content-based communication system
KR100889367B1 (en) * 2007-03-09 2009-03-19 (주) 이브로드캐스트 System and Method for Realizing Vertual Studio via Network
KR20100001580A (en) * 2008-06-27 2010-01-06 (주)판도라티비 Method for playing multimedia contents file and recording medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060129933A1 (en) 2000-12-19 2006-06-15 Sparkpoint Software, Inc. System and method for multimedia authoring and playback
JP2011507100A (en) * 2007-12-14 2011-03-03 マイクロソフト コーポレーション Joint authoring mode
JP2010176383A (en) * 2009-01-29 2010-08-12 Nippon Hoso Kyokai <Nhk> Content manufacturing system and content manufacturing program
US20140082091A1 (en) 2012-09-19 2014-03-20 Box, Inc. Cloud-based platform enabled with media content indexed for text-based searches and/or metadata extraction

Also Published As

Publication number Publication date
KR20180090977A (en) 2018-08-14

Similar Documents

Publication Publication Date Title
US11862198B2 (en) Synthesizing a presentation from multiple media clips
US10123070B2 (en) Method and system for central utilization of remotely generated large media data streams despite network bandwidth limitations
Musburger et al. Introduction to media production: the path to digital media production
Zettl Television production handbook
US20080172704A1 (en) Interactive audiovisual editing system
KR102472801B1 (en) Distributed Multimedia editing System and Method
KR101843025B1 (en) System and Method for Video Editing Based on Camera Movement
Luzuriaga et al. Software-based video–audio production mixer via an IP network
KR101879166B1 (en) A real-world studio system capable of producing contents using the control of a virtual studio and its operating method
JP2010251920A (en) Content production management device, content production device, content production management program, and content production program
WO2017065503A1 (en) Distributed multimedia editing system and editing method
KR20170143076A (en) System for Providing Studio Device Control Sequence Sharing Service and Method thereof
KR101879168B1 (en) System for Providing Studio Device Control Sequence Sharing Service and Method thereof
KR20170044590A (en) Distributed Multimedia editing System and Method
Schreer et al. Media production, delivery and interaction for platform independent systems: format-agnostic media
McNaughton Video Film Recording: A New Production Paradigm For 1960s BBC Drama
KR20210047523A (en) AI multi camera apparatus
Nagai et al. Implementation of high-definition lecture recording system for daily use
Korolev Object oriented approach to video editing and broadcasting to the Internet
KR101827967B1 (en) Server and Service for Providing Video Content
Postma et al. Section Meetings
Spice Producing a music video
Gaffney Digital Dailies in the 21st Century
DTO et al. Deliverable D6.
Chen et al. Automatic Web-Based EFP Studio System with XML Documents

Legal Events

Date Code Title Description
A107 Divisional application of patent
N231 Notification of change of applicant
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant