KR101650071B1 - Online Music Production System And Method - Google Patents

Online Music Production System And Method Download PDF

Info

Publication number
KR101650071B1
KR101650071B1 KR1020130105216A KR20130105216A KR101650071B1 KR 101650071 B1 KR101650071 B1 KR 101650071B1 KR 1020130105216 A KR1020130105216 A KR 1020130105216A KR 20130105216 A KR20130105216 A KR 20130105216A KR 101650071 B1 KR101650071 B1 KR 101650071B1
Authority
KR
South Korea
Prior art keywords
sound source
source data
user
service system
data
Prior art date
Application number
KR1020130105216A
Other languages
Korean (ko)
Other versions
KR20150027419A (en
Inventor
백용재
민진석
김영현
Original Assignee
주식회사 엘지유플러스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지유플러스 filed Critical 주식회사 엘지유플러스
Priority to KR1020130105216A priority Critical patent/KR101650071B1/en
Publication of KR20150027419A publication Critical patent/KR20150027419A/en
Application granted granted Critical
Publication of KR101650071B1 publication Critical patent/KR101650071B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/02Synthesis of acoustic waves

Abstract

본 발명은 어느 한 사용자에 의해 작성되어 네트워크에 업로드된 음원 또는 음원 영상에 다른 사용자가 음원 또는 음원 영상을을 부가하여 합주 음원 또는 합주 음원 영상을 작성하고, 이를 네트워크에 재 업로드하여 또다른 합주 음원 또는 합주 음원 영상을 작성할 수 있도록 하거나, 합주 음원 또는 합주 음원 영상을 다운로드 또는 스트리밍을 통해 시청 또는 청취할 수 있도록 하여, 음원 또는 음원 영상의 작성 및 이용이 용이하게 한 온라인 음원 제작 시스템 및 방법에 관한 것이다.The present invention is a method for creating a music source or a music source image by adding another music source or sound source image to a sound source or a sound source image created by a user and uploaded to a network and re- Or an accompanying sound source image, or to make it possible to watch or listen to the concordant sound source or the concordant sound source image through downloading or streaming, thereby facilitating the creation and use of the sound source or sound source image will be.

Description

온라인 음원 제작 시스템 및 방법{Online Music Production System And Method}{Online Music Production System And Method}

본 발명은 온라인 음원 제작 시스템 및 그 방법에 관한 것으로 특히, 어느 한 사용자에 의해 작성되어 네트워크에 업로드된 음원 또는 음원 영상에 다른 사용자가 음원 또는 음원 영상을 부가하여 합주 음원 또는 합주 음원 영상을 작성하고, 이를 네트워크에 재 업로드하여 또다른 합주 음원 또는 합주 음원 영상을 작성할 수 있도록 하거나, 합주 음원 또는 합주 음원 영상을 다운로드 또는 스트리밍을 통해 시청 또는 청취할 수 있도록 하여, 음원 또는 음원 영상의 작성 및 이용이 용이하게 한 온라인 음원 제작 시스템 및 방법에 관한 것이다.The present invention relates to an online sound source production system and a method thereof, and more particularly, to an online source production system and method thereof, in which a sound source or a sound source image is added by another user to a sound source or sound source image created by a user and uploaded to a network, , Re-uploading it to the network so that another consonant sound source or an audio image of a consonant source image can be created, or a consonant sound source or a consonant source image can be viewed or streamed through downloading or streaming, And more particularly, to an online sound source production system and method.

인터넷과 같은 웹, 웹을 이용하기 위한 대용량 고속의 네트워크 보급은 웹 및 네트워크가 보급되기 전에 비해 다양하고, 방대한 종류와 양의 정보를 공유할 수 있게 해주고 있다.The high-speed, high-speed network distribution for the web and the web, such as the Internet, allows a variety of types and amounts of information to be shared before the web and network are spread.

특히, 종래에 웹이나 네트워크(하기에서는 '인터넷', '웹', '네트워크'를 모두 포함하는 의미로 '네트워크'로 통칭하기로 한다.) 또는 네트워크가 보급되기 이전에는 네트워크를 통한 음원이나 영상의 공유가 거의 불가능하였다.Particularly, in the past, a network or a network (hereinafter referred to as a 'network' in the sense of including both 'internet', 'web' and 'network' It was almost impossible to share.

하지만, 최근에는 압축기술의 발달과 고속, 대용량의 데이터 전송이 가능해지고, 클라우드, OTT(Over The Top) 사업자에 의한 VOD(Video On Demand) 서비스와 같은 음원 및 영상의 공유와 이용이 가능한 서비스가 제공되면, 음원이나 영상데이터의 공유와 전파가 네트워크를 통해 활발히 이루어지게 되었다.However, in recent years, development of compression technology and high-speed, large-capacity data transmission have become possible, and services such as cloud and video on demand (VOD) services by OTT (Over the Top) When provided, sharing and propagation of sound sources and image data is actively performed through the network.

특히, 최근에는 네트워크를 이용한 실시간 데이터 공유가 활발히 이루어지고 있다. 그러나 이러한 음원 또는 자작 영상의 공유는 제한적으로 이루어지고 있는 한계가 있다. 구체적으로 종래의 음원 또는 영상의 공유는 작성자가 스스로 또는 공동의 공간에 모여 녹음 또는 녹화한 영상을 네트워크에 업로드하고, 시청 또는 청취를 원하는 사용자가 네트워크를 통해 다운로드 또는 스트리밍에 의해 이용하는 형태로 제한되고 있다.In particular, in recent years, real-time data sharing using a network has been actively performed. However, sharing of such sound source or own image is limited. Specifically, the conventional sharing of a sound source or image is limited to a form in which a creator uploads an image recorded or recorded by himself or herself in a common space, and the user who wants to view or listen to the image by downloading or streaming through a network have.

최근에는 좀 더 발전하여 다수의 사용자가 네트워크 상에 가상의 대화방 또는 스튜디오를 생성하고, 악기 또는 악기 어플이 설치된 단말을 이용하여 실시간 접속한 후 동시에 연주함으로써 음원 및 음원 영상을 작성한다. 이를 통해 먼거리에 떨어져 있는 사용자 간의 공동 연주 및 이에 의해 생성되는 음원 및 영상의 작성이 가능해졌지만, 여전히 제3자는 다운로드 또는 스트리밍에 의해 음원 또는 음원 영상을 시청 또는 청취하는 수준에 그치고 있다.In recent years, a number of users have created a virtual chat room or a studio on a network, and connected to each other in real time using a terminal equipped with an instrument or a musical instrument application, and then simultaneously played to create a sound source and a sound source image. This makes it possible to jointly perform the play between users who are distant from each other, and to create a sound source and an image generated thereby, but the third party is still at the level of watching or listening to a sound source or a sound source image by downloading or streaming.

이러한 종래의 음원 또는 음원 영상 작성 방법은 복수의 사용자가 음원 또는 음원 영상을 생성하기 위해 동일한 시간에 네트워크에 접속해야 하기 때문에 복수의 사용자가 이를 위한 시간을 할애해야 하는 문제점이 있다. 특히, 음원 또는 음원 영상 작성 중에 어느 한 사용자의 네트워크 접속이 불안정해지는 경우 음원 또는 음원 영상의 작성이 실패하는 경우가 발생하여 음원 또는 음원 영상의 작성이 순조롭지 못한 문제점이 있다.This conventional sound source or source image creation method requires a plurality of users to spend time for this because a plurality of users must connect to the network at the same time to generate a sound source or source image. In particular, when a network connection of a user becomes unstable during creation of a sound source or a sound source image, the sound source or the sound source image may fail to be created, and thus the sound source or sound source image may not be smoothly generated.

따라서, 본 발명의 목적은 어느 한 사용자에 의해 작성되어 네트워크에 업로드된 음원 또는 음원 영상에 다른 사용자가 음원 또는 음원 영상을을 부가하여 합주 음원 또는 합주 음원 영상을 작성하고, 이를 네트워크에 재 업로드하여 또다른 합주 음원 또는 합주 음원 영상을 작성할 수 있도록 하거나, 합주 음원 또는 합주 음원 영상을 다운로드 또는 스트리밍을 통해 시청 또는 청취할 수 있도록 하여, 음원 또는 음원 영상의 작성 및 이용이 용이하게 한 온라인 음원 제작 시스템 및 방법을 제공하는 것이다.Accordingly, an object of the present invention is to provide a music sound source or an audio source image which is created by a user and added to a network, An online sound source production system in which it is possible to create another consonant sound source or a sound source image of a mixed sound source or a merged sound source image or to make it possible to view or listen to the merged sound source or the merged sound source image through downloading or streaming, And a method thereof.

상기 목적을 달성하기 위하여 본 발명에 따른 온라인 음원 제작 시스템은 복수의 사용자 단말과 통신망을 통해 연결되고, 복수의 상기 사용자 단말 각각을 통해 전달되는 음원 데이터에 의해 생성되는 합주 음원데이터를 저장하며, 상기 사용자 단말의 요청에 따라 제공하는 서비스 시스템을 포함하여 구성되는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an online sound source production system, which stores concatenated sound source data generated by sound source data transmitted through a plurality of user terminals through a communication network with a plurality of user terminals, And a service system for providing a service according to a request of the user terminal.

상기 음원데이터는 연주 음향과 상기 사용자에 의해 지정된 영상을 포함하는 것을 특징으로 한다.Wherein the sound source data includes a performance sound and an image designated by the user.

상기 합주 음원데이터는 복수의 상기 사용자 중 어느 하나의 상기 사용자 단말로부터 생성되는 원본 음원데이터; 복수의 상기 사용자 중 다른 사용자의 사용자 단말에 의해 생성되고 상기 원본 음원데이터에 동기되는 부가 음원데이터;가 결합되어 생성되는 것을 특징으로 한다.Wherein the concatenated sound source data includes original sound source data generated from any one of the plurality of users; And additional sound source data generated by a user terminal of another user among the plurality of users and synchronized with the original sound source data are combined and generated.

상기 서비스 시스템은 상기 원본 음원데이터를 상기 다른 사용자의 사용자단말에 제공하고, 상기 원본 음원데이터의 제공에 의해 생성되는 상기 부가 음원데이터를 상기 다른 사용자의 사용자단말로부터 제공받는 것을 특징으로 한다.The service system provides the original sound source data to the user terminal of the other user and the additional sound source data generated by providing the original sound source data is provided from the user terminal of the other user.

상기 합주 음원데이터는 상기 서비스 시스템에 접속한 복수의 상기 사용자 단말에 의해 동시에 생성되는 복수의 상기 음원데이터를 결합하여 작성되는 것을 특징으로 한다.And the concatenated sound source data is created by combining a plurality of sound source data generated simultaneously by a plurality of user terminals connected to the service system.

상기 서비스 시스템은 복수의 상기 사용자단말 각각에 다른 사용자단말로부터 전달되는 상기 음원데이터를 공급하는 것을 특징으로 한다.Wherein the service system supplies the sound source data transmitted from different user terminals to each of the plurality of user terminals.

상기 합주 음원데이터는 복수의 상기 사용자 단말 각각으로부터 전달되며, 원본 또는 부가 음원데이터를 포함하는 복수의 상기 음원데이터가 결합되어 생성되되, 결합되는 상기 음원데이터는 개별 데이터를 유지한 상태로 상호 결합되며, 상기 음원 데이터 상호 간의 동기가 이루어지는 것을 특징으로 한다.The concatenated sound source data is transmitted from each of the plurality of user terminals, and a plurality of the sound source data including original or additional sound source data are combined and generated, and the sound source data to be combined is combined with each other while maintaining individual data And synchronization of the sound source data is performed.

상기 합주 음원데이터는 영상과 음향의 동기가 유지되는 상태에서 서로 구분되어 작성되는 것을 특징으로 한다.And the merged sound source data is created separately from each other in a state in which the synchronization between the image and the sound is maintained.

또한, 본 발명에 따른 온라인 음원 제작 방법은 서비스시스템이 복수의 사용자 단말과 통신망을 통해 연결되는 단계; 상기 서비스시스템이 복수의 상기 사용자 단말로부터 생성되어 전달되는 음원데이터를 수신하는 단계; 상기 서비스시스템이 복수의 상기 음원데이터 집합에 의해 생성되는 합주 음원데이터를 저장하는 단계; 및 상기 서비스 시스템이 상기 사용자 단말을 포함하는 단말장치의 요청에 따라 상기 합주 음원데이터를 제공하는 단계;를 포함하여 구성되는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method for producing an online sound source, the method comprising: connecting a service system to a plurality of user terminals through a communication network; Receiving the sound source data generated and transmitted from the plurality of user terminals by the service system; The service system storing concatenated sound source data generated by a plurality of the sound source data sets; And providing the concatenated sound source data according to a request of the terminal device including the user terminal by the service system.

상기 음원데이터 또는 상기 합주 음원데이터는 연주 음향과 상기 사용자에 의해 지정되는 영상을 포함하는 것을 특징으로 한다.Wherein the sound source data or the concatenated sound source data includes a performance sound and an image designated by the user.

상기 합주 음원데이터는 복수의 상기 사용자 단말 중 어느 하나의 사용자 단말로부터 생성되는 원본 음원데이터; 복수의 상기 사용자 단말 중 나머지 사용자 단말로부터 생성되고 상기 원본 음원데이터에 동기되어 생성되는 부가 음원데이터;가 결합되어 생성되는 것을 특징으로 한다.Wherein the concatenated sound source data includes original sound source data generated from any one of the plurality of user terminals; And additional sound source data generated from the remaining user terminals of the plurality of user terminals and generated in synchronization with the original sound source data are combined and generated.

상기 음원 데이터를 수신하는 단계 또는 상기 합주 음원데이터를 저장하는 단계;는 상기 서비스 시스템이 상기 원본 음원데이터를 상기 나머지 사용자 단말에 제공하고, 상기 나머지 사용자 단말로부터 상기 부가 음원데이터를 수신하는 단계;를 포함하여 구성되는 것을 특징으로 한다.Wherein the step of receiving the sound source data or storing the concatenated sound source data comprises the steps of providing the original sound source data to the remaining user terminals and receiving the additional sound source data from the remaining user terminals And the like.

상기 음원데이터를 수신하는 단계 또는 상기 합주 음원데이터를 저장하는 단계;는 상기 합주 음원데이터가 상기 서비스 시스템에 접속된 복수의 상기 사용자 단말에 의해 동시에 생성되는 복수의 상기 음원데이터가 결합되어 작성되는 것을 특징으로 한다.Wherein the step of receiving the sound source data or storing the concatenated sound source data comprises combining the plurality of sound source data generated at the same time by the plurality of user terminals connected to the service system .

상기 음원데이터를 수신하는 단계 또는 상기 합주 음원데이터를 저장하는 단계;는 상기 서비스 시스템이 복수의 상기 사용자 단말 각각에 대해 다른 사용자 단말로부터 전달되는 상기 음원데이터를 공급하는 단계를 더 포함하여 구성되는 것을 특징으로 한다.Wherein the step of receiving the sound source data or storing the concatenated sound source data further comprises supplying the sound source data transmitted from another user terminal to each of the plurality of user terminals .

상기 합주 음원데이터는 복수의 상기 사용자 단말 각각으로부터 전달되며, 원본 또는 부가 음원데이터를 포함하는 복수의 상기 음원데이터가 결합되어 생성되되, 결합되는 상기 음원데이터는 개별 데이터를 유지한 상태로 상호 결합되며, 상기 음원 데이터 상호 간의 동기가 이루어지는 것을 특징으로 한다.The concatenated sound source data is transmitted from each of the plurality of user terminals, and a plurality of the sound source data including original or additional sound source data are combined and generated, and the sound source data to be combined is combined with each other while maintaining individual data And synchronization of the sound source data is performed.

상기 합주 음원데이터는The concordant sound source data

영상과 음향의 동기가 이루어진 상태에서 개별 데이터를 유지한 상태로 상호 결합되는 것을 특징으로 한다.And the video data and the audio data are mutually combined in a state in which the video data and the sound data are kept synchronized.

상기 음원데이터를 수신하는 단계는 복수의 상기 사용자 단말 중 어느 하나로부터 합주 요청을 수신하는 단계; 상기 서비스 시스템이 상기 합주 요청에 응답하여 합주 음원데이터를 생성하는 합주 참여자의 상기 사용자 단말이 접속되는 가상의 합주방을 생성하는 단계; 및 상기 상기 합주방에 접속된 상기 사용자 단말로부터 상기 음원데이터를 수신하는 단계;를 포함하여 구성되는 것을 특징으로 한다.Wherein the step of receiving the sound source data comprises: receiving an association request from any one of the plurality of user terminals; Generating a virtual sum-kitchen in which the service system is connected to the user terminal of the ensemble participant in response to the ensemble request and generating the ensemble sound data; And receiving the sound source data from the user terminal connected to the sum main unit.

상기 서비스 시스템이 상기 합주 요청이 실시간 합주 요청인지 비실시간 합주 요청인지 판단하는 실시간 합주 판단 단계;를 더 포함하여 구성되는 것을 특징으로 한다.And real-time concurrently determining whether the service system determines whether the concurrent request is a real-time concurrent request or a non-real-time concurrent request.

본 발명에 따른 온라인 음원 제작 시스템 및 방법은 어느 한 사용자에 의해 작성되어 네트워크에 업로드된 음원 또는 음원 영상에 다른 사용자가 음원 또는 음원 영상을을 부가하여 합주 음원 또는 합주 음원 영상을 작성하고, 이를 네트워크에 재 업로드하여 또다른 합주 음원 또는 합주 음원 영상을 작성할 수 있도록 하거나, 합주 음원 또는 합주 음원 영상을 다운로드 또는 스트리밍을 통해 시청 또는 청취할 수 있도록 하여, 음원 또는 음원 영상의 작성 및 이용을 용이하게 한다.The system and method for creating an online sound source according to the present invention may include a sound source or a source image added by a user to a sound source or sound source image created by a user and uploaded to a network, Uploading the music data to another music piece or a music piece of the merged music source or making it possible to view or listen to the merged music source or the merged music source image through downloading or streaming to facilitate creation and use of the sound source or sound source image .

도 1은 본 발명에 따른 온라인 음원 제작 시스템의 구성을 도시한 구성 예시도.
도 2는 미리 작성된 음원데이터에 새로운 음원데이터를 부가하여 합주 음원데이터를 작성하는 과정을 도시한 예시도.
도 3은 동시에 복수의 사용자가 참여하여 합주 음원데이터를 작성하는 과정을 도시한 예시도.
도 4는 도 2 및 도 3에 의해 작성된 합주 음원데이터의 데이터 형태를 도시한 예시도.
도 5는 사용자 단말의 클라이언트 소프트웨어 구성을 도시한 구성예시도.
도 6은 온라인 음원 작성을 위한 서비스 흐름의 일례를 도시한 예시도.
도 7은 본 발명에 따른 온라인 음원제작 방법을 설명하기 위한 예시도.
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram illustrating a configuration of an online sound source production system according to the present invention; FIG.
FIG. 2 is a diagram illustrating a process of adding new sound source data to pre-created sound source data to create concatenated sound source data; FIG.
FIG. 3 is a diagram illustrating a process in which a plurality of users participate concurrently to create concatenated sound source data.
Fig. 4 is an exemplary diagram showing the data format of the ensemble sound source data created by Figs. 2 and 3. Fig.
5 is a configuration example showing a client software configuration of a user terminal;
6 is an exemplary diagram showing an example of a service flow for creating an online sound source;
FIG. 7 is an exemplary diagram for explaining a method of producing an online sound source according to the present invention; FIG.

이하, 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 당해 분야의 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 설명하기로 한다. 첨부된 도면들에서 구성에 표기된 도면번호는 다른 도면에서도 동일한 구성을 표기할 때에 가능한 한 동일한 도면번호를 사용하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어 관련된 공지의 기능 또는 공지의 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다. 그리고 도면에 제시된 어떤 특징들은 설명의 용이함을 위해 확대 또는 축소 또는 단순화된 것이고, 도면 및 그 구성요소들이 반드시 적절한 비율로 도시되어 있지는 않다. 그러나 당업자라면 이러한 상세 사항들을 쉽게 이해할 것이다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. It should be noted that the drawings denoted by the same reference numerals in the drawings denote the same reference numerals whenever possible, in other drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. And certain features shown in the drawings are to be enlarged or reduced or simplified for ease of explanation, and the drawings and their components are not necessarily drawn to scale. However, those skilled in the art will readily understand these details.

도 1은 본 발명에 따른 온라인 음원 제작 시스템의 구성을 도시한 구성 예시도이다.1 is a diagram illustrating a configuration of an online sound source production system according to the present invention.

도 1을 참조하면, 본 발명에 따른 온라인 음원 제작 시스템은 하나 이상의 사용자 단말(10) 및 합주 서버(61)와 음원서버(81)를 포함하는 서비스 시스템(60)을 포함하여 구성되며, 사용자 단말(10), 합주 서버(61) 및 음원서버(81)는 네트워크에 의해 연결된다. 여기서 네트워크는 유선 데이터 통신망뿐만 아니라, 데이터의 송수신이 가능한 이동통신망을 포함하며, 참조도면에서는 생략되어 표시된다.1, the online sound source production system according to the present invention includes a service system 60 including at least one user terminal 10, a music server server 61 and a music server 81, The music server 10, the ensemble server 61 and the music source server 81 are connected by a network. The network includes not only a wired data communication network but also a mobile communication network capable of transmitting and receiving data, and is omitted from the reference drawing.

사용자단말(10)은 음원데이터를 생성하여 서비스시스템(60)에 제공하거나, 서비스시스템(60)에 저장된 음원데이터를 사용자에게 제공하는 역할을 한다. 구체적으로 사용자단말(10)은 서비스시스템(60)에 이동통신망과 같은 무선통신망, 유선통신망과 같은 통신망을 이용하여, 접속된 통신망을 통해 서비스시스템(60)과 데이터 통신을 수행하여 음원데이터를 송신 또는 수신하게 된다. 여기서, 음원데이터는 사용자에 의해 제작, 녹음된 음향 또는 영상을 포함하는 의미로 정의된다. 특히, 음원데이터는 하나의 음원데이터에 다른 사용자 또는 동일 사용자에 의해 다른 음원데이터가 결합 또는 중첩되어 작성 및 이용될 수 있다.The user terminal 10 generates sound source data and provides the sound source data to the service system 60 or provides the sound source data stored in the service system 60 to the user. Specifically, the user terminal 10 performs data communication with the service system 60 through the connected communication network using a communication network such as a wireless communication network such as a mobile communication network or a wired communication network to the service system 60 to transmit sound source data Or received. Here, the sound source data is defined as meaning including sound or image produced and recorded by the user. In particular, sound source data can be created and used by combining or superimposing different sound source data on one sound source data by another user or the same user.

이러한 사용자단말(10)은 통신채널을 형성하여 음원데이터를 서비스시스템(60)에 전달할 수 있거나, 서비스시스템(60)으로부터 음원데이터를 제공받아 출력할 수 있거나, 음원데이터를 작성할 수 있는 장치를 포함하는 의미로 사용된다. 특히, 사용자단말(10)이 참조도면 혹은 본 발명의 상세한 설명에서는 하나의 장치와 같이 설명되지만, 각각의 기능을 가진 복수의 장치가 하나의 사용자 단말(10)을 구성할 수 있다. 일례로, 사용자단말(10)은 컴퓨터, 모바일폰과 같이 통신망 형성이 가능하고, 녹화 또는 녹음에 의해 음원데이터를 생성하거나, 설치된 애플리케이션 또는 프로그램에 의해 자체적으로 음원데이터 생성이 가능한 단독 장치일 수 있다. 또는 전자기타와 같은 악기의 출력을 디지털신호로 변환하는 믹서와 믹서로부터의 디지털신호를 음원데이터화하는 코더, 코더에서 작성된 음원데이터를 서비스시스템(60)에 전달하는 통신단말과 같은 복수의 장치가 하나의 사용자단말(10)로 구성될 수 있으나, 이로써 본 발명을 한정하는 것은 아니다.The user terminal 10 may include a device capable of forming a communication channel to transmit sound source data to the service system 60, or to receive and output sound source data from the service system 60 or to create sound source data It is used in the sense of. In particular, although the user terminal 10 is described as a single device in the reference drawings or the detailed description of the present invention, a plurality of devices having respective functions can constitute one user terminal 10. [ For example, the user terminal 10 may be a stand-alone device capable of forming a communication network such as a computer or a mobile phone, generating sound source data by recording or recording, or generating sound source data by itself, . A coder that converts a digital signal from a mixer into a sound source data, and a communication terminal that transmits sound source data created by a coder to the service system 60 are one The user terminal 10 of FIG. 1, but the present invention is not limited thereto.

이와 같은 사용자단말(10)의 역할은 전술한 바와 같이 크게 세가지 중 하나로 구분되며 하나의 사용자단말(10)에 의해 복수의 역할이 수행될 수 있다. 우선 사용자단말(10)은 음원데이터를 직간접적으로 생성한다. 특히, 이미 생성된 다른 사용자의 음원데이터에 새로운 음원데이터를 믹싱하여 합주된 음원데이터를 생성하는 역할을 한다. 이에 대해서는 하기에서 좀 더 상세히 설명하기로 한다. 그리고, 사용자단말(10)은 통신망을 통해 음원데이터를 서비스시스템(60)에 전달하거나, 서비스시스템(60)으로부터 전달받는 역할을 한다. 마지막으로 사용자단말(10)은 음원데이터를 재생하는 역할을 한다.The role of the user terminal 10 is divided into one of three types as described above, and a plurality of roles can be performed by one user terminal 10. [ First, the user terminal 10 directly or indirectly generates sound source data. In particular, it plays a role of mixing new sound source data with sound source data of another user that has already been generated, and generating merged sound source data. This will be described in more detail below. The user terminal 10 transmits the sound source data to the service system 60 via the communication network or receives the sound source data from the service system 60. Finally, the user terminal 10 plays a role of reproducing sound source data.

구체적으로 사용자단말(10a)은 설치된 어플리케이션에 의해 음원데이터를 작성할 수 있다. 일례로 제1사용자단말(10a)의 경우 스마트폰 또는 스마트패드와 같은 장치일 수 있다. 제1사용자단말(10a)에 의해 제1음원데이터가 작성되어 서비스시스템(60)의 합주서버(61)에 전달된다.Specifically, the user terminal 10a can create sound source data by an installed application. For example, the first user terminal 10a may be a device such as a smart phone or a smart pad. The first sound source data is created by the first user terminal 10a and transmitted to the ensemble server 61 of the service system 60. [

그리고, 제2사용자단말(10b)이 서비스시스템(60)의 합주서버(61)를 통해 합주음원데이터의 생성을 원하는 음원데이터가 있는지 검색하게 된다. 검색에 부합하는 음원데이터가 있는 경우 제2사용자단말(10b)을 사용하는 사용자에 의해 음원데이터의 다운로드 또는 스트리밍 서비스를 이용한 재생이 제2사용자단말(10b)을 통해 이루어지게 된다. 특히, 제2사용자단말(10b)은 제1음원데이터를 플레이함과 동시에 사용자에 의해 생성되는 외부음원 또는 제2사용자단말(10b)을 통해 생성되는 음원을 이용하여 제2음원데이터를 작성하고, 작성된 제2음원데이터를 제1음원데이터에 부가하여 새로운 음원데이터를 작성하게 된다. 그리고, 새로운 음원데이터를 제2사용자단말(10b)이 서비스시스템(60)에 전달함으로써, 합주음원데이터의 작성, 전달 및 이용이 이루어지게 된다. 이에 대해서는 하기에서 다른 도면을 참조하여 좀 더 상세히 설명하기로 한다.Then, the second user terminal 10b searches through the ensemble server 61 of the service system 60 for the sound source data desired to generate the ensemble sound source data. If the sound source data corresponding to the search exists, the user using the second user terminal 10b downloads the sound source data or plays back the stream using the streaming service through the second user terminal 10b. In particular, the second user terminal 10b generates the second sound source data using the external sound source generated by the user or the sound source generated through the second user terminal 10b while playing the first sound source data, The created second sound source data is added to the first sound source data to create new sound source data. Then, the second user terminal 10b transmits the new sound source data to the service system 60, so that the creation, transmission, and use of the merged sound source data are performed. This will be described in more detail below with reference to other drawings.

서비스 시스템(60)은 합주 모인 생성 및 리스트 조회, 저장된 음원데이터의 송수신, 음원데이터의 믹싱 및 스트리밍을 제공한다. 이를 위해 서비스 시스템(60)은 합주서버(61)오 음원서버(81)를 포함하여 구성될 수 있다. 여기서, 합주서버(61)는 음원데이터의 관리 및 음원데이터를 이용한 합주음원데이터의 생성을 위한 각종 과정 및 데이터의 처리 및 관리를 수행하고, 음원서버(81)는 저장된 음원데이터를 스트리밍 서비스 또는 다운로드 서비스를 이용하여 사용자에게 제공한다. 이러한 합주서버(61)와 음원서버(81)는 상호 간의 기능을 함께 수행할 수 있으며, 하기에서는 서비스 시스템(60)으로 통칭하여 설명을 진행하기로 한다.The service system 60 provides an aggregate generation and list query, transmission and reception of stored sound source data, and mixing and streaming of sound source data. To this end, the service system 60 may be configured to include an audio mix server 81 of the combination server 61. Here, the ensemble server 61 performs processing and management of various processes and data for managing the sound source data and generating the consonant sound source data using the sound source data, and the sound source server 81 transmits the stored sound source data to a streaming service Service to the user. The combination server 61 and the sound source server 81 can perform mutual functions together and will be collectively referred to as a service system 60 in the following description.

이 서비스 시스템(60)은 통신망을 통해 사용자단말(10)과 연결된다. 그리고, 사용자단말(10)로부터 전달되는 음원데이터를 저장 및 제3자에게 제공하며, 음원데이터와 함께 전달되는 합주모임 생성 요청, 영상 개시 및 글쓰기 요청에 따른 개시 기능을 제공한다. 그리고, 서비스 시스템(60)은 음원데이터를 단순 청취 또는 시청하기 위한 사용자에 대해 스트리밍 서비스를 제공한다. 반면 합주 서비스 이용을 위한 사용자에 대해서는 음원데이터를 제공하고, 사용자로부터 반환되는 음원데이터의 음향, 영상을 저장 관리 및 믹싱하여 제3자에게 제공하는 역할을 한다.The service system 60 is connected to the user terminal 10 via a communication network. In addition, the sound source data transmitted from the user terminal 10 is stored and provided to a third party, and a joint meeting generation request, a video presentation, and a writing request are provided together with the sound source data. Then, the service system 60 provides a streaming service to the user for simply listening to or viewing the sound source data. On the other hand, it provides sound source data for a user who uses a consecutive service, and stores and manages sound and image of sound source data returned from a user, and provides the sound and data to a third party.

도 2 및 도 3은 합주 음원데이터의 작성을 설명하기 위한 예시도로써, 도 2는 미리 작성된 음원데이터에 새로운 음원데이터를 부가하여 합주 음원데이터를 작성하는 과정을 도시한 예시도이고, 도 3은 동시에 복수의 사용자가 참여하여 합주 음원데이터를 작성하는 과정을 도시한 예시도이다. 그리고, 도 4는 도 2 및 도 3에 의해 작성된 합주 음원데이터의 데이터 형태를 도시한 예시도이다.2 and 3 are diagrams for explaining creation of combined music source data. FIG. 2 is an example of a process of creating new music source data by adding new music source data to previously created music source data. FIG. 2 is a diagram illustrating a process of creating concurrent sound source data by a plurality of users participating at the same time. 4 is an illustration showing an example of the data format of the ensemble sound source data created by Fig. 2 and Fig. 3. Fig.

도 2 내지 도 4를 참조하면, 본 발명에 따른 온라인 음원 제작 시스템 및 방법은 동시에 복수의 사용자가 동시에 음원데이터를 생성하여 하나로 합쳐진 합주 음원데이터를 작성할 수 있을 뿐만 아니라, 미리 작성된 음원데이터에 개별 사용자가 음원데이터를 부가하여 합쳐진 합주 음원데이터를 작성하는 것이 가능하다. 도 2 및 도 3에는 이러한 과정을 설명하기 위한 예가 도시되어 있다.2 to 4, the system and method for producing an online sound source according to the present invention can simultaneously generate sound source data by a plurality of users at the same time so as to create combined sound source data combined into one, It is possible to add the sound source data to create the combined sound source data. FIGS. 2 and 3 show an example for explaining this process.

먼저 동시에 복수의 사용자에 의해 합주 음원데이터가 작성될 수 있다. 이때 각 사용자의 사용자단말(10)에는 도 3에 도시된 것과 같은 인터페이스가 제공된다. 한편, 도 3에는 음원과 함께 영상이 녹화되는 경우의 예가 도시되어 있다.Concordant sound source data can be created by a plurality of users at the same time. At this time, the user terminal 10 of each user is provided with an interface as shown in Fig. FIG. 3 shows an example in which an image is recorded together with a sound source.

복수의 사용자 중 합주 음원을 생성하고 싶은 사용자가 자신의 사용자단말(10)을 이용하여 서비스시스템(60)을 통해 합주를 위한 가상 공간을 개설하게 된다. 이때, 복수의 사용자가 서비스시스템(60)에 접속하여 가상 공간에 참여하게 된다. 이와 같이 합주 음원 데이터의 작성을 위해 참여한 접속자들은 서비스시스템(60)에 의해 각 사용자단말(10)에서 확인이 가능하며, 도 3에 도시된 바와 같이 사용자단말(10)의 화면을 영역별로 구분하여 참여자들의 영상 또는 음향을 확인할 수 있는 인터페이스가 제공된다. 이와 같이 복수의 사용자가 동시에 합주 음원을 작성하는 경우 합주 음원데이터의 생성을 처음으로 요청한 사용자단말(10) 또는 서비스시스템(60)에 의해 복수 사용자로부터 제공되는 음원데이터를 취합하도록 할 수 있으나, 이로써 본 발명을 한정하는 것은 아니다. 아울러, 복수의 사용자단말(10)에서 생성된 음원데이터는 동시 합주 음원데이터 작성에 참여한 각 사용자의 사용자단말(10)로 서비스시스템(60)에 의해 제공됨으로써 물리적으로 동일한 공간에 있는 것과 같은 효과를 제공하게 된다.A user who wishes to create an accompaniment sound source among a plurality of users opens up a virtual space for concert through the service system 60 by using his own user terminal 10. [ At this time, a plurality of users access the service system 60 and participate in the virtual space. As shown in FIG. 3, the connected users who are participating in the creation of the concatenated sound source data can be identified by the service system 60 by each user terminal 10, and the screens of the user terminal 10 are divided into areas An interface is provided to identify participants' images or sounds. In the case where a plurality of users concurrently create a concert sound source, the sound source data provided from a plurality of users can be collected by the user terminal 10 or the service system 60 requesting the generation of the concat sound source data for the first time, The present invention is not limited thereto. In addition, the sound source data generated by the plurality of user terminals 10 is provided by the service system 60 to the user terminals 10 of each user participating in the creation of the concurrent sound source data, thereby achieving the same effect as being physically in the same space .

이와 같이 복수의 사용자가 동시에 가상 공간에 접속하여 합주 음원데이터를 작성하는 방법 외에 본 발명에서는 도 2와 같이 서로 다른 시간에 사용자들에 의해 합주 음원데이터가 작성될 수 있다.In addition to the method in which a plurality of users access the virtual space at the same time to create concatenated sound source data, concurrent sound source data can be created by users at different times as shown in FIG.

구체적으로 사용자 중 어느 한 명에 의해 하나의 음원데이터가 작성되어 서비스시스템(60)에 등록된다. 이후 다른 사용자(제2사용자)가 먼저 작성된 음원데이터에 자신의 음원데이터를 결합하여 하나의 합주 음원데이터를 작성하고자 시도하게 된다. 이때, 제2사용자는 서비스시스템(60)에서 작성되어 있는 음원데이터 중 어느 하나를 선택하면, 제2사용자의 사용자단말(10)을 통해 서비스 시스템(60)으로부터 스트리밍 또는 다운로드에 의해 공급되는 영상이 제공된다.(이하에서는 설명의 편의를 위한 스트리밍에 의해 음원데이터가 공급하는 것으로 통일하여 설명하기로 하며, 스트리밍에 전편 다운로드 재생이 포함된 것으로 가정하여 설명하기로 한다.)More specifically, one sound source data is created by one of the users and registered in the service system 60. Then, another user (second user) tries to combine his / her sound source data with the previously generated sound source data to create one piece of combined sound source data. At this time, if the second user selects any one of the sound source data created in the service system 60, the image supplied from the service system 60 through streaming or downloading through the user terminal 10 of the second user (Hereinafter, it is assumed that streaming data is supplied by streaming for the sake of convenience, and streaming includes downloading of all songs.)

이러한 스트리밍에 의해 원본 음원데이터는 '1'화면에 출력되고, 단말의 출력장치를 통해 음향도 출력되게 된다. 제2사용자는 이 원본 음원데이터의 재생에 맞추어 노래를 하거나 악기를 이용하여 음원을 생성하면, 음원이 제2사용자의 단말에 입력되어 원본 음원데이터와 매칭되는 추가 음원데이터가 작성된다. 여기서, 음원데이터는 사용자단말의 악기 연주 어플리케이션, 미리 저장된 음원데이터의 재생을 통해 추가될 수도 있으나, 이로써 본 발명을 한정하는 것은 아니다. 그리고, 이러한 추가 음원데이터와 원본 음원데이터의 음원 파형은 도 2에 도시된 바와 같이 사용자단말의 화면을 통해 제공되어 음원의 매칭이 이루어지고 있는 상황을 사용자가 확인할 수 있게 할 수 있으나, 이로써 본 발명을 한정하는 것은 아니다.By this streaming, the original sound source data is outputted to the '1' screen, and the sound is outputted through the output device of the terminal. When the second user creates a sound source by playing the original sound source data or by using a musical instrument, the sound source is input to the terminal of the second user to generate additional sound source data matched with the original sound source data. Here, the sound source data may be added through the musical instrument performance application of the user terminal, or by reproducing the pre-stored sound source data, but the present invention is not limited thereto. As shown in FIG. 2, the additional sound source data and the sound source waveform of the original sound source data can be provided through the screen of the user terminal so that the user can confirm the situation that the sound sources are being matched. However, But is not limited to.

그리고, 추가 음원데이터는 제2사용자의 단말 또는 서비스시스템(60)에 의해 하나의 음원데이터로 결합되고, 스트리밍 서비스로 다른 사용자에게 제공될 수 있게 서비스시스템(60)에 저장된다.Then, the additional sound source data is combined into one sound source data by the terminal of the second user or the service system 60, and is stored in the service system 60 so that it can be provided to other users by the streaming service.

한편, 본 발명은 다양한 사용자가 동시 또는 시간차를 두고 음원을 생성하여 합주 음원데이터를 생성할 수 있게 한다. 이를 위해 본 발명에서 작성되는 음원데이터는 다양한 사용자가 필요에 따라 추출, 가공, 결합과 다양한 작업을 수행할 수 있도록 분리된 형태로 작성된다.Meanwhile, the present invention allows a variety of users to generate sound sources at the same time or at different time intervals, thereby generating concat sound source data. To this end, the sound source data created in the present invention is formed in a separate form so that various users can perform extraction, processing, combining, and various operations as needed.

구체적으로 도 4를 참조하면, 본 발명의 음원데이터는 각 합주에 참여한 각 사용자 및 원본 음원데이터 별로 음원과 영상이 분리된 형태의 데이터로 작성되고, 이용의 편리를 위해 타임라인(T)에 맞추어 작성이 된다.Specifically, referring to FIG. 4, the sound source data of the present invention is formed of data of a form in which a sound source and an image are separated for each user and original sound source data participating in each ensemble, and for convenience of use, It is written.

마찬가지로 각 추가합주자의 음원데이터 또한 음원과 영상이 분리된 형태로 작성이 되며, 추가 합주자의 음원데이터는 원본 음원데이터의 타임라인(T)에 동기되어 작성된다.Likewise, the sound source data of each additional owner is also created in a form in which the sound source and the image are separated, and the sound source data of the additional owner is created in synchronization with the time line T of the original sound source data.

이후 원본 음원데이터와 추가 합주자의 음원데이터가 결합되는 경우 영상은 영상별로, 음향은 음향별로 타임라인(T)에 맞추어 결합된다. 다만, 스트리밍에 의해 출력되는 경우 음향과 영상이 타임라인(T)에 따라 동기되어 출력되어 싱크가 이루어지며, 이를 통해 사용자는 음향과 영상이 매칭되는 음원데이터를 이용할 수 있게 된다.When the original sound source data and the sound source data of the additional sound source are combined, the image is combined with each other and the sound is combined with the time line T by sound. However, when outputting by streaming, the sound and the image are synchronized and output according to the time line T, so that the user can use the sound source data matching the sound and the image.

특히, 본 발명의 음원데이터는 원본 음원데이터와 추가 합주자의 추가 음원데이터가 결합되는 경우에도 각각의 음향 또는 영상의 데이터를 독립적으로 유지시킨다. 즉, 종래에는 이를 결합하여 하나의 음원데이터로 이용하였으나, 본 발명에서는 음원데이터의 추가, 삭제, 추출, 가공을 편리하게 할 수 있도록 각 음원데이터를 타임라인(T)에만 동기시킨 상태로 별도의 데이터로 유지하고, 이를 그룹화하여 하나의 합주 음원데이터로 유지시킨다. 그리고, 스트리밍과 같은 사용자단말을 통한 출력시에만 선택된 음원데이터를 타임라인(T)에 따라 출력하여 음향 및 영상을 제공하게 된다.In particular, the sound source data of the present invention independently maintains each sound or image data even when the original sound source data and the additional sound source data of the additional sound source are combined. That is, in the related art, they are combined and used as one sound source data. However, in the present invention, in order to facilitate addition, deletion, extraction, and processing of sound source data, Data, grouping them, and maintaining them as one piece of concordant sound source data. In addition, sound source data selected only at the time of output through a user terminal such as streaming is output along the time line T to provide sound and image.

좀더 구체적으로 각 사용자 단말로부터 전달되는 음성데이터(SD : SD1 내지 SD4)와 영상데이터(VD : VD1 내지 VD4)는 상호 간에도 독립적인 데이터 형태로 동기만 이루어져 음원데이터로 구성된다. 이러한 음원데이터들이 결합되어 합주 음원데이터로 구성되는 경우 영상데이터(VD)는 영상데이터끼리 음향데이터(SD)는 음향데이터끼리 구분되어 합주 원음데이터를 구성한다. 특히, 도 4에 도시된 것과 같이 음성 데이터(SD) 또는 영상데이터(VD) 각 사용자 단말로부터 전달된 형태로 각각 독립된 데이터를 유지한채로 결합되어 합주 원음 데이터를 구성하게 된다. 도 4에서와 같이 최종 미디어 파일을 구성하는 합주 음원데이터에서 음성데이터(SD)가 믹싱되지 않고 결합만 이루어진 채 독립된 데이터로 구성되어 각각의 사용자 단말에 대한 음성데이터(SD1 내지 SD4)로 구분되며, 이를 통해 합주 원음 데이터가 작성된 후에도 사용자의 필요에 따라 영상, 음향을 각각 분리하여 이용하는 것이 용이해진다.More specifically, audio data (SD: SD1 to SD4) and video data (VD: VD1 to VD4) transmitted from each user terminal are composed of sound data only by synchronization in a data form independent of each other. When these sound source data are combined and composed of concatenated sound source data, the sound data (SD) between the image data (VD) and the sound data (SD) are separated from each other to constitute the original sound data. In particular, as shown in FIG. 4, audio data (SD) or video data (VD) are combined while retaining independent data in a form delivered from each user terminal to form the suffix sound data. As shown in FIG. 4, the audio data (SD) is composed of independent data without combining the audio data (SD) in the combined audio data constituting the final media file, and is divided into audio data (SD1 to SD4) This makes it easy to separately use the video and sound according to the user's needs even after completing the original sound data.

더불어, 이러한 데이터의 독립적인 유지와 편집의 용이함을 위해 음원데이터는 가공이나 압축, 음원 손실이 없는 RAW 포맷으로 유지된다.In addition, for independent maintenance and editing of such data, the sound source data is maintained in RAW format with no processing, compression, or sound source loss.

한편, 도 5는 사용자 단말의 클라이언트 소프트웨어 구성을 도시한 구성예시도이다.Meanwhile, FIG. 5 is a configuration example showing a client software configuration of a user terminal.

도 5를 참조하면, 합주 음원 작성을 위한 사용자단말의 클라이언트 소프트웨어 구성예가 도시되어 있다. 특히, 도 5는 안드로이드 운영시스템 기반의 스마트폰 또는 스마트패드 또는 노트북에서의 클라이언트 구성예를 나타낸 것이다.Referring to FIG. 5, an example of a client software configuration of a user terminal for creating an ensemble sound source is shown. In particular, FIG. 5 shows an example of a client configuration in a smartphone or smart pad or a notebook based on an Android operating system.

합주 음원데이터 생성을 위해 사용자의 단말에는 어플리케이션 레이어에 합주 음원 데이터의 작성을 위한 합주 서비스 클라이언트가 설치된다. 이 합주 서비스 클라이언트는 어플리케이션 프레임워크 상에서 운영되며, 합주 음원 데이터의 생성을 위한 기능으로 구성된다.In order to generate the concatenated sound source data, a concatenation service client for creating the mixed sound source data is installed in the application layer of the user terminal. The ensemble service client is operated on an application framework and is configured as a function for generating concordant sound data.

구체적으로 합주 서비스 클라이언트는 녹음기능, 믹싱 매니저, 스트리밍 매니저 및 인코더로 구성될 수 있으나, 이로써 본 발명을 한정하는 것은 아니다.Concretely, the ensemble service client may be composed of a recording function, a mixing manager, a streaming manager and an encoder, but does not limit the present invention.

녹음기능은 서비스 클라이언트에서 믹싱하고 플레이 가능한 포맷으로 음원을 레코딩하는 역할을 한다. 그리고, 믹싱 매니저는 합주한 영상을 규정된 RAW 포맷으로 녹화하고 특정한 연주자의 음향에 은향효과를 부여하는 편지의 기능도 제공하며, 중첩 저장된 영상 및 음향을 사용자가 원하는 포맷의 영상 및 음향 데이터로 믹싱하는 역할을 한다. 스트리밍 매니저는 영상을 인코딩 또는 디코딩하여 영상 스트미링 서버와 인터페이스 하는 역할을 한다.The recording function mixes in the service client and records the sound source in a playable format. In addition, the mixing manager also provides a function of a letter recording a merged image in a predetermined RAW format and giving a specific effect to the player's sound, and mixing and superimposing stored images and sounds into image and sound data in a format desired by the user . The streaming manager encodes or decodes the video and interfaces with the video streaming server.

도 6은 온라인 음원 작성을 위한 서비스 흐름의 일례를 도시한 예시도이다.6 is an exemplary diagram showing an example of a service flow for creating an online sound source.

도 6에는 복수의 사용자 중 어느 한 사용자A가 음원 데이터를 작성한 후, 작성된 원본 음원 데이터를 네트워크에 업로드하면 이를 다른 사용자B가 확인하고, 원본 음원 데이터에 합주 데이터를 부가하는 형태의 예가 도시되어 있다.FIG. 6 shows an example of a form in which a user A creates a sound source data and then uploads the created original sound source data to the network, and another user B confirms the same and adds the merged data to the original sound source data .

도 6을 참조하면, 사용자A가 사용자단말1(10a)을 이용하여 연주 음원과 영상을 포함하는 원본음원데이터를 생성하고, 서버(61)에 생성된 원본 음원 데이터의 저장을 요청한다(S1). 사용자단말1(10a)로부터의 요청에 따라 합주 서버(61)가 원본음원데이터를 저장하고, 저장 결과를 사용자단말1(10a)에 전달하게 된다(S2). 그리고, 원본음원데이터의 저장을 확인한 사용자가 사용자단말1(10a)을 이용하여 합주 모임 생성을 합주 서버(61)에 요청하면(S3), 합주 서버(61)는 요청에 응답하여 가상 공간에 모임을 생성하고, 생성결과를 사용자단말1(10a)에 전달하게 된다.6, a user A generates original sound source data including a performance sound source and an image using the user terminal 1 (10a), and requests the server 61 to store the original sound source data generated (S1) . In response to a request from the user terminal 1 (10a), the merging server (61) stores the original sound source data and transmits the storage result to the user terminal (10a) (S2). When the user who confirmed the storage of the original sound source data requests the merging server 61 to generate a merging meeting using the user terminal 1 10a (S3), the merging server 61 responds to the request, And transmits the generated result to the user terminal 1 (10a).

합주서버(61)에 의해 가상 공간에 합주 모임이 생성되면, 사용자A는 사용자단말1(10a)을 이용하여 게시글 등을 작성하고, 저장된 원본 음원데이터를 가상공간에 개시하여 다른 사용자가 합주에 참여 및 원본 음원데이터를 이용할 수 있도록 가상공간을 설정하게 되며(S5), 합주서버(61)는 사용자에 의한 각종 설정, 작성된 글의 개시 상태와 같은 동작결과를 사용자단말1(10a)에 전달하게 된다(S6).When a merging meeting is created in the virtual space by the merging server 61, the user A creates a bulletin or the like using the user terminal 1 (10a), starts the stored original sound source data in the virtual space, And sets the virtual space so as to use the original sound source data (S5), and the merging server 61 transmits the operation result such as various settings made by the user and the start state of the created article to the user terminal 1 (10a) (S6).

한편, 원본 음원데이터를 작성한 사용자A에 의해 합주 모임이 가상공간에 개설되고, 원본 음원데이터에 합주 음원을 부가할 수 있는 상태로 유지되면, 다른 사용자B가 이를 이용하여 원본음원데이터에 합주 음원을 부가하는 과정이 이루어진다.On the other hand, when the group meeting is opened in the virtual space by the user A who created the original sound source data, and the state is maintained such that the combined sound source can be added to the original sound source data, the other user B uses the obtained sound source data, The process of adding is performed.

구체적으로, 합주 음원을 생성하고자 하는 사용자B가 사용자단말2(10b)을 이용하여 네트워크의 서비스시스템(60)에 접속하고, 생성된 합주 모임을 검색하게 된다(S7). 이에 따라 사용자단말2(10b)로부터 합주 모임 검색 요청을 받은 합주 서버(61)는 사용자A를 포함한 복수의 사용자들에 의해 개설된 가상 공간에 대한 결과를 사용자단말2(10b)로 전달하게 된다(S8). 결과를 전달받은 사용자B는 사용자단말2(10b)을 이용하여 가상 공간 즉 합주 모임 리스트를 확인하고, 이 중 어느 하나를 선택하게 되며 선택 결과가 사용자단말(10b)에 의해 합주서버(61)로 전달된다(S9).Concretely, the user B who wishes to generate a concord sound source accesses the service system 60 of the network using the user terminal 2 (10b) and searches for the generated congregation meeting (S7). Accordingly, the ensemble server 61 receiving the cohesion meeting search request from the user terminal 2 (10b) delivers the result of the virtual space established by the plurality of users including the user A to the user terminal 2 (10b) S8). The user B who has received the result confirms the virtual space, that is, the list of the ensemble meetings using the user terminal 2 (10b), selects one of them, and the selection result is transmitted to the ensemble server 61 by the user terminal 10b (S9).

사용자B에 의해 리스트에 있는 합주 모임 중 어느 하나가 선택되면, 합주서버(61)는 음원서버(81)에 대해 합주를 할 수 있는 가상의 공간인 합주방 생성을 요청한다(S10). 그리고, 생성결과를 음원서버(81)가 합주 서버(61)에 전달하게 되며(S11), 합주방 생성결과 및 합주방 참여정보를 합주서버(61)가 사용자B의 사용자단말(10b)에 전달하게 된다(S12).When any one of the group gatherings in the list is selected by the user B, the grouping server 61 requests the sound source server 81 to create a sum-kitchen, which is a virtual space that can be combined (S10). Then, the result of the generation is transmitted to the combining server 61 by the sound source server 81 (S11), and the combining server 61 transmits the combined kitchen generating result and the combined kitchen participation information to the user terminal 10b of the user B (S12).

합주방 개설이 확인되면 사용자B는 사용자단말(10b)을 통해 합주방에 참여하여, 합주 음원데이터를 음원서버(81)에 전달하며(S13), 음원서버(81)는 사용자B로부터 전달되는 합주 음원데이터를 합주서버(61)에 전달하여 저장을 요청하게 된다(S14). 이와 함께 합주서버(61)는 음원 데이터의 저장결과를 사용자B에게 전달하거나(S15), 사용자B로부터의 글쓰기와 같은 요청을 수행하고(S16), 이에 대한 결과를 사용자B의 사용자단말(10b)로 전송하는 등의 과정을 통해 서비스를 제공하게 된다.The user B participates in the kitchen through the user terminal 10b and transmits the concordant sound source data to the sound source server 81 in step S13 and the sound source server 81 transmits the concord sound source data to the sound source server 81, And transmits the sound source data to the ensemble server 61 to request storage (S14). At the same time, the merging server 61 transmits the result of storing the sound source data to the user B (S15), performs a request such as writing from the user B (S16), and sends the result to the user terminal 10b of the user B And the like.

도 7은 본 발명에 따른 온라인 음원제작 방법을 설명하기 위한 예시도이다.7 is an exemplary diagram for explaining a method of producing an online sound source according to the present invention.

도 7을 참조하면, 본 발명에 따른 온라인 음원제작 및 서비스 방법은 합주요청 수신단계(S100), 실시간합주 판단단계(S110), 원본음원데이터 수신 및 저장단계(S120), 합주 참여요청 수신 단계(S130), 합주 음원데이터 수신 및 저장단계(S140), 합주종료 판단단계(S150) 및 음원제공 단계(S160)을 포함하여 구성된다.Referring to FIG. 7, the online music source producing and service method according to the present invention includes steps S100, S21, S 120, S 120, S130), receiving and storing the concatenated sound source data (S140), determining the concluding end (S150), and providing the sound source (S160).

합주요청 수신단계(S100)는 서비스 시스템(60)에 사용자단말(10)로부터 합주요청이 수신되는 단계이다. The merging request receiving step S100 is a step in which a merging request is received from the user terminal 10 to the service system 60. [

실시간 합주 판단 단계(S110)는 합주요청이 수신되면 서비스 시스템(60) 사용자단말(10)로부터의 요청에 따른 합주가 실시간 합주인지, 비실시간합주인지 판단하는 단계이다. 실시간 합주 판단 단계(S110)에서 서비스 시스템(60)은 실시간 합주인 경우 사용자단말(10)과의 통신을 통해 합주방 생성 단계(S125)를 수행하고, 그렇지 않은 경우 원본음원 데이터 수신 및 저장단계(S120)를 진행한다.The real-time concluding determination step (S110) is a step of determining whether the concatenation according to a request from the user terminal (10) of the service system (60) is a real-time concatenation or a non- In the real-time concluding judgment step S110, the service system 60 performs the sum-kitchen generation step S125 through communication with the user terminal 10 in case of real-time concordance, and if not, the original sound source data reception and storage step S120).

원본 음원데이터 수신 및 저장단계(S120)는 서비스시스템(60)이 사용자단말(10)에서 작성된 원본 음원 데이터를 수신하여 저장하는 단계이다. 이 원본 음원데이터 수신 및 저장단계(S120)에서 서비스시스템(60)은 동기가 이루어진 채로 영상과 음향이 분리된 원본 음원데이터를 수신하여 수신된 형태로 데이터를 저장하거나, 분리되지 않은 영상과 음향을 동기가 유지된 채로 분리하여 저장하게 된다.The original sound source data reception and storage step (S120) is a step in which the service system 60 receives and stores original sound source data created in the user terminal 10. In the step S120, the service system 60 receives the original sound source data in which the image and sound are separated and stores the data in the received form, And stored separately in synchronization.

합주 참여요청 수신 단계(S130)는 합주 음원 데이터 작성을 위한 원본 음원데이터가 준비되면, 합주 요청 및 참여를 위해 서비스 시스템(60)은 합주 리스트를 작성하여 게시하고 이를 다른 사용자의 사용자단말(10)에 제공하여 다른 사용자의 참여를 대기하게 된다. 이후 다른 사용자의 사용자단말(10)로부터 서비스시템(60)이 합주 참여 요청을 수신하게 되고, 이에 대한 정보의 제공이 이루어지게 된다. 이 합주 참여요청 수신 단계(S130)에서 서비스 시스템(60)은 요청자에 대해 원본 음원 데이터를 제공하는 등의 응답을 수행하게 된다.When the original sound source data for creating the merged sound source data is prepared, the service system 60 creates and posts an ordered list for participation request and participation, and transmits the merged list to the user terminal 10 of another user, And waits for other users to participate. Thereafter, the service system 60 receives a request for participation in association from the user terminal 10 of another user, and information on the association request is provided. In the merging participation request receiving step S130, the service system 60 performs a response such as providing the original sound source data to the requester.

합주 음원데이터 수신 및 저장단계(S140)는 합주를 요청하여 원본 음원 데이터를 제공받아 이에 대한 합주 음원 데이터를 작성한 사용자의 사용자단말로부터 서비스 시스템(60)이 합주 음원 데이터를 수신하여 저장하는 단계이다. 이때, 서비스 시스템(60)은 사용자단말(10)로부터 원본 음원 데이터에 부가되는 부가 음원 데이터와 원본 음원 데이터와의 동기 정보만을 제공받아, 저장된 원본 음원데이터 부가하여 합주 음원데이터를 작성하고 저장할 수 있다. 또는 서비스 시스템(60)은 사용자단말(10)로부터 원본 음원데이터에 부가 음원데이터가 부가되어 사용자단말(10)에 의해 작성된 합주 음원데이터를 전달받아 저장할 수도 있으나, 이로써 본 발명을 한정하는 것은 아니다. 특히, 서비스 시스템(60)은 원본 음원데이터와 각 사용자에 의해 부가되는 음원데이터를 서로 간의 동기를 유지한 채 각각의 데이터로 분리하여 저장하고, 분리된 데이터 형태로 각 사용자 또는 신규 사용자에게 제공하게 된다.The step S 140 of receiving and storing the concatenated sound source data is a step in which the service system 60 receives and stores the concatenated sound source data from the user terminal of the user who receives the original sound source data by requesting the concatenation sound source data. At this time, the service system 60 receives only the synchronization information between the additional sound source data added to the original sound source data and the original sound source data from the user terminal 10, and creates and stores the merged sound source data by adding the stored original sound source data . Alternatively, the service system 60 may receive additional sound source data from the user terminal 10 and store the received sound source data generated by the user terminal 10, but the present invention is not limited thereto. In particular, the service system 60 separates the original sound source data and the sound source data added by each user into separate data while keeping the synchronization between them, and provides the separated data to each user or new user do.

합주종료 판단단계(S150)는 서비스 시스템(60)이 원본 음원 데이터 및 합주 요청 사용자의 종료 요청 또는 기타 설정 조건에 부합하여 합주 음원 데이터의 생성이 완료되었는지 판단하는 단계이다. 이 합주종료 판단단계(S150)에서 서비스 시스템(60)은 합주가 유지되는 것으로 판단되면 합주 참여 요청 단계(S130) 및 이후의 단계를 수행한여 합주 음원 데이터의 생성을 지속하게 된다.In the merging termination determination step S150, the service system 60 determines whether the generation of the merging source data has been completed in accordance with the original sound source data, the termination request of the merging request user, or other setting conditions. If it is determined that the ensemble is maintained, the service system 60 continues to generate the concatenated concourse data by performing the concatenation participation request step S130 and subsequent steps in the concluding end determination step S150.

음원제공 단계(S160)는 합주 종료 판단단계(S150)에서 판단결과 합주가 종료된 것으로 판단되면, 서비스 시스템(60)은 생성된 합주 음원 데이터를 스트리밍 또는 다운로드 서비스에 의해 사용자 또는 다른 사용자들에게 제공하게 된다.If it is determined in step S160 that the concluding of the concluding is completed, the service system 60 provides the generated concurrent sounding data to the user or other users by streaming or downloading service .

한편, 전술한 실시간 합주 판단단계(S110)에서 합주 요청이 실시간 합주인 것으로 판단되면, 서비스 시스템(60)은 실시간 합주를 위한 가상공간의 개설, 실시간 합주방 리스트 및 합주방을 생성하여 네트워크에 개시하게 된다(S150).If it is determined in step S110 that the merging request is real-time merging, the service system 60 creates a virtual space for real-time merging, a real-time sum-of-kitchen list, (S150).

그리고, 합주방이 생성된 후의 과정은 합주 참여요청(S130) 및 합주 음원데이터의 수신 및 저장단계(S140)와 유사하다. 다만 실시간 합주의 경우 개별적인 부가 음원 데이터가 작성되어 실시간 녹음, 원본 음원 데이터에 대한 부가 데이터의 부가가 이루어지는 점에서 차이점을 제외하곤 비실시간 합주 데이터의 생성 과정과 유사하다. 아울러, 실시간 합주에 의해 작성된 합주 음원 데이터의 각 사용자 음원, 영상은 각각 분리된 형태로 저장, 관리 및 재생될 수 있다.The process after the sum kitchen is created is similar to the concurrent participation request (S130) and the receiving and storing step (S140). However, in the case of real-time concatenation, individual additional sound source data is created, and real time recording and addition of additional data to the original sound source data are performed. In addition, each user's sound source and image of the ensemble sound source data created by real-time mixing can be stored, managed and reproduced separately.

이상에서 본 발명의 기술적 사상을 예시하기 위해 구체적인 실시 예로 도시하고 설명하였으나, 본 발명은 상기와 같이 구체적인 실시 예와 동일한 구성 및 작용에만 국한되지 않고, 여러가지 변형이 본 발명의 범위를 벗어나지 않는 한도 내에서 실시될 수 있다. 따라서, 그와 같은 변형도 본 발명의 범위에 속하는 것으로 간주해야 하며, 본 발명의 범위는 후술하는 특허청구범위에 의해 결정되어야 한다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, . ≪ / RTI > Accordingly, such modifications are deemed to be within the scope of the present invention, and the scope of the present invention should be determined by the following claims.

10 : 사용자단말
11 : 악기
60 : 서비스 시스템
61 : 합주서버
81 : 음원서버
10: User terminal
11: Musical instruments
60: Service system
61: Coupling Server
81: Sound source server

Claims (18)

복수의 사용자 단말과 통신망을 통해 연결되고, 복수의 상기 사용자 단말 각각을 통해 전달되는 음원 데이터에 의해 생성되는 합주 음원데이터를 저장하며, 상기 사용자 단말의 요청에 따라 제공하는 서비스 시스템을 포함하여 구성되며,
상기 합주 음원데이터는,
복수의 상기 사용자 중 어느 하나의 상기 사용자 단말로부터 생성되는 원본 음원데이터;
복수의 상기 사용자 중 다른 사용자의 사용자 단말에 의해 생성되고 상기 원본 음원데이터에 동기되는 부가 음원데이터;가 결합되어 생성되며,
상기 합주 음원데이터는,
복수의 상기 사용자 단말 각각으로부터 전달되며, 원본 또는 부가 음원 데이터를 포함하는 복수의 상기 음원데이터가 결합되어 생성되되, 결합되는 상기 음원 데이터는 개별 데이터를 유지한 상태로 상호 결합되며, 상기 음원 데이터 상호 간의 동기가 이루어지는 것을 특징으로 하는, 온라인 음원 제작 시스템.
And a service system connected to the plurality of user terminals through a communication network and storing concordant sound source data generated by the sound source data transmitted through each of the plurality of user terminals and providing the concordant sound source data upon request of the user terminal ,
The concordant sound source data includes:
Source sound source data generated from any one of the plurality of users;
And additional sound source data generated by a user terminal of another user among the plurality of users and synchronized with the original sound source data,
The concordant sound source data includes:
Wherein the sound source data is transmitted from each of the plurality of user terminals and is generated by combining a plurality of sound source data including original or additional sound source data, wherein the sound source data to be combined is mutually coupled while maintaining individual data, Wherein the synchronization is performed between the first sound source and the second sound source.
제 1 항에 있어서,
상기 음원데이터는 연주 음향과 상기 사용자에 의해 지정된 영상을 포함하는 것을 특징으로 하는 온라인 음원 제작 시스템.
The method according to claim 1,
Wherein the sound source data includes a performance sound and an image designated by the user.
제 1 항에 있어서,
상기 사용자 단말은 상기 서비스 시스템에서 상기 음원 데이터를 검색하는 것을 특징으로 하는, 온라인 음원 제작 시스템.
The method according to claim 1,
Wherein the user terminal searches the sound source data in the service system.
제 2 항에 있어서,
상기 서비스 시스템은
상기 원본 음원데이터를 상기 다른 사용자의 사용자단말에 제공하고,
상기 원본 음원데이터의 제공에 의해 생성되는 상기 부가 음원데이터를 상기 다른 사용자의 사용자단말로부터 제공받는 것을 특징으로 하는 온라인 음원 제작 시스템.
3. The method of claim 2,
The service system
Providing the original sound source data to the user terminal of the other user,
Wherein the additional sound source data generated by providing the original sound source data is provided from the user terminal of the another user.
제 2 항에 있어서,
상기 합주 음원데이터는
상기 서비스 시스템에 접속한 복수의 상기 사용자 단말에 의해 동시에 생성되는 복수의 상기 음원데이터를 결합하여 작성되는 것을 특징으로 하는 온라인 음원 제작 시스템.
3. The method of claim 2,
The concordant sound source data
And a plurality of the sound source data generated at the same time by the plurality of user terminals connected to the service system are combined and created.
제 5 항에 있어서,
상기 서비스 시스템은
복수의 상기 사용자단말 각각에 다른 사용자단말로부터 전달되는 상기 음원데이터를 공급하는 것을 특징으로 하는 온라인 음원 제작 시스템.
6. The method of claim 5,
The service system
And supplies the sound source data transmitted from another user terminal to each of the plurality of user terminals.
삭제delete 제 1 항에 있어서,
상기 합주 음원데이터는
영상과 음향의 동기가 유지되는 상태에서 서로 구분되어 작성되는 것을 특징으로 하는 온라인 음원 제작 시스템.
The method according to claim 1,
The concordant sound source data
Wherein the audio signal is generated in a state in which the synchronization of the video and the sound is maintained.
서비스시스템이 복수의 사용자 단말과 통신망을 통해 연결되는 단계;
상기 서비스시스템이 복수의 상기 사용자 단말로부터 생성되어 전달되는 음원데이터를 수신하는 단계;
상기 서비스시스템이 복수의 상기 음원데이터에 의해 생성되는 합주 음원데이터를 저장하는 단계; 및
상기 서비스 시스템이 상기 사용자 단말을 포함하는 단말장치의 요청에 따라 상기 합주 음원데이터를 제공하는 단계;를 포함하여 구성되며,
상기 합주 음원데이터는
복수의 상기 사용자 단말 중 어느 하나의 사용자 단말로부터 생성되는 원본 음원데이터;
복수의 상기 사용자 단말 중 나머지 사용자 단말로부터 생성되고 상기 원본 음원데이터에 동기되어 생성되는 부가 음원데이터;가 결합되어 생성되며,
상기 합주 음원데이터는
복수의 상기 사용자 단말 각각으로부터 전달되며, 원본 또는 부가 음원데이터를 포함하는 복수의 상기 음원데이터가 결합되어 생성되되, 결합되는 상기 음원 데이터는 개별 데이터를 유지한 상태로 상호 결합되며, 상기 음원 데이터 상호 간의 동기가 이루어지는 것을 특징으로 하는,
온라인 음원 제작 방법.
The service system being connected to a plurality of user terminals through a communication network;
Receiving the sound source data generated and transmitted from the plurality of user terminals by the service system;
The service system storing concatenated sound source data generated by a plurality of sound source data; And
And the service system providing the concordant sound source data according to a request of a terminal device including the user terminal,
The concordant sound source data
Source sound source data generated from any one of a plurality of user terminals;
And additional sound source data generated from the remaining user terminals of the plurality of user terminals and generated in synchronization with the original sound source data,
The concordant sound source data
Wherein the sound source data is transmitted from each of the plurality of user terminals and is generated by combining a plurality of sound source data including original or additional sound source data, wherein the sound source data to be combined is mutually coupled while maintaining individual data, Wherein the synchronization is performed between the first and second synchronization signals.
How to make an online music source.
제 9 항에 있어서
상기 음원데이터 또는 상기 합주 음원데이터는
연주 음향과 상기 사용자에 의해 지정되는 영상을 포함하는 것을 특징으로 하는 온라인 음원 제작 방법.
The method of claim 9, wherein
The sound source data or the concatenated sound source data
And an image designated by the user.
제 9항에 있어서,
상기 사용자 단말이 상기 서비스 시스템에서 상기 음원 데이터를 검색하는 단계;
를 더 포함하는,
온라인 음원 제작방법.
10. The method of claim 9,
The user terminal retrieving the sound source data from the service system;
≪ / RTI >
How to make an online music source.
제 9 항에 있어서,
상기 음원 데이터를 수신하는 단계 또는 상기 합주 음원데이터를 저장하는 단계;는
상기 서비스 시스템이 상기 원본 음원데이터를 상기 나머지 사용자 단말에 제공하고, 상기 나머지 사용자 단말로부터 상기 부가 음원데이터를 수신하는 단계;를 포함하여 구성되는 것을 특징으로 하는 온라인 음원 제작방법.
10. The method of claim 9,
The step of receiving the sound source data or storing the merged sound source data
And the service system providing the original sound source data to the remaining user terminals and receiving the additional sound source data from the remaining user terminals.
제 10 항에 있어서,
상기 음원데이터를 수신하는 단계 또는 상기 합주 음원데이터를 저장하는 단계;는
상기 합주 음원데이터가 상기 서비스 시스템에 접속된 복수의 상기 사용자 단말에 의해 동시에 생성되는 복수의 상기 음원데이터가 결합되어 작성되는 것을 특징으로 하는 온라인 음원 제작 방법.
11. The method of claim 10,
The step of receiving the sound source data or storing the merged sound source data
And a plurality of the sound source data generated at the same time by the plurality of user terminals connected to the service system are combined and created.
제 13 항에 있어서,
상기 음원데이터를 수신하는 단계 또는 상기 합주 음원데이터를 저장하는 단계;는
상기 서비스 시스템이 복수의 상기 사용자 단말 각각에 대해 다른 사용자 단말로부터 전달되는 상기 음원데이터를 공급하는 단계를 더 포함하여 구성되는 것을 특징으로 하는 온라인 음원 제작 방법.
14. The method of claim 13,
The step of receiving the sound source data or storing the merged sound source data
Wherein the service system further comprises the step of supplying the sound source data transmitted from another user terminal to each of the plurality of user terminals.
삭제delete 제 9 항에 있어서,
상기 합주 음원데이터는
영상과 음향의 동기가 이루어진 상태에서 개별 데이터를 유지한 상태로 상호 결합되는 것을 특징으로 하는 온라인 음원 제작 방법.
10. The method of claim 9,
The concordant sound source data
Wherein the audio data and the audio data are synchronized with each other while maintaining individual data in a state in which video and sound are synchronized.
제 9 항에 있어서,
상기 음원데이터를 수신하는 단계는
복수의 상기 사용자 단말 중 어느 하나로부터 합주 요청을 수신하는 단계;
상기 서비스 시스템이 상기 합주 요청에 응답하여 합주 음원데이터를 생성하는 합주 참여자의 상기 사용자 단말이 접속되는 가상의 합주방을 생성하는 단계; 및
상기 합주방에 접속된 상기 사용자 단말로부터 상기 음원데이터를 수신하는 단계;를 포함하여 구성되는 것을 특징으로 하는 온라인 음원 제작 방법.
10. The method of claim 9,
The step of receiving the sound source data
Receiving an association request from any one of the plurality of user terminals;
Generating a virtual sum-kitchen in which the service system is connected to the user terminal of the ensemble participant in response to the ensemble request and generating the ensemble sound data; And
And receiving the sound source data from the user terminal connected to the sum main unit.
제 17 항에 있어서,
상기 서비스 시스템이 상기 합주 요청이 실시간 합주 요청인지 비실시간 합주 요청인지 판단하는 실시간 합주 판단 단계;를 더 포함하여 구성되는 것을 특징으로 하는 온라인 음원 제작 방법.
18. The method of claim 17,
Wherein the service system further comprises a real-time concord determination step of determining whether the concatenation request is a real-time concurrent request or a non-real-time concordance request.
KR1020130105216A 2013-09-03 2013-09-03 Online Music Production System And Method KR101650071B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130105216A KR101650071B1 (en) 2013-09-03 2013-09-03 Online Music Production System And Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130105216A KR101650071B1 (en) 2013-09-03 2013-09-03 Online Music Production System And Method

Publications (2)

Publication Number Publication Date
KR20150027419A KR20150027419A (en) 2015-03-12
KR101650071B1 true KR101650071B1 (en) 2016-08-22

Family

ID=53022757

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130105216A KR101650071B1 (en) 2013-09-03 2013-09-03 Online Music Production System And Method

Country Status (1)

Country Link
KR (1) KR101650071B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102423907B1 (en) 2022-03-03 2022-07-21 주식회사 바로세움 Sound source manufacturing system using AI

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013135310A (en) * 2011-12-26 2013-07-08 Sony Corp Information processor, information processing method, program, recording medium, and information processing system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100616102B1 (en) * 2004-02-25 2006-08-25 정시욱 System and method for producing self-demonstrated music file
KR100695091B1 (en) * 2005-07-28 2007-03-14 에스케이 텔레콤주식회사 Terminal and Method for a Sound Composition
KR100841226B1 (en) * 2006-11-13 2008-06-26 신요한 Method of manufacturing and transmitting music data and recording data using internet or portable terminal

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013135310A (en) * 2011-12-26 2013-07-08 Sony Corp Information processor, information processing method, program, recording medium, and information processing system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102423907B1 (en) 2022-03-03 2022-07-21 주식회사 바로세움 Sound source manufacturing system using AI

Also Published As

Publication number Publication date
KR20150027419A (en) 2015-03-12

Similar Documents

Publication Publication Date Title
CN110910860B (en) Online KTV implementation method and device, electronic equipment and storage medium
CN107925783A (en) Synchronized playback and control to media
WO2013077000A1 (en) Voice link system
MX2008015414A (en) Communication terminals and methods for prioritizing the playback of distributed multimedia files.
JP2012249275A (en) Content simultaneous playback terminal, content simultaneous playback system, and content simultaneous playback method
JP4219234B2 (en) Karaoke system, music performance communication device, and performance synchronization method
JP2014082582A (en) Viewing device, content provision device, viewing program, and content provision program
CN102065340B (en) System and method for implementing multimedia synchronous interaction
JP5380109B2 (en) Karaoke service system, distribution server, terminal device
TWI244838B (en) Method of karaoke by network system
JP2004015750A (en) Live distribution server and live distribution method
JP2003223407A (en) Contents sharing support system, user terminal, contents sharing support server, method and program for sharing contents among users, and recording medium for the program
JP2009009158A (en) Karaoke system, music performance communication device, and communication method in music performance communication device
KR101650071B1 (en) Online Music Production System And Method
JP6785169B2 (en) Karaoke device, remote control device
JP5665192B2 (en) Karaoke music selection system using personal portable terminal
JP2021182696A (en) Method and system for bidirectional broadcast
JP5249546B2 (en) Karaoke system using the Internet
KR20210026656A (en) Musical ensemble performance platform system based on user link
JP5349171B2 (en) Karaoke system with performance condition setting function
JP5224509B2 (en) Karaoke host device, karaoke recording system
JP5376232B2 (en) Communication playback system, communication playback method, program
JP2010060627A (en) Karaoke system
JP2011193372A (en) Information management apparatus, information terminal, and information content viewing method
JP6220576B2 (en) A communication karaoke system characterized by a communication duet by multiple people

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant