KR102294752B1 - Remote sound sync system and method - Google Patents

Remote sound sync system and method Download PDF

Info

Publication number
KR102294752B1
KR102294752B1 KR1020200114746A KR20200114746A KR102294752B1 KR 102294752 B1 KR102294752 B1 KR 102294752B1 KR 1020200114746 A KR1020200114746 A KR 1020200114746A KR 20200114746 A KR20200114746 A KR 20200114746A KR 102294752 B1 KR102294752 B1 KR 102294752B1
Authority
KR
South Korea
Prior art keywords
terminal
performance data
latency
time difference
remote sound
Prior art date
Application number
KR1020200114746A
Other languages
Korean (ko)
Inventor
송영일
김형묵
한지예
Original Assignee
김형묵
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김형묵 filed Critical 김형묵
Priority to KR1020200114746A priority Critical patent/KR102294752B1/en
Application granted granted Critical
Publication of KR102294752B1 publication Critical patent/KR102294752B1/en

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/365Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems the accompaniment information being stored on a host computer and transmitted to a reproducing terminal by means of a network, e.g. public telephone lines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/44Tuning means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • G10H7/002Instruments in which the tones are synthesised from a data store, e.g. computer organs using a common processing for different operations or calculations, and a set of microinstructions (programme) to control the sequence thereof
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines

Abstract

Disclosed is a remote sound synchronization system to provide the same effect as when musicians of each instrument play in an ensemble at the same time while playing with a time difference at different times. To this end, the remote sound synchronization system comprises: a network communication unit connected to a plurality of user terminals through a network and checking latency with each user terminal; and a time difference synchronization unit determining a time interval of performance data to be transmitted from the preceding terminal to the succeeding terminal with reference to a latency between the preceding terminal, which first generate the performance data among the user terminals, and the succeeding terminal, combining succeeding performance data generated in the succeeding terminal with preceding performance data to generate and provides ensemble data to the user terminal of the next performer, thereby allowing each user to perform synchronized performances in each user terminal.

Description

원격 사운드 동기화 시스템 및 방법{Remote sound sync system and method}Remote sound sync system and method

본 발명은 다수의 연주자가 이전 연주자의 연주데이터를 순차로 받아 동기화된 합주 데이터를 생성하는 원격 사운드 동기화 시스템 및 방법에 관한 것이다.The present invention relates to a remote sound synchronization system and method in which a plurality of performers sequentially receive performance data of a previous player to generate synchronized ensemble data.

여러 악기가 함께 연주되는 연주 형태로서 합주는 각 악기별 특색있는 음색이 어울려 단일 악기로 연주되는 독주와는 다른 느낌의 음을 구현할 수 있다. 합주는 독주와는 달리 개개인이 가진 기량의 총합으로 연주결과가 도출되지 않는다. 합주는 각 연주자가 타 연주자와 호흡을 맞추는 것이 매우 중요하며, 그렇지 못한 경우 각 연주자의 음이 상호 부조화를 이루어 쉽게 거슬리는 특징이 있다. 합주는 박자와 음의 세기, 및 연주자 간 상호 타이밍의 예술이라 할 것이다.As a form of performance in which several instruments are played together, an ensemble can realize a sound different from that of a solo performed with a single instrument because the unique tones of each instrument match. Unlike solo ensemble, performance results are not derived from the sum of individual skills. In an ensemble, it is very important for each performer to harmonize with the other performers, otherwise the notes of each performer will harmonize with each other and are easily disturbed. An ensemble is the art of timing, pitch, and mutual timing between performers.

이러한 합주를 위해 많은 음악 동호인들은 각자의 악기를 들고 정해진 날에 모여 연습을 하면서 합주의 호흡을 맞춘다. 이들 음악 동호인들이 가장 중시하는 것 중 하나가 실력이 좋든 나쁘든 일정한 시간에 단원들이 모이는 것을 가장 중요시하는데, 이는 하나의 악보를 다수가 연주하는 합주의 특성 상 연주자들이 팀웍을 이루는데 있어서 가장 중요한 요소이기 때문이다. 연주 실력은 오히려 부차적인 경우로 치부되는 경우도 종종 언급되고 있다. For such an ensemble, many music lovers gather together on a set day with their respective instruments to practice and match the breath of the ensemble. One of the most important things for these music enthusiasts is that the members gather at a certain time regardless of whether their skills are good or bad. because it wins Performance skills are often referred to as secondary cases.

그러나, 여러 동호인들의 개인적인 스케줄과 업무로 인해 동일 시간에 약속을 하고 모이는 일이 쉽지 않고, 코로나 19와 같은 전염병으로 인해 사람들 간의 모임이 자제되는 사회적 상황은 합주를 연습하거나 연주하기 어려운 환경을 만들기도 한다. 이에 대해, However, it is not easy to make an appointment and get together at the same time due to the personal schedules and work of several club members, and the social situation where people are restricted from gatherings due to infectious diseases such as Corona 19 makes it difficult to practice or perform ensembles. do. About this,

대한민국 등록특허 제10-1222711호는 다수의 연주 파트 중 연주자가 담당하는 파트만 제외된 연주데이터를 받고, 연주자가 제외된 파트를 연주함으로써 합주의 효과를 얻는 "합주 게임을 제공하는 서버"를 제안한 바 있다. 그러나, 등록특허 제10-1222711호는 이미 정해진 연주데이터가 존재하므로, 여러 연주자가 실제 호흡을 맞추어 연주하는 합주를 구현할 수 없다.Republic of Korea Patent No. 10-1222711 proposes a "server providing an ensemble game" that receives performance data excluding only the part in charge of the performer among a plurality of performance parts, and obtains the effect of the ensemble by playing the part where the player is excluded. there is a bar However, in Patent Registration No. 10-1222711, since predetermined performance data exists, it is impossible to implement an ensemble in which several performers actually perform in sync with each other.

또한, 대한민국 등록특허 제10-1133906호는 합주에 참여하는 각 악기의 연주데이터 중 합주 참여자가 원하는 것만 추출하여 합주 참여자에게 제공함으로써 합주 참여자가 쉽게 합주에 참여할 수 있도록 하며, 각 악기별 연주데이터를 각각의 단말기에서 재생토록 함으로써 오케스트라의 분위기를 내도록 하는 "합주 연주 서비스 제공 방법 및 시스템"을 제안한 바 있다.In addition, Republic of Korea Patent Registration No. 10-1133906 discloses that the ensemble participant can easily participate in the ensemble by extracting only what the ensemble participant wants out of the performance data of each instrument participating in the ensemble and providing it to the ensemble participant, and provides performance data for each instrument. A "method and system for providing an ensemble performance service" has been proposed to create an orchestra atmosphere by allowing each terminal to play.

그러나, 등록특허 제10-1133906호는 데이터베이스에 수록되어 있는 MIDI 파일을 각 사용자 단말에 제공하되, 합주 참여자에게 특정 악기의 음원만 추출하여 제공하므로 연주자들이 실제 합주를 한다는 느낌보다는 악보에 기록된 것에 맞추어 연주를 한다는 측면이 크다. 실제 합주는 연주자 단독의 기량이 좋고 나쁨을 가리는 것이 아니라 타 연주자와의 팀워크가 요구되는 분야임이 간과되고 있다.However, Patent Registration No. 10-1133906 provides a MIDI file recorded in a database to each user terminal, but extracts and provides only the sound source of a specific instrument to the ensemble participant, so that the performers feel that they are actually performing an ensemble rather than a feeling recorded in the sheet music. There is a big aspect of playing along. It is overlooked that the actual ensemble is a field that requires teamwork with other performers, rather than determining the good or bad skills of an individual performer.

본 발명의 목적은 네트워크 접속된 다수의 연주자가 실제 합주에 가장 가까운 형태로 연주를 수행할 수 있도록 하는 원격 사운드 동기화 시스템을 제공하는데 있다. SUMMARY OF THE INVENTION It is an object of the present invention to provide a remote sound synchronization system that enables a plurality of network-connected performers to perform in a form closest to an actual ensemble.

또한, 본 발명의 다른 목적은 다수의 연주자가 합주를 진행하면서도 동일 시간의 합주가 아닌 비동기식 합주를 수행토록 하여 네트워크 지연이나 트래픽에 의한 영향을 최소화하는 원격 사운드 동기화 시스템을 제공하는데 있다.Another object of the present invention is to provide a remote sound synchronization system that minimizes the influence of network delay or traffic by allowing a plurality of performers to perform an asynchronous ensemble rather than an ensemble at the same time while performing an ensemble.

상기한 목적은 본 발명에 따라, 복수의 사용자 단말기와 네트워크 연결되며, 상기 각 사용자 단말기와의 레이턴시를 파악하는 네트워크 통신부, 및 상기 각 사용자 단말기 중 연주데이터를 먼저 생성하는 선행 단말기 및 후행 단말기와의 레이턴시(Latency)를 참조하여 상기 선행 단말기에서 상기 후행 단말기로 전송될 상기 연주데이터의 시간 인터벌(interval)을 결정하고, 상기 후행 단말기에서 생성되는 후행연주데이터를 상기 선행연주데이터와 결합하여 합주 데이터를 생성하여 다음번 연주자의 사용자 단말기로 제공함으로써, 상기 각 사용자 단말기에서 각자가 동기화된 연주를 수행토록 하는 시간차 동기화부를 포함하는 원격 사운드 동기화 시스템에 의해 달성된다.The above object is, according to the present invention, a network connection with a plurality of user terminals, a network communication unit for determining the latency with each user terminal, and a preceding terminal and a subsequent terminal for generating performance data first among the user terminals Determine the time interval of the performance data to be transmitted from the preceding terminal to the succeeding terminal with reference to latency, and combine the following performance data generated in the succeeding terminal with the preceding performance data to obtain the ensemble data This is achieved by a remote sound synchronization system including a time difference synchronizer that generates and provides to a user terminal of a next player, so that each user performs a synchronized performance in the respective user terminals.

본 발명에 따르면, 악기별 연주자들은 서로 다른 시간에 시간차 연주를 하면서도 동일 시간대에 합주를 연주한 것과 유사한 효과를 구현할 수 있다. 각각의 연주자는 이전 연주자로부터 전달되는 연주데이터에 자신이 연주한 것을 부가하는 순차적이고 비동기적인 연주 형태를 가지면서도 타 연주자의 연주 진행 또는 결과를 이어받아 청취하면서 연주토록 함으로써 동일한 시간대에 합주를 하는 효과를 얻도록 시간차 동기화를 구현한다. 이를 통해 종래 기술에 언급했던 바와 같이 합주가 추구하는 연주자간 상호 타이밍과 호흡에 대한 문제를 해결한다.According to the present invention, the musicians for each instrument can implement an effect similar to that of performing an ensemble at the same time period while performing the time difference at different times. Each performer has a sequential and asynchronous performance form that adds what he or she has performed to the performance data transmitted from the previous player, and the effect of performing an ensemble at the same time by listening to and listening to the progress or results of other players Implement time difference synchronization to obtain Through this, as mentioned in the prior art, the problem of mutual timing and breathing between the players pursued by the ensemble is solved.

도 1은 본 발명의 일 실시예에 따른 원격 사운드 동기화 시스템을 구비한 단말기 사이의 개념도를 도시한다.
도 2은 본 발명의 일 실시예에 따른 원격 사운드 동기화 시스템에 대한 개념도를 도시한다.
도 3는 본 발명의 일 실시예에 따른 원격 사운드 동기화 시스템에서 각 연주자별 연주 타이밍을 설정하는 방법에 대한 개념도를 도시한다.
도 4은 본 발명의 일 실시예에 따른 원격 사운드 동기화 시스템에서 네트워크의 레이턴시와 패킷에 대한 시간차 동기화 방법 및 녹화 시간 설정 방법에 대한 개념도를 도시한다.
도 5는 본 발명의 일 실시예에 따른 원격 사운드 동기화 시스템에서 지연 전달되는 패킷을 처리하는 일 예에 따른 처리방법을 설명하기 위한 참조도면을 도시한다.
도 6는 본 발명의 일 실시예에 따른 원격 사운드 동기화 시스템에서 지연 전달되는 패킷을 처리하는 다른 예에 따른 처리방법을 설명하기 위한 참조도면을 도시한다.
도 7은 본 발명의 일 실시예에 따른 원격 사운드 동기화 시스템에서 지연 전달되는 패킷을 처리하는 다른 예에 따른 처리방법을 설명하기 위한 참조도면을 도시한다.
도 8은 본 발명의 일 실시예에 따른 원격 사운드 동기화 시스템에서 지연 전달되는 패킷을 처리하는 다른 예에 따른 처리방법을 설명하기 위한 참조도면을 도시한다.
1 shows a conceptual diagram between terminals having a remote sound synchronization system according to an embodiment of the present invention.
2 is a conceptual diagram of a remote sound synchronization system according to an embodiment of the present invention.
3 is a conceptual diagram illustrating a method of setting a performance timing for each player in a remote sound synchronization system according to an embodiment of the present invention.
4 is a conceptual diagram illustrating a method for synchronizing network latency and time difference for packets and a recording time setting method in a remote sound synchronization system according to an embodiment of the present invention.
FIG. 5 is a reference diagram for explaining a processing method according to an example of processing a delayed-delivered packet in a remote sound synchronization system according to an embodiment of the present invention.
FIG. 6 is a reference diagram for explaining a processing method according to another example of processing a delayed-delivered packet in a remote sound synchronization system according to an embodiment of the present invention.
FIG. 7 is a reference diagram for explaining a processing method according to another example of processing a delayed-delivered packet in a remote sound synchronization system according to an embodiment of the present invention.
FIG. 8 is a reference diagram for explaining a processing method according to another example of processing a delayed-delivered packet in a remote sound synchronization system according to an embodiment of the present invention.

본 명세서에 기재되는 사용자 단말기는 스마트폰, 노트북, PC(Personal Computer), 및 기타 네트워크 통신이 가능하고, 스피커 및 마이크를 구비하는 다양한 단말기들 중 어느 하나를 지칭할 수 있다.The user terminal described in this specification may refer to any one of various terminals capable of communicating with a smart phone, a notebook computer, a personal computer (PC), and other networks, and having a speaker and a microphone.

본 명세서에 기재되는 "레이턴시"(Latency)는 본 발명에 따른 원격 사운드 동기화 시스템과 사용자 단말기 사이의 응답지연, 또는 사용자 단말기 사이에 발생하는 응답지연 중 어느 하나를 지칭할 수 있다. 사용자 단말기와 원격 사운드 동기화 시스템 사이의 레이턴시는 통상적으로 Ping 테스트에 의해 얻어지는 값을 지칭할 수 있다.As used herein, “latency” may refer to either a response delay between the remote sound synchronization system and the user terminal according to the present invention, or a response delay occurring between the user terminals. The latency between the user terminal and the remote sound synchronization system may refer to a value typically obtained by a ping test.

본 명세서에 기재되는 선행 단말기와 후행 단말기는 사용자 단말기 중 연주 순서에 따라 구분되는 것으로 이해되어야 한다. 선행 단말기는 후행 단말기 대비 먼저 연주를 시작하여 연주데이터를 생성하여 본 발명에 따른 원격 사운드 동기화 시스템으로 연주데이터를 전송하는 단말기를 지칭할 수 있다.It should be understood that the preceding terminal and the following terminal described in this specification are distinguished according to the order of performance among the user terminals. The preceding terminal may refer to a terminal that starts playing before a subsequent terminal to generate performance data and transmits the performance data to the remote sound synchronization system according to the present invention.

또한, 후행 단말기는 하나, 둘, 셋 또는 그 이상의 복수개일 수 있다.In addition, there may be one, two, three or more of the following terminals.

이하, 도면을 참조하여 본 발명을 상세히 설명하도록 한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

도1은 다수의 단말기 사이의 관계를, 도 2는 본 발명의 일 실시예에 따른 원격 사운드 동기화 시스템에 대한 개념도를 도시한다.FIG. 1 shows a relationship between a plurality of terminals, and FIG. 2 shows a conceptual diagram of a remote sound synchronization system according to an embodiment of the present invention.

도 2를 참조하면 실시예에 따른 원격 사운드 동기화 시스템(100)은 복수의 사용자 단말기(10a 내지 10n)와 네트워크 접속되며, 네트워크 통신부(110), 시간차 동기화부(120) 및 버퍼(130)를 포함하여 구성될 수 있다.Referring to FIG. 2 , the remote sound synchronization system 100 according to the embodiment is network-connected to a plurality of user terminals 10a to 10n, and includes a network communication unit 110 , a time difference synchronization unit 120 and a buffer 130 . can be configured.

네트워크 통신부(110)는 선행 사용자 단말기(10a 내지 10(n-1))와 Ping 테스트를 수행하여 레이턴시(Latency)를 측정한다. 레이턴시의 측정은 사용자 단말기(10a 내지 10n) 사이에 측정된다.The network communication unit 110 measures latency by performing a ping test with the preceding user terminals 10a to 10(n-1). The measurement of latency is measured between the user terminals 10a to 10n.

레이턴시(1 내지 n-1)는 선행 사용자 단말기(10a 내지 10(n-1) 중 어느 하나)와 후행 사용자 단말기(10(a+1) 내지 10n 중 다른 하나) 사이의 레이턴시를 의미한다.The latency (1 to n-1) refers to the latency between the preceding user terminal (any one of 10a to 10(n-1)) and the following user terminal (the other one of 10(a+1) to 10n).

예컨대, 레이턴시k는 a<=k<n-1인 k에서 선행 단말기(10k)와 후행 단말기(10(k+1)) 사이에 측정되는 측정값에 해당한다. For example, the latency k corresponds to a measured value measured between the preceding terminal 10k and the succeeding terminal 10(k+1) at k where a<=k<n-1.

또한, 네트워크 통신부(110)는 시간차 동기화부(120)의 제어에 따라 선행 단말기와 선행 단말기에 이어서 연주데이터를 생성할 후행 단말기 사이의 레이턴시를 측정할 수 있다.In addition, the network communication unit 110 may measure the latency between the preceding terminal and the following terminal to generate performance data following the preceding terminal under the control of the time difference synchronizer 120 .

예컨대, 선행 단말기가 참조부호 "10a"이고, 후행 단말기가 참조부호 "10b", "10c" 및 "10d"라고 가정하면, For example, assuming that the preceding terminal is referenced "10a" and the following terminals are referenced "10b", "10c" and "10d",

3-1) 선행 단말기(10a)와 후행 단말기(10b) 사이의 레이턴시,3-1) latency between the preceding terminal 10a and the succeeding terminal 10b;

3-2) 후행 단말기(10b)와 후행 단말기(10c) 사이의 레이턴시 및 3-2) latency between the trailing terminal 10b and the trailing terminal 10c, and

3-3) 후행 단말기(10c)와 후행 단말기(10d) 사이의 레이턴시를 각각 측정된다.3-3) Each of the latencies between the trailing terminal 10c and the trailing terminal 10d is measured.

시간차 제어부(120)는 합주를 수행할 연주곡에 대해 네트워크 통신부(110)에서 선행단말기와 후행단말기(본 단말기) 사이의 레이턴시(항목 3-1, 항목 3-2, 및 항목 3-3) 산출한 후 이를 참조하여 선행 단말기(10a)에서 후행 단말기(10b)로 전달해야 할 연주데이터의 시간 인터벌(Interval)을 결정할 수 있다.The time difference control unit 120 calculates the latency (item 3-1, item 3-2, and item 3-3) between the preceding terminal and the succeeding terminal (this terminal) in the network communication unit 110 for the performance song to be performed with the ensemble. Then, with reference to this, it is possible to determine a time interval (Interval) of the performance data to be transmitted from the preceding terminal 10a to the succeeding terminal 10b.

시간 인터벌은 선행 단말기(10a)에서 연주데이터가 실시예에 따른 원격 사운드 동기화 시스템(100)에 전송된 후, 버퍼(130)에서 버퍼링 후, 후행 단말기(10b)로 전달할 때의 시간차를 의미할 수도 있다. 시간차 제어부(120)는 선행 단말기(10a)와 후행 단말기(10b) 사이의 시간 인터벌 만큼 선행 단말기(10a)에서 후행 단말기(10b)로 전달되는 연주데이터를 지연 전달한다.The time interval may mean a time difference when performance data is transmitted from the preceding terminal 10a to the remote sound synchronization system 100 according to the embodiment, buffered in the buffer 130, and then transferred to the succeeding terminal 10b have. The time difference control unit 120 delays the performance data transferred from the preceding terminal 10a to the succeeding terminal 10b by the time interval between the preceding terminal 10a and the succeeding terminal 10b.

마찬가지로, 후행 단말기(10b)와 후행 단말기(10c) 사이에 연주데이터가 전달될 때, 시간차 제어부(120)는 후행 단말기(10b)에서 후행 단말기(10c)로 전달되는 연주데이터의 시간 인터벌 만큼 연주데이터(또는 합주 데이터)를 지연 전달할 수 있다. Similarly, when the performance data is transferred between the trailing terminal 10b and the trailing terminal 10c, the time difference control unit 120 is the performance data by the time interval of the performance data transmitted from the trailing terminal 10b to the trailing terminal 10c (or ensemble data) may be delayed.

여기서, 후행 단말기(10b)와 후행 단말기(10c) 양자간의 관계만 살펴보면, Here, looking only at the relationship between the trailing terminal 10b and the trailing terminal 10c,

후행 단말기(10b) -> 후행 단말기(10c) 대비 선행 단말기에 대응하고,The following terminal (10b) -> corresponding to the preceding terminal compared to the following terminal (10c),

후행 단말기(10c) -> 후행 단말기(10b) 대비 후행 단말기에 대응한다.The following terminal 10c -> corresponds to the following terminal compared to the following terminal 10b.

선행 단말기와 후행 단말기의 관계는 연주데이터(또는 합주 데이터, 이하 생략함)를 전달하는 측이 선행 단말기에 해당하고, 전달된 연주데이터를 수신하는 측이 후행 단말기에 대응한다. 다만, 본 명세서에서는 설명과 이해의 편의를 위해 참조부호 "10a"를 선행 단말기라 지칭하고, 나머지 사용자 단말기(10b 내지 10n)를 후행 단말기라 지칭하도록 하며, 참조부호 10b 내지 10n에 속하는 사용자 단말기 또한, 각각의 데이터 전달 순서에 따라 선행 단말기와 후행 단말기로 구분될 수 있음을 밝혀둔다. 선행 단말기와 후행 단말기의 관계는 연주데이터를 전달하는 측과 수신하는 측 사이의 관계에 대한 것이며, 이는 본 명세서 전반에 걸쳐 동일하게 적용되는 바, 이하, 중복되는 설명은 생략하도록 한다.The relationship between the preceding terminal and the succeeding terminal is that the side transmitting the performance data (or ensemble data, hereinafter omitted) corresponds to the preceding terminal, and the side receiving the transmitted performance data corresponds to the following terminal. However, in the present specification, for convenience of explanation and understanding, reference numeral "10a" is referred to as a preceding terminal, and the remaining user terminals 10b to 10n are referred to as subsequent terminals, and user terminals belonging to reference numerals 10b to 10n are also , it should be noted that, according to each data transfer order, it can be divided into a preceding terminal and a succeeding terminal. The relationship between the preceding terminal and the following terminal relates to the relationship between the transmitting side and the receiving side of the performance data, and this is the same throughout this specification, and the redundant description will be omitted below.

후행 단말기(10b)의 시간차 동기화부(120)는 선행 단말기(10a)에서 전달되는 연주자의 연주데이터를 수신하고, 이를 버퍼(130)에 채우고 시간 인터벌에 따라 지연된 시간 후 연주데이터를 재생하여 연주자가 청취할 수 있도록 한다. 후행 단말기(10b)는 연주데이터를 재생하고, 후행 단말기(10b)의 사용자는 재생된 연주데이터를 청취하면서 자신이 연주해야할 부분에 맞추어 연주를 진행할 수 있다. 이때, 후행 연주자는 청취된 연주데이터를 실시간으로 인지하고 타이밍과 호흡을 맞추어 자신의 연주를 진행하게 되며, 후행 단말기(10b)의 시간차 동기화부는 후행 연주자의 후행연주데이터를 제공받는다. The time difference synchronizer 120 of the trailing terminal 10b receives the performance data of the performer transmitted from the preceding terminal 10a, fills it in the buffer 130, and reproduces the performance data after a delayed time according to the time interval, so that the performer make it audible The trailing terminal 10b reproduces the performance data, and the user of the trailing terminal 10b can perform the performance according to the part to be played while listening to the reproduced performance data. At this time, the following player recognizes the listened performance data in real time and performs his/her own performance in accordance with the timing and breathing, and the time difference synchronization unit of the trailing terminal 10b receives the following performance data of the following player.

합성부(140)는 후행 단말기(10b)에 제공된 후행연주데이터를 선행 단말기(10a)에서 생성한 연주데이터에 결합하여 합주 데이터를 생성할 수 있다.The synthesizing unit 140 may generate ensemble data by combining the following performance data provided to the trailing terminal 10b with the performance data generated by the preceding terminal 10a.

생성된 합주 데이터는 다음번 순서에 따른 후행 단말기(10c)로 전달되며, 후행 단말기(10c)의 시간차 동기화부(120)는 마찬가지로 버퍼(130)를 채우고 재생하고 후행 단말기(10c)에서 생성된 후행 연주데이터를 합주 데이터를 제공받은 후 합성부(140)에서 결합하여 2차 합주 데이터를 생성한다. 이런식으로, 시간차 동기화부(120)는 하나의 연주곡과 관련된 연주자 모두의 사용자 단말기(10a 내지 10n)로부터 연주데이터 및 후행연주데이터를 획득하며, 연주 순서에 따라 선행 연주데이터에 후행 연주데이터를 순차로 취합하여 합성부(140)를 통해 최종적인 합주 데이터를 생성할 수 있다.The generated ensemble data is transmitted to the trailing terminal 10c according to the next sequence, and the time difference synchronizer 120 of the trailing terminal 10c likewise fills the buffer 130 and plays it, and the trailing performance generated by the trailing terminal 10c After receiving the ensemble data, the data is combined in the synthesizing unit 140 to generate secondary ensemble data. In this way, the time difference synchronization unit 120 obtains performance data and subsequent performance data from the user terminals 10a to 10n of all players related to one performance piece, and sequentially performs the subsequent performance data to the preceding performance data according to the performance order. , and the final ensemble data may be generated through the synthesizing unit 140 .

여기서, 합주 데이터는, 선행 단말기(10a)에서 생성된 선행연주데이터에 후행 단말기(10b)에서 전송되는 후행연주데이터를 부가하는 방식이 되므로, 아래에 기재하는 바와 같이 각 사용자 단말기로 제공되는 합주 데이터는 점차로 누적되는 형태를 갖는다.Here, since the ensemble data is a method of adding the preceding performance data transmitted from the succeeding terminal 10b to the preceding performance data generated by the preceding terminal 10a, the ensemble data provided to each user terminal as described below has a form of gradual accumulation.

- 아래 -- under -

4-1) 사용자 단말기(10a) -> 사용자 단말기(10b) : 선행 단말기(10a)의 연주데이터4-1) User terminal 10a -> User terminal 10b: performance data of the preceding terminal 10a

4-2) 사용자 단말기(10b) -> 사용자 단말기(10c) : 선행 단말기(10a)의 연주데이터 + 후행 단말기(10b)의 연주데이터4-2) User terminal 10b -> User terminal 10c: performance data of the preceding terminal 10a + performance data of the following terminal 10b

4-3) 사용자 단말기(10c) -> 사용자 단말기(10d) : 선행 단말기(10a)의 연주 데이터 + 후행 단말기(10b)의 연주 데이터 + 후행 단말기(10c)의 연주 데이터4-3) User terminal 10c -> User terminal 10d: performance data of the preceding terminal 10a + performance data of the succeeding terminal 10b + performance data of the succeeding terminal 10c

여기서, 항목 4-1) 내지 4-3)을 보면, 각 사용자 단말기로 전달되는 선행연주데이터나 합주 데이터는 각 사용자 단말기(10b 내지 10n)에 서로 상이한 시간에 순차 전달되는 것을 알 수 있다.Here, referring to items 4-1) to 4-3), it can be seen that the preceding performance data or ensemble data transmitted to each user terminal is sequentially transmitted to each user terminal 10b to 10n at different times.

시간차 동기화부(120)는 네트워크 통신부(110)에서 수신되는 연주데이터(또는 합주 데이터)를 버퍼(130)에 버퍼링한다. The time difference synchronizer 120 buffers the performance data (or ensemble data) received from the network communication unit 110 in the buffer 130 .

5-1) 버퍼(130)에 버퍼링되는 연주데이터(또는 합주 데이터)의 재생되는 시간적 간격을 선행 단말기(10a)와 후행 단말기(10b) 사이의 레이턴시의 최대값에 비례하도록 하며, 본 발명에서는 이를 시간 인터벌이라 지칭한다. 본 발명의 제1실시예에서는 레이턴시 최대값의 1.5 배를 시간 인터벌로 하였다. 5-1) The playback time interval of the performance data (or ensemble data) buffered in the buffer 130 is proportional to the maximum value of the latency between the preceding terminal 10a and the following terminal 10b, and in the present invention, This is called a time interval. In the first embodiment of the present invention, 1.5 times the maximum latency value was set as the time interval.

5-2) 5-2) 제2실시예에서는In the second embodiment 레이턴시의Latency 최대값에at the maximum 레이턴시latency 표준편차를 더한 값에 standard deviation plus 1.21.2 배를 시간 인터벌로 하였다.The ship was set as the time interval.

5-3) 5-3) 제3실시예에서는In the third embodiment 레이턴시의Latency 표준편차가 설정된 값을 초과하는 경우 총 연주시간을 시간 인터벌로 하였다. When the standard deviation exceeds the set value, the total playing time was used as the time interval.

후행 단말기(10b)의 시간차 동기화부(120)는 시간 인터벌을 참조하여 선행 단말기(10a)에서 전송되는 연주데이터를 버퍼(130)에서 버퍼링 후 재생할 수 있다. 이에 따라, 후행 단말기(10b)는 선행 단말기(10a)에서 전송되는 연주데이터에 끊김이 발생하지 않으며, 후행 단말기(10b)측 연주자는 연주데이터에 대한 재생음을 들으면서 합주를 온전히 수행할 수 있다.The time difference synchronizer 120 of the succeeding terminal 10b may play the performance data transmitted from the preceding terminal 10a after buffering it in the buffer 130 with reference to the time interval. Accordingly, the succeeding terminal 10b does not cause a break in the performance data transmitted from the preceding terminal 10a, and the player on the trailing terminal 10b side can fully perform the ensemble while listening to the playback sound for the performance data.

후행 단말기(10b)와 후행 단말기(10c) 사이의 시간 인터벌도 항목 5-1) 또는 5-2) 또는 5-3)에 기재된 바에 따라 산출되며, 다만, 이때는 후행 단말기(10b)가 선행 단말기로서 지정되고, 후행 단말기(10c)가 후행 단말기로 지정되어 산출되는 차이만 존재한다. The time interval between the trailing terminal 10b and the trailing terminal 10c is also calculated as described in item 5-1) or 5-2) or 5-3), provided that, in this case, the trailing terminal 10b is the preceding terminal. There is only a difference that is specified and calculated by designating the succeeding terminal 10c as the succeeding terminal.

도 3는 본 발명의 일 실시예에 따른 원격 사운드 동기화 시스템에서 각 연주자별 연주 타이밍을 설정하는 방법에 대한 개념도를 도시한다. 도 2에 대한 설명은 도 1을 함께 참조하여 설명하도록 한다.3 is a conceptual diagram illustrating a method of setting a performance timing for each player in a remote sound synchronization system according to an embodiment of the present invention. The description of FIG. 2 will be described with reference to FIG. 1 .

도 3를 참조하면, 원격 사운드 동기화 시스템(100)는 선행 단말기(10a)와의 레이턴시를 측정한다. 만일 레이턴시가 30ms 라고 가정하였을 때, 선행 단말기(10a)를 소유한 선행 연주자가 녹음을 시작하는 시점부터 발생하는 연주 데이터는 원격 사운드 동기화 시스템(100)에 전송되며, 레이턴시 30ms를 버퍼링 후, 후행 단말기(10b)로 전달된다. 후행 단말기(10b)는 선행 단말기(10a)에서 전달된 연주 데이터를 재생하여 후행 연주자가 청취할 수 있도록 하고, 후행 연주자는 재생된 연주데이터를 청취하면서 합주에 필요한 타이밍과 호흡에 따라 자신의 연주를 진행한다. 후행 연주자의 연주는 후행 단말기(10b)에 마련되는 녹음 기능에 의해 녹음되고, 녹음된 연주 데이터는 원격 사운드 동기화 시스템(100)에 제공된다. 여기서, 선행 연주자와 후행 연주자의 연주데이터는 믹스되어 하나의 합주 데이터를 형성할 수 있다. 형성된 합주 데이터는 다음번 후행 단말기(10c)로 전달되고, 후행 단말기(10c)는 후행 단말기(10b)와 마찬가지로, 합주 데이터에 대한 재생음을 들으면서 자신의 연주 데이터를 생성하고 이를 원격 사운드 동기화 시스템(100)에 전달한다.Referring to FIG. 3 , the remote sound synchronization system 100 measures latency with the preceding terminal 10a. If it is assumed that the latency is 30 ms, the performance data generated from the point in time when the preceding player who owns the preceding terminal 10a starts recording is transmitted to the remote sound synchronization system 100, and after buffering the 30 ms latency, the succeeding terminal (10b). The succeeding terminal 10b reproduces the performance data transmitted from the preceding terminal 10a so that the following player can listen, and the succeeding player performs his/her performance according to the timing and breathing required for the ensemble while listening to the reproduced performance data. proceed The performance of the following player is recorded by a recording function provided in the trailing terminal 10b, and the recorded performance data is provided to the remote sound synchronization system 100 . Here, the performance data of the preceding player and the following player may be mixed to form one ensemble data. The formed ensemble data is transmitted to the next following terminal 10c, and the trailing terminal 10c generates its own performance data while listening to the reproduced sound for the ensemble data, similarly to the following terminal 10b, and uses it in the remote sound synchronization system 100. forward to

도 4은 본 발명의 일 실시예에 따른 원격 사운드 동기화 시스템에서 네트워크의 레이턴시와 패킷에 대한 시간차 동기화 방법 및 녹화 시간 설정 방법에 대한 개념도를 도시한다.4 is a conceptual diagram illustrating a method for synchronizing network latency and time difference for packets and a recording time setting method in a remote sound synchronization system according to an embodiment of the present invention.

도 4을 참조하면, 본 발명의 일 실시예에 따른 원격 사운드 동기화 시스템(100)은 선행 단말기(10a)와의 레이턴시를 주기적으로 체크하여 원격 사운드 동기화 시스템(100)에 제공하되, 레이턴시에 따라 후행 단말기(10b)의 시간 인터벌(Initial Latency)을 결정하는 대신, 시간 인터벌에 버퍼링 시간을 추가한 시간 인터벌(Safe Record delay)을 적용하는 일 예를 나타낸다. 시간 인터벌(Safe Record delay)이 레이턴시에 따른 시간 인터벌(Initial Latency)보다 더 길게 설정되는 이유는 선행 단말기(10a)와 후행 단말기(10b) 사이에 발생할 수 있는 네트워크 회선 품질 변동이나 시간 지연에 대해 원격 사운드 동기화 시스템(100)이 이에 대처하는 시간을 확보하고자 하는데 있다.Referring to FIG. 4 , the remote sound synchronization system 100 according to an embodiment of the present invention periodically checks the latency with the preceding terminal 10a and provides it to the remote sound synchronization system 100, but according to the latency, the following terminal Instead of determining the time interval (Initial Latency) of (10b), an example of applying a time interval in which a buffering time is added to the time interval (Safe Record delay) is shown. The reason that the time interval (Safe Record delay) is set longer than the time interval (Initial Latency) according to the latency is the remote This is to secure time for the sound synchronization system 100 to cope with this.

도 5 내지 8은 본 발명의 일 실시예에 따른 원격 사운드 동기화 시스템에서 지연 전달되는 패킷을 처리하는 일 예에 따른 처리방법을 설명하기 위한 참조도면을 도시한다. 5 to 8 are reference views for explaining a processing method according to an example of processing a delayed-delivered packet in a remote sound synchronization system according to an embodiment of the present invention.

도 5를 참조하면, 선행 단말기(P1)에서 후행 단말기(P2)로 전달되는 연주데이터를 구성하는 패킷 중 1, 2, 3 번 패킷은 전달되었으나, 4, 5, 6번 패킷이 지연 전달되는 일 예를 도시한다. Referring to FIG. 5 , packets 1, 2, and 3 of the packets constituting the performance data transmitted from the preceding terminal (P1) to the following terminal (P2) are delivered, but packets 4, 5, and 6 are delayed. An example is shown.

4, 5, 6번 패킷의 레이턴시가 최초 선행 단말기(P1)에 대해 측정된 레이턴시 이상으로 설정된 시간 인터벌을 초과하는 경우 후행 단말기(P2)는 후행 연주자의 연주데이터를 녹음하여 원격 사운드 동기화 시스템(100)에 전달하는 과정에 있다. 이 상태에서 선행 단말기(P1)와 후행 단말기(P2) 사이에 새로이 시간 인터벌을 설정하는데 무리가 있는 바, 원격 사운드 동기화 시스템(100)은 지연 전달된 패킷에 해당하는 음표를 반복 재생하여 이 문제를 해결할 수 있다.When the latency of packets 4, 5, and 6 exceeds the time interval set by more than the latency measured for the first leading terminal P1, the trailing terminal P2 records the performance data of the trailing player, and the remote sound synchronization system 100 ) is in the process of being transmitted. In this state, it is difficult to set a new time interval between the preceding terminal (P1) and the succeeding terminal (P2), and the remote sound synchronization system 100 solves this problem by repeatedly playing notes corresponding to the delayed-delivered packet. can be solved

반복 재생 중인 음표는 4, 5, 6번 패킷에 대응하는 것으로 도 4에서는 "레" 음에 해당하는 것을 예시하고 있다. 6번 패킷 이후 선행 단말기(P1)에서 새로운 연주 데이터에 대한 패킷이 도착하면 후행 단말기(P2)에 전달하고, 만일 새로운 연주 데이터가 도착하지 않으면, 원격 사운드 동기화 시스템(100)은 네트워크 오류로 간주하여 서비스 중단을 통지할 수도 있다.The notes being repeatedly reproduced correspond to packets 4, 5, and 6, and FIG. 4 exemplifies the note corresponding to the “re” note. After packet 6, when a packet for new performance data arrives from the preceding terminal P1, it is transmitted to the following terminal P2, and if new performance data does not arrive, the remote sound synchronization system 100 regards it as a network error and You may also notify us of service interruption.

도 6를 참조하면, 실시예에 따른 원격 사운드 동기화 시스템(100)은 협주를 연주할 악보를 획득하고 이를 토대로 레이턴시 발생에 대응할 수 있다.Referring to FIG. 6 , the remote sound synchronization system 100 according to an embodiment may acquire a sheet music for performing a concerto and respond to latency occurrence based thereon.

선행 단말기(P1)에서 원격 사운드 동기화 시스템(100)으로 전송되는 패킷 중S4 영역의 패킷이 시간 인터벌 내에 도착하지 않았을 때, 원격 사운드 동기화 시스템(100)은 S4 영역에 속하는 미도착 패킷의 음정과 악보에 등록된 음정을 비교하고 S4 영역에 해당하는 음정(B3)으로 S4 영역의 패킷을 재 구성할 수 있다. 도면에서, 원격 사운드 동기화 시스템(100)은 S4 영역의 미도착 패킷을 제거하고, 그 자리에 음정(B3) 정보를 포함하는 새 패킷으로 재구성 후, 이를 후행 단말기(P2)로 전달할 수 있다. 이 경우, 후행 단말기(P2)에서는 미도착 패킷에 의한 음정 누락을 인지하지 못하며, 전체 합주는 자연스럽게 진행될 수 있다.Among the packets transmitted from the preceding terminal P1 to the remote sound synchronization system 100, when the packet in the S4 area does not arrive within the time interval, the remote sound synchronization system 100 adjusts the pitch and score of the non-arrival packet belonging to the S4 area. It is possible to compare the registered pitches and reconstruct the packet of the S4 area with the pitch (B3) corresponding to the S4 area. In the drawing, the remote sound synchronization system 100 may remove the non-arrival packet of the S4 area, reconfigure it into a new packet including the pitch (B3) information in its place, and transmit it to the following terminal P2. In this case, the trailing terminal P2 does not recognize the pitch omission due to the non-arrival packet, and the entire ensemble may proceed naturally.

본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명이 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.The embodiments of the present invention disclosed in the present specification and drawings are merely presented as specific examples to easily explain the technical contents of the present invention and help the understanding of the present invention, and are not intended to limit the scope of the present invention. It will be apparent to those of ordinary skill in the art to which the present invention pertains that other modifications based on the technical spirit of the present invention can be implemented in addition to the embodiments disclosed herein.

10(10a 내지 10n) : 사용자 단말기
100 : 원격 사운드 동기화 시스템
110 : 네트워크 통신부
120 : 시간차 동기화부
130 : 버퍼
140 : 합성부
10 (10a to 10n): user terminal
100: remote sound synchronization system
110: network communication unit
120: time difference synchronization unit
130: buffer
140: synthesis part

Claims (7)

네트워크로 선형적으로 선행 단말기와 후행 단말기가 순서로 순차적으로 연결된 복수의 사용자 단말기 내에 포함되며,
상기 선행 단말기와의 레이턴시를 파악하는 네트워크 통신부; 및
상기 각 사용자 단말기는 연주데이터를 생성하는 순서에 따른 선행 단말기와 후행 단말기와의 레이턴시(Latency)를 참조하여 상기 선행 단말기에서 상기 후행 단말기로 전송될 상기 연주데이터의 시간 인터벌(interval)을 결정하고, 상기 후행 단말기에서 생성되는 후행연주데이터를 수신하는 시간차 동기화부; 및
상기 후행연주데이터를 상기 연주데이터에 결합하여 합주 데이터를 생성하여 다음번 연주자의 사용자 단말기로 제공하는 합성부를 포함하며, 상기 네트워크 통신부, 시간차 동기화부, 합성부에 의해 상기 각 사용자 단말기에서 각자가 동기화된 연주를 수행토록 하며,
상기 선행 단말기에서 연주할 곡의 악보데이터를 구비하는 데이터베이스;를 포함하며,
상기 시간차 동기화부는 상기 데이터베이스의 악보데이터를 토대로 레이턴시 발생에 대응하는 것을 특징으로 하는 원격 사운드 동기화 시스템.
The preceding terminal and the succeeding terminal are linearly included in a plurality of user terminals sequentially connected to the network,
a network communication unit for determining latency with the preceding terminal; and
Each user terminal determines the time interval of the performance data to be transmitted from the preceding terminal to the succeeding terminal with reference to the latency between the preceding terminal and the succeeding terminal according to the order of generating the performance data, a time difference synchronization unit for receiving the trailing performance data generated by the trailing terminal; and
and a synthesizing unit for generating ensemble data by combining the following performance data with the performance data and providing it to a user terminal of the next performer, each of which is synchronized in each user terminal by the network communication unit, time difference synchronization unit, and synthesizing unit to perform the performance,
and a database including sheet music data of a song to be played in the preceding terminal.
The remote sound synchronization system, characterized in that the time difference synchronization unit corresponds to the generation of latency based on the score data of the database.
제1항에 있어서,
상기 네트워크 통신부에서 수신되는 상기 연주데이터 및 후행연주데이터를 상기 시간 인터벌에 따라 버퍼링 후, 상기 시간차 동기화부에 제공하는 버퍼;를 더 포함하는 것을 특징으로 하는 원격 사운드 동기화 시스템.
According to claim 1,
After buffering the performance data and the subsequent performance data received from the network communication unit according to the time interval, a buffer for providing the performance data to the time difference synchronizer; Remote sound synchronization system further comprising a.
제2항에 있어서,
상기 네트워크 통신부는,
미리 정해진 시간마다 상기 각 사용자 단말기와의 레이턴시 값을 측정하여 상기 시간차 동기화부에 통지하고,
상기 시간차 동기화부는,
상기 미리 정해진 시간마다 측정된 레이턴시 값에 따라 상기 버퍼의 버퍼링 시간을 조정하는 것을 특징으로 하는 원격 사운드 동기화 시스템.
3. The method of claim 2,
The network communication unit,
Measures a latency value with each user terminal every predetermined time and notifies the time difference synchronizer,
The time difference synchronization unit,
The remote sound synchronization system, characterized in that adjusting the buffering time of the buffer according to the latency value measured at each predetermined time.
제1항에 있어서,
상기 시간차 동기화부는,
상기 각 사용자 단말기에 상기 연주데이터를 순차 공급하는 것을 특징으로 하는 원격 사운드 동기화 시스템.
According to claim 1,
The time difference synchronization unit,
A remote sound synchronization system, characterized in that sequentially supplying the performance data to each of the user terminals.
삭제delete 제1항에 있어서,
상기 시간차 동기화부는,
상기 선행 단말기와 상기 네트워크 통신부 사이에 발생하는 레이턴시가 미리 설정된 기준 레이턴시를 초과하는 경우, 상기 기준 레이턴시를 초과하는 패킷의 데이터를 상기 악보 데이터에서 추출하여 상기 연주데이터에 적용하고 이를 상기 후행 단말기로 제공하는 것을 특징으로 하는 원격 사운드 동기화 시스템.
According to claim 1,
The time difference synchronization unit,
When the latency occurring between the preceding terminal and the network communication unit exceeds a preset reference latency, the data of the packet exceeding the reference latency is extracted from the sheet music data and applied to the performance data and provided to the following terminal A remote sound synchronization system, characterized in that.
제1항에 있어서,
상기 시간차 동기화부는,
상기 선행 단말기와 상기 네트워크 통신부 사이에 발생하는 레이턴시가 미리 설정된 기준 레이턴시를 초과하는 경우, 미도착 패킷의 음정과 악보에 등록된 음정을 비교하고 레이턴시 내에 수신된 연주데이터의 패킷 중 미도착 패킷의 영역에 해당하는 음정으로 미도착 패킷 영역의 패킷을 부가하여 패킷 재구성을 수행하고, 이를 상기 후행 단말기로 제공하는 것을 특징으로 하는 원격 사운드 동기화 시스템.
According to claim 1,
The time difference synchronization unit,
When the latency occurring between the preceding terminal and the network communication unit exceeds a preset reference latency, the pitch of the non-arrival packet is compared with the pitch registered in the score, and corresponds to the area of the non-arrival packet among the packets of the performance data received within the latency A remote sound synchronization system, characterized in that packet reconstruction is performed by adding a packet in the non-arrival packet area at a pitch of .
KR1020200114746A 2020-09-08 2020-09-08 Remote sound sync system and method KR102294752B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200114746A KR102294752B1 (en) 2020-09-08 2020-09-08 Remote sound sync system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200114746A KR102294752B1 (en) 2020-09-08 2020-09-08 Remote sound sync system and method

Publications (1)

Publication Number Publication Date
KR102294752B1 true KR102294752B1 (en) 2021-08-27

Family

ID=77504345

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200114746A KR102294752B1 (en) 2020-09-08 2020-09-08 Remote sound sync system and method

Country Status (1)

Country Link
KR (1) KR102294752B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102488838B1 (en) * 2022-03-11 2023-01-17 (주)더바통 Musical score based multiparty sound synchronization system and method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6353174B1 (en) * 1999-12-10 2002-03-05 Harmonix Music Systems, Inc. Method and apparatus for facilitating group musical interaction over a network
US20020133764A1 (en) * 2001-01-24 2002-09-19 Ye Wang System and method for concealment of data loss in digital audio transmission
US20200186575A1 (en) * 2017-08-23 2020-06-11 Falmouth University Collaborative session over a network

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6353174B1 (en) * 1999-12-10 2002-03-05 Harmonix Music Systems, Inc. Method and apparatus for facilitating group musical interaction over a network
US20020133764A1 (en) * 2001-01-24 2002-09-19 Ye Wang System and method for concealment of data loss in digital audio transmission
US20200186575A1 (en) * 2017-08-23 2020-06-11 Falmouth University Collaborative session over a network

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102488838B1 (en) * 2022-03-11 2023-01-17 (주)더바통 Musical score based multiparty sound synchronization system and method thereof
WO2023172084A1 (en) * 2022-03-11 2023-09-14 (주)더바통 Musical score-based multiparty sound synchronization system and method

Similar Documents

Publication Publication Date Title
Rottondi et al. An overview on networked music performance technologies
JP4423790B2 (en) Demonstration system, demonstration method via network
US7405355B2 (en) System and method for video assisted music instrument collaboration over distance
US8918541B2 (en) Synchronization of audio and video signals from remote sources over the internet
JP3242028B2 (en) Data transmission / reception method and system
US7518051B2 (en) Method and apparatus for remote real time collaborative music performance and recording thereof
JP5257966B2 (en) Music reproduction control system, music performance program, and performance data synchronous reproduction method
JP5733321B2 (en) Automatic performance device
KR102546398B1 (en) Methods and systems for performing and recording live internet music near live with no latency
JP5729393B2 (en) Performance system
JP2009535988A (en) System and method for processing data signals
KR102294752B1 (en) Remote sound sync system and method
JP7456019B2 (en) Method and system for performing and recording live music using audio waveform samples
KR102488838B1 (en) Musical score based multiparty sound synchronization system and method thereof
JP2006215460A (en) Karaoke sound transmitting and receiving system and method therefor
JP4259329B2 (en) Performance device and ensemble system
US6525253B1 (en) Transmission of musical tone information
JP4422656B2 (en) Remote multi-point concert system using network
JP2002062884A (en) Method and terminal for data transmission and reception, and storage medium stored with program regarding method for data transmission and reception
AU730214B2 (en) Distributed real-time communications system
JP2004094683A (en) Server, communication method, and spectator terminal
JP2008256897A (en) Method for playing music with plural persons from remote locations and music session system
JP7026412B1 (en) Music production equipment, terminal equipment, music production methods, programs, and recording media
JP2003085068A (en) Live information providing server, information communication terminal, live information providing system and live information providing method
JP6305958B2 (en) Ensemble device, ensemble system, method and program thereof

Legal Events

Date Code Title Description
N231 Notification of change of applicant
GRNT Written decision to grant