KR20180012398A - Management system and method for digital sound source, device and method of playing digital sound source - Google Patents

Management system and method for digital sound source, device and method of playing digital sound source Download PDF

Info

Publication number
KR20180012398A
KR20180012398A KR1020160095140A KR20160095140A KR20180012398A KR 20180012398 A KR20180012398 A KR 20180012398A KR 1020160095140 A KR1020160095140 A KR 1020160095140A KR 20160095140 A KR20160095140 A KR 20160095140A KR 20180012398 A KR20180012398 A KR 20180012398A
Authority
KR
South Korea
Prior art keywords
sound source
digital sound
tempo
information
pitch
Prior art date
Application number
KR1020160095140A
Other languages
Korean (ko)
Inventor
김의영
이상현
Original Assignee
주식회사 이스트컨트롤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이스트컨트롤 filed Critical 주식회사 이스트컨트롤
Priority to KR1020160095140A priority Critical patent/KR20180012398A/en
Publication of KR20180012398A publication Critical patent/KR20180012398A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B31/00Arrangements for the associated working of recording or reproducing apparatus with related apparatus
    • G11B31/02Arrangements for the associated working of recording or reproducing apparatus with related apparatus with automatic musical instruments

Abstract

The present invention provides a system and a method for managing a digital sound source, and a device and a method for playing a digital sound source. The device for playing a digital sound source comprises: a storage unit to store tempo information by beat and tempo information by time, and store a digital sound source and score information including a score and beat information corresponding to the digital sound source; a display unit to display the score; a play unit to play the digital sound source; an input unit to receive a tempo change of at least a portion of the digital sound source; and a control unit to incorporate the tempo change to generate changed tempo information by beat or changed tempo information by time, allow the score to be displayed based on the changed tempo information by beat, and allow the digital sound source to be played based on the changed tempo information by time to synchronize the score and the digital sound source.

Description

디지털 음원 관리 시스템 및 방법, 디지털 음원 재생 장치 및 방법{Management system and method for digital sound source, device and method of playing digital sound source}BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a digital sound source management system and method,

본 발명은 디지털 음원 관리 시스템 및 방법, 디지털 음원 재생 장치 및 방법에 관한 것이다.The present invention relates to a digital sound source management system and method, and a digital sound source playback apparatus and method.

디지털 음원을 반주로 하여, 연주자(기악 또는 성악 연주자)가 연주 연습을 할 수 있다. 디지털 음원 재생 장치는, 연주자의 연주(음높이, 템포)와는 무관하게(즉, 인터랙티브하지 않게), 디지털 음원을 재생한다. 따라서, 연주자는 본인의 느낌을 반영하여 음높이나 템포를 변경할 수 없고, 디지털 음원에 맞추어서 연주할 수 밖에 없다.With a digital sound source as an accompaniment, a performer (instrumental or vocalist) can practice playing. The digital sound source reproducing apparatus reproduces the digital sound source irrespective of the player's performance (pitch, tempo) (i.e., not interactively). Therefore, the player can not change the pitch or tempo to reflect his or her feelings, and can only play in accordance with the digital sound source.

대한민국등록특허 KR10-1628330(2016.06.01)Korea Registered Patent KR10-1628330 (2016.06.01)

본 발명이 해결하려는 과제는, 기악 또는 성악연주자의 연주 데이터를 인식하여, 자동으로 반주(디지털 음원)를 출력하는 디지털 음원 재생 장치 및 방법을 제공하는 것이다.A problem to be solved by the present invention is to provide a digital sound source reproducing apparatus and method for automatically recognizing performance data of musical instrument or vocal player and outputting accompaniment (digital sound source).

본 발명이 해결하려는 다른 과제는, 반주(디지털 음원)의 템포 및 음높이를 조정하더라도 소리의 왜곡을 최소화할 수 있는 디지털 음원 재생 장치 및 방법을 제공하는 것이다.Another object of the present invention is to provide a digital sound source reproducing apparatus and method capable of minimizing sound distortion even if the tempo and pitch of an accompaniment (digital sound source) are adjusted.

본 발명이 해결하려는 또 다른 과제는, 반주(디지털 음원)의 템포가 일정하지 않더라도, 반주와 악보(이미지 파일)의 동기화가 잘 이루어지는 디지털 음원 재생 장치 및 방법을 제공하는 것이다. Another object of the present invention is to provide a digital sound source reproducing apparatus and method in which synchronization of an accompaniment and a score (image file) is well performed even if the tempo of an accompaniment (digital sound source) is not constant.

본 발명이 해결하려는 또 다른 과제는, 상기 디지털 음원 재생 장치의 상기 동작을 위해서, 상기 디지털 음원 재생 장치에 여러가지 데이터를 제공할 수 있는 디지털 음원 관리 시스템 및 방법을 제공하는 것이다. Another object of the present invention is to provide a digital sound source management system and method capable of providing various data to the digital sound source playback apparatus for the operation of the digital sound source playback apparatus.

본 발명이 해결하려는 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems, and other matters not mentioned can be clearly understood by those skilled in the art from the following description.

상기 과제를 해결하기 위한 본 발명의 디지털 음원 관리 시스템의 일 면(aspect)은 디지털 음원을 저장하는 저장모듈; 상기 디지털 음원에 대응되는 악보와, 상기 디지털 음원의 비트 정보를 포함하는 악보 정보를 생성하는 악보 생성 모듈; 상기 디지털 음원에 대응되는 비트별 박자 정보와 비트별 템포 정보를 생성하는 비트 관리 모듈; 및 상기 비트별 박자 정보와 상기 비트별 템포 정보를 이용하여, 시간별 템포 정보를 생성하는 시간 관리 모듈을 포함한다.According to an aspect of the present invention, there is provided a digital sound source management system comprising: a storage module for storing a digital sound source; A score generating module for generating score information corresponding to the digital sound source and score information including bit information of the digital sound source; A bit management module for generating beat information and bit-by-bit tempo information corresponding to the digital sound source; And a time management module for generating time-based tempo information using the beat-specific beat information and the bit-by-bit tempo information.

상기 악보 생성 모듈은 상기 디지털 음원에 대응되는 전체 악보를 생성하고, 상기 전체 악보를 마디 단위로 구분하여 다수의 마디 악보를 생성하고, 상기 악보 정보는 상기 다수의 마디 악보와, 상기 다수의 마디 악보에 각각 대응되는 다수의 비트 정보를 포함한다.Wherein the musical score generating module generates a whole musical score corresponding to the digital sound source and divides the whole musical score into a plurality of nodal units to generate a plurality of nodal musical scores, and the musical score information includes a plurality of nodal musical scores, And a plurality of bit information corresponding to the bit information.

상기 악보 정보는 상기 다수의 마디 악보의 마디길이 정보를 더 포함한다.The score information further includes bar length information of the plurality of bar scores.

상기 다수의 마디 악보를 생성하는 것은, 제1 축 방향으로 스캔하여 가로선의 위치를 확인하고, 상기 제1 축과 다른 제2 축 방향으로 스캔하여 마디선 후보의 위치를 확인하고, 상기 확인된 마디선 후보가, 노트의 스템(stem)인지 여부를 체크함으로써 상기 마디선 후보를 마디선으로 확정한다.The method of claim 1, wherein generating the plurality of tune marks comprises: scanning the first axis direction to identify the position of the horizontal line, scanning the second axis direction different from the first axis to identify the position of the tune line candidate, The line candidate is determined as a line by checking whether the line candidate is a stem of the note.

상기 디지털 음원은, 하나의 곡에 대해서 제1 음정을 갖는 제1 디지털 음원과, 상기 제1 음정과 다른 제2 음정을 갖는 제2 디지털 음원을 포함한다.The digital sound source includes a first digital sound source having a first pitch for one song and a second digital sound source having a second pitch different from the first pitch.

상기 비트 관리 모듈은, 상기 디지털 음원에 대응되는 비트별 노트 정보를 더 생성하고, 상기 시간 관리 모듈은, 상기 비트별 노트 정보와 상기 비트별 템포 정보를 이용하여, 시간별 노트 정보를 더 생성한다.The bit management module further generates bit-by-bit note information corresponding to the digital sound source, and the time management module further generates time note information using the bit-by-bit note information and the bit-by-bit tempo information.

상기 시간별 템포 정보는, 템포값과, 상기 템포값이 적용되기 시작하는 시작 시간을 포함한다.The temporal tempo information includes a tempo value and a start time at which the tempo value begins to be applied.

상기 시간별 템포 정보는, 상기 템포값이 적용되기 시작하는 시작 비트를 더 포함한다.The temporal tempo information further includes a start bit at which the tempo value begins to be applied.

상기 저장 모듈은 사용자에 의해 변경된 연주 정보를 제공받아 더 저장하고, 상기 연주 정보는 변경된 비트별 템포 정보, 변경된 시간별 템포 정보, 변경된 음정 정보, 변경된 악보 정보 중 적어도 하나를 포함한다.The storage module further receives and stores performance information changed by the user, and the performance information includes at least one of changed bit-by-bit tempo information, changed time-based tempo information, changed pitch information, and changed score information.

상기 과제를 해결하기 위한 본 발명의 디지털 음원 관리 방법의 일 면(aspect)은 디지털 음원에 대응되는 악보와, 상기 디지털 음원의 비트 정보를 포함하는 악보 정보를 생성하고, 상기 디지털 음원에 대응되는 비트별 박자 정보를 생성하고, 상기 디지털 음원에 대응되는 비트별 템포 정보를 생성하고, 상기 비트별 박자 정보와 상기 비트별 템포 정보를 이용하여, 시간별 템포 정보를 생성하는 것을 포함한다.According to an aspect of the present invention, there is provided a digital sound source management method for generating score information corresponding to a digital sound source and score information including bit information of the digital sound source, Generating star beat information, generating bit-by-bit tempo information corresponding to the digital sound source, and generating time-based tempo information using the beat-specific beat information and the bit-by-bit tempo information.

상기 시간별 템포 정보는, 템포값과, 상기 템포값이 적용되기 시작하는 시작 시간을 포함한다.The temporal tempo information includes a tempo value and a start time at which the tempo value begins to be applied.

상기 시간별 템포 정보는, 상기 템포값이 적용되기 시작하는 시작 비트를 더 포함한다.The temporal tempo information further includes a start bit at which the tempo value begins to be applied.

상기 과제를 해결하기 위한 본 발명의 디지털 음원 재생 장치의 일 면(aspect)은 비트별 템포 정보 또는 시간별 템포 정보를 저장하고, 디지털 음원 및 악보 정보를 저장하되, 상기 악보 정보는 상기 디지털 음원에 대응되는 악보와 비트 정보를 포함하는 저장 유닛; 상기 악보를 디스플레이하는 디스플레이 유닛; 상기 디지털 음원을 재생하는 재생 유닛; 상기 디지털 음원의 적어도 일부의 템포 변경을 입력받는 입력 유닛; 및 상기 템포 변경을 반영하여, 변경된 비트별 템포 정보 또는 변경된 시간별 템포 정보를 생성하고, 상기 변경된 비트별 템포 정보를 기초로 상기 악보가 디스플레이되도록 하고, 상기 변경된 시간별 템포 정보를 기초로 상기 디지털 음원이 재생되게 함으로써, 상기 악보와 상기 디지털 음원의 싱크를 맞추는 제어 유닛을 포함한다. According to an aspect of the present invention, there is provided a digital sound source reproducing apparatus for storing bit-by-bit or tempo-by-bit information, a digital sound source and score information, A storage unit including score information and bit information; A display unit for displaying the score; A reproducing unit for reproducing the digital sound source; An input unit for receiving a tempo change of at least a part of the digital sound source; And generating the changed tempo information or the changed tempo information based on the changed tempo information, displaying the modified score on the basis of the modified per-bit tempo information, and based on the changed time- So that the musical score and the digital sound source are synchronized with each other.

상기 템포 변경을 입력받는 것은, 상기 디지털 음원에 따라서 사용자가 연주하고 상기 사용자의 연주를 센싱하는 것을 포함한다. The input of the tempo change includes a user playing according to the digital sound source and sensing the performance of the user.

상기 디지털 음원은 연속되는 제1 템포의 제1 영역과, 제2 템포의 제2 영역을 포함하고, 상기 디지털 음원에 따라서 상기 사용자가 연주하되, 상기 사용자가 상기 제1 영역을 상기 제1 템포가 아닌 제3 템포로 연주하면, 상기 제어 유닛은 상기 제2 영역을 상기 제2 템포가 아닌 제4 템포로 재생한다.Wherein the digital sound source comprises a first region of successive first tempos and a second region of a second tempo wherein the user plays according to the digital sound source, , The control unit reproduces the second area at the fourth tempo instead of the second tempo.

상기 템포 변경을 입력받는 것은, 사용자에 의해서 마디별로 템포 변경 정도를 직접 입력받는 것을 포함한다. The input of the tempo change includes directly inputting the degree of tempo change for each node by the user.

악보 위에 상기 디지털 음원의 템포를 나타내는 템포 라인이 도시되고, 사용자가 상기 템포 라인을 끌어당김으로써 템포를 변경한다. A tempo line representing the tempo of the digital sound source is shown on the score, and the user changes the tempo by drawing the tempo line.

상기 디지털 음원과, 상기 악보 정보, 상기 비트별 템포 정보 또는 상기 시간별 템포 정보 중 적어도 하나는 디지털 음원 관리 시스템으로부터 제공받는다.At least one of the digital sound source, the score information, the bit-by-bit tempo information, or the time-based tempo information is provided from the digital sound source management system.

상기 변경된 비트별 템포 정보 또는 변경된 시간별 템포 정보는, 상기 디지털 음원 관리 시스템으로 전송하는 통신 유닛을 더 포함한다. And transmitting the changed bit-by-bit tempo information or the changed time-based tempo information to the digital sound source management system.

상기 과제를 해결하기 위한 본 발명의 디지털 음원 재생 장치의 다른 면은 연속되는 제1 영역과 제2 영역을 포함하는 디지털 음원을 저장하는 제1 저장 유닛; 상기 제1 영역을 제1 템포로 상기 디지털 음원을 재생하는 제1 재생 유닛; 상기 제2 영역을 상기 제1 템포와 다른 제2 템포로 상기 디지털 음원을 재생하는 제2 재생 유닛; 및 상기 제1 재생 유닛과 상기 제2 재생 유닛을 제어하되, 상기 제1 영역에서의 마지막 노트의 릴리즈(release) 부분과, 상기 제2 영역에서의 첫번째 노트의 어택(attack) 부분이 서로 오버랩되도록 제어하는 제어 유닛을 포함한다. 상기 제2 재생 유닛은, 백그라운드로, 상기 제1 영역도 제2 템포로 상기 디지털 음원을 재생한다. 상기 제1 영역 및 상기 제2 영역은 서로 바로 인접한 마디들이다. According to another aspect of the present invention, there is provided a digital sound source reproducing apparatus comprising: a first storage unit for storing a digital sound source including a first region and a second region; A first reproducing unit for reproducing the digital sound source with the first region at a first tempo; A second reproducing unit for reproducing the digital sound source at a second tempo different from the first tempo; And controlling the first playback unit and the second playback unit so that the release portion of the last note in the first region and the attack portion of the first note in the second region overlap each other And a control unit for controlling the control unit. The second reproduction unit reproduces the digital sound source in the background, and also in the first region at the second tempo. The first region and the second region are adjacent to each other.

상기 과제를 해결하기 위한 본 발명의 디지털 음원 재생 방법의 일 면은 하나의 곡에 대해서 제1 음정을 갖는 제1 디지털 음원과, 상기 제1 음정과 다른 제2 음정을 갖는 제2 디지털 음원을 제공하고, 사용자로부터 음정 변경 요청을 제공받고, 사용자가 변경 요청한 음정이, 제1 음정과 가까운지 상기 제2 음정과 가까운지 검토하고, 제1 음정과 가까우면 제1 디지털 음원을 음정 변경하여 출력하고, 제2 음정과 가까우면 제2 디지털 음원을 음정 변경하여 출력한다.One aspect of the digital sound source reproducing method of the present invention for solving the above problems is to provide a first digital sound source having a first pitch for one music and a second digital sound source having a second pitch different from the first pitch A pitch change request is received from the user, and whether the pitch requested by the user is close to the first pitch or close to the second pitch is checked. If the pitch is close to the first pitch, the first digital sound source is changed in pitch and output If the second pitch is close to the second pitch, the second digital sound source is changed in pitch and output.

상기 제1 음정은 상기 곡의 원래 음정이고, 상기 음정 변경 요청을 받은 후, 사용자가 변경 요청한 음정이 제2 음정과 동일한지 검토하고, 제2 음정과 동일한 경우에, 상기 제2 디지털 음원을 출력한다.Wherein the first pitch is an original pitch of the tune, and after receiving the pitch change request, it is checked whether the pitch requested by the user is equal to the second pitch, and when the second pitch is equal to the second pitch, do.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

도 1은 본 발명의 몇몇 실시예에 따른 디지털 음원 관리 시스템 및 디지털 음원 재생 장치를 설명하기 위한 개념도이다.
도 2는 본 발명의 몇몇 실시예에 따른 디지털 음원 관리 시스템의 예시적인 블록도이다.
도 3은 하나의 곡에 대해서, 서로 다른 음정을 갖는 다수의 디지털 음원을 설명하기 위한 도면이다.
도 4 내지 도 7은 마디악보 및 악보 정보를 생성하는 방법을 설명하기 위한 도면이다.
도 8은 비트별 박자 정보, 도 9는 비트별 템포 정보, 도 10은 비트별 노트 정보를 설명하기 위한 도면이다.
도 11은 시간별 템포 정보, 도 12는 시간별 노트 정보를 설명하기 위한 도면이다.
도 13은 본 발명의 몇몇 실시예에 따른 디지털 음원 재생 장치의 예시적인 블록도이다.
도 14는 디지털 음원을 재생할 때 발생할 수 있는 노이즈의 캔슬링(cancelling) 동작을 설명하기 위한 도면이다.
도 15는 디지털 음원의 음높이를 조정하는 동작을 설명하기 위한 도면이다.
도 16은 음정을 조정하는 동작을 설명하기 위한 도면이다.
도 17 및 도 18은 디지털 음원의 적어도 일부의 템포를 변경하는 방식을 설명하기 위한 도면이다.
도 19는 지능형 반주솔루션을 설명하기 위한 도면이다.
1 is a conceptual diagram illustrating a digital sound source management system and a digital sound source playback apparatus according to some embodiments of the present invention.
2 is an exemplary block diagram of a digital sound resource management system in accordance with some embodiments of the present invention.
3 is a diagram for explaining a plurality of digital sound sources having different pitches for one piece of music.
FIGS. 4 to 7 are diagrams for explaining a method of generating nodal score and score information.
FIG. 8 is timing information for each beat, FIG. 9 is information for each bit, and FIG. 10 is a diagram for explaining note information per bit.
11 is a diagram for explaining tempo information by time, and FIG. 12 is a diagram for explaining note information by time.
13 is an exemplary block diagram of a digital sound source reproducing apparatus according to some embodiments of the present invention.
14 is a diagram for explaining a cancellation operation of noise that may occur when a digital sound source is reproduced.
15 is a diagram for explaining an operation for adjusting the pitch of a digital sound source.
FIG. 16 is a diagram for explaining an operation for adjusting the pitch.
17 and 18 are diagrams for explaining a method of changing the tempo of at least a part of the digital sound source.
19 is a diagram for explaining an intelligent accompaniment solution.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention, and the manner of achieving them, will be apparent from and elucidated with reference to the embodiments described hereinafter in conjunction with the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout the specification.

하나의 소자(elements)가 다른 소자와 "접속된(connected to)" 또는 "커플링된(coupled to)" 이라고 지칭되는 것은, 다른 소자와 직접 연결 또는 커플링된 경우 또는 중간에 다른 소자를 개재한 경우를 모두 포함한다. 반면, 하나의 소자가 다른 소자와 "직접 접속된(directly connected to)" 또는 "직접 커플링된(directly coupled to)"으로 지칭되는 것은 중간에 다른 소자를 개재하지 않은 것을 나타낸다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다. "및/또는"은 언급된 아이템들의 각각 및 하나 이상의 모든 조합을 포함한다. One element is referred to as being "connected to " or" coupled to "another element, either directly connected or coupled to another element, One case. On the other hand, when one element is referred to as being "directly connected to" or "directly coupled to " another element, it does not intervene another element in the middle. Like reference numerals refer to like elements throughout the specification. "And / or" include each and every combination of one or more of the mentioned items.

비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.Although the first, second, etc. are used to describe various elements, components and / or sections, it is needless to say that these elements, components and / or sections are not limited by these terms. These terms are only used to distinguish one element, element or section from another element, element or section. Therefore, it goes without saying that the first element, the first element or the first section mentioned below may be the second element, the second element or the second section within the technical spirit of the present invention.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. "A 또는 B"는 A, B, A 및 B를 의미한다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification. It is noted that the terms "comprises" and / or "comprising" used in the specification are intended to be inclusive in a manner similar to the components, steps, operations, and / Or additions. "A or B" means A, B, A and B.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다. Unless defined otherwise, all terms (including technical and scientific terms) used herein may be used in a sense commonly understood by one of ordinary skill in the art to which this invention belongs. Also, commonly used predefined terms are not ideally or excessively interpreted unless explicitly defined otherwise.

도 1은 본 발명의 몇몇 실시예에 따른 디지털 음원 관리 시스템 및 디지털 음원 재생 장치를 설명하기 위한 개념도이다.1 is a conceptual diagram illustrating a digital sound source management system and a digital sound source playback apparatus according to some embodiments of the present invention.

도 1을 참조하면, 적어도 하나의 디지털 음원 관리 시스템(10)과 적어도 하나의 디지털 음원 재생 장치(20)는 네트워크(30)를 통해서 연결된다. Referring to FIG. 1, at least one digital sound source management system 10 and at least one digital sound source playback device 20 are connected through a network 30.

디지털 음원 관리 시스템(10)은 다수의 디지털 음원을 생성 및 저장한다. 또한, 생성된 디지털 음원과 관련된 다양한 정보/데이터를 생성한다. 자세히 후술하겠으나, 예를 들어, 디지털 음원과 관련된 정보는, 악보 정보, 비트별 박자 정보, 비트별 템포 정보, 비트별 노트 정보, 시간별 템포 정보, 시간별 노트 정보 등을 생성한다. The digital sound source management system 10 generates and stores a plurality of digital sound sources. It also generates various information / data related to the generated digital sound source. As will be described later in detail, for example, information related to the digital sound source generates score information, beat information per beat, tempo information per bit, note information per bit, tempo information per time, note information per time, and the like.

이러한 디지털 음원 관리 시스템(10)은 적어도 하나의 컴퓨팅 장치에 의해 구현될 수 있다. 디지털 음원 관리 시스템(10)은 물리적으로 다수의 서버로 구현될 수도 있고, 하나의 서버로 구현될 수도 있다. 기능적으로 볼 때, 웹 서버, 데이터베이스 서버, 프록시 서버 등의 형태로 구현될 수 있다. 다수의 서버는 서로 물리적으로 분리된 지역(예를 들어, 서로 다른 국가)에 위치할 수도 있다. Such a digital sound resource management system 10 may be implemented by at least one computing device. The digital sound source management system 10 may be physically implemented as a plurality of servers or as a single server. Functionally, it can be implemented in the form of a web server, a database server, a proxy server, or the like. Multiple servers may be located in physically separate regions (e.g., different countries) from each other.

디지털 음원 재생 장치(20)는, 디지털 음원 관리 시스템(10)으로부터 다양한 정보/데이터를 제공받아, 디지털 음원을 재생할 수 있다. 재생되는 디지털 음원은 기악 또는 성악연주자의 연주의 반주용일 수도 있고, 청취용일 수도 있다. The digital sound source reproduction apparatus 20 can receive various information / data from the digital sound source management system 10 and reproduce the digital sound source. The reproduced digital sound source may be for accompaniment of instrumental or vocal player's performance, or for listening.

후술하겠으나, 디지털 음원 재생 장치(20)는, 연주자의 연주 데이터를 인식하여 자동으로 디지털 음원의 템포를 조정할 수도 있다("지능형 반주솔루션"이라 함). 조정된 템포는 디지털 음원 재생 장치(20) 또는 디지털 음원 관리 시스템(10)에 저장될 수 있다. 따라서, 추후에도, 또는, 현재 사용하는 디지털 음원 재생 장치(20)와 다른 디지털 음원 재생 장치에서도, 연주자는 본인의 취향에 맞는 템포로 디지털 음원을 들을 수 있다. 또한, 디지털 음원 재생 장치(20)는 디지털 음원의 템포 및 음높이가 조정되더라도, 소리의 왜곡을 최소화할 수 있다. 또한, 디지털 음원 재생 장치(20)는 템포가 일정하지 않더라도, 반주와 악보(이미지 파일)의 동기화가 잘 이루어질 수 있다. As will be described later, the digital sound source reproducing apparatus 20 may automatically adjust the tempo of the digital sound source by recognizing the player's performance data (referred to as "intelligent accompaniment solution"). The adjusted tempo may be stored in the digital sound source playback device 20 or the digital sound source management system 10. [ Therefore, even in the future, or in a digital sound source reproducing apparatus different from the currently used digital sound source reproducing apparatus 20, the player can listen to the digital sound source at a tempo suitable for his / her own taste. Further, the digital sound source reproducing apparatus 20 can minimize sound distortion even if the tempo and pitch of the digital sound source are adjusted. In addition, even if the tempo is not constant, the digital sound source reproducing apparatus 20 can synchronize the accompaniment and the score (image file) well.

이러한 디지털 음원 재생 장치(20)는, 디지털 음원을 재생할 수 있는 전기 장치라면 어떤 것이든 가능하다. 예를 들어, 디지털 음원 재생 장치(20)는 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 이동 단말기(Mobile Terminal), 개인 정보 단말기(Personal Digital Assistant: PDA), PMP(Portable Multimedia Player) 단말기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, 개인용 컴퓨터(Personal Computer), 노트북 컴퓨터, 슬레이트 PC(Slate PC), 태블릿 PC(Tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable Device, 예를 들어, 워치형 단말기(Smartwatch), 글래스형 단말기(Smart Glass), HMD(Head Mounted Display) 등 포함), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 스마트 TV, 디지털방송용 단말기, AVN(Audio Video Navigation) 단말기, A/V(Audio/Video) 시스템, 플렉시블 단말기(Flexible Terminal) 등 유무선환경에서 송신 및/또는 수신할 수 있는 모든 전자 제품에 적용할 수 있다. The digital sound source reproducing apparatus 20 can be any electronic apparatus capable of reproducing a digital sound source. For example, the digital music player 20 may be a smart phone, a portable terminal, a mobile terminal, a personal digital assistant (PDA), a portable multimedia player (PMP) A portable terminal, a telematics terminal, a navigation terminal, a personal computer, a notebook computer, a slate PC, a tablet PC, an ultrabook, a wearable device, For example, a smartwatch, a smart glass, and a head mounted display (HMD)), a wibro terminal, an internet protocol television (IPTV) terminal, a smart TV, The present invention can be applied to all electronic products capable of transmitting and / or receiving in a wired / wireless environment such as an AVN (Audio Video Navigation) terminal, an A / V (Audio / Video) system and a flexible terminal.

네트워크(30)는 어떠한 방식의 네트워크여도 무방하다. 네트워크(30)는 예를 들어, 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS), 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 일 수 있다.The network 30 may be any type of network. The network 30 may be a wireless network such as a wireless LAN (WLAN), a Digital Living Network Alliance (DLNA), a Wireless Broadband (WIBRO), a World Interoperability for Microwave Access (WIMAX) Mobile communication, Code Division Multi Access (CDMA), Code Division Multi Access (CDMA2000), Enhanced Voice-Data Optimized or Enhanced Voice-Only (EV-DO), Wideband CDMA (WCDMA), High Speed Downlink Packet Access, High Speed Uplink Packet Access (HSUPA), IEEE 802.16, Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), Wireless Mobile Broadband Service (WMBS) , Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, Near Field Communication (NFC), Ultra Sound Communication: USC, Visible Light Communication (VLC), and Pie (Wi-Fi), Wi Fi Direct (Wi-Fi Direct) can be.

도 2는 본 발명의 몇몇 실시예에 따른 디지털 음원 관리 시스템의 예시적인 블록도이다. 도 3은 하나의 곡에 대해서, 서로 다른 음정을 갖는 다수의 디지털 음원을 설명하기 위한 도면이다. 도 4 내지 도 7은 마디악보 및 악보 정보를 생성하는 방법을 설명하기 위한 도면이다. 도 8은 비트별 박자 정보, 도 9는 비트별 템포 정보, 도 10은 비트별 노트 정보를 설명하기 위한 도면이다. 도 11은 시간별 템포 정보, 도 12는 시간별 노트 정보를 설명하기 위한 도면이다. 2 is an exemplary block diagram of a digital sound resource management system in accordance with some embodiments of the present invention. 3 is a diagram for explaining a plurality of digital sound sources having different pitches for one piece of music. FIGS. 4 to 7 are diagrams for explaining a method of generating nodal score and score information. FIG. 8 is timing information for each beat, FIG. 9 is information for each bit, and FIG. 10 is a diagram for explaining note information per bit. 11 is a diagram for explaining tempo information by time, and FIG. 12 is a diagram for explaining note information by time.

우선, 도 2를 참조하면, 본 발명의 몇몇 실시예에 따른 디지털 음원 관리 시스템(10)은 제어 모듈(110), 디지털 음원 생성 모듈(115), 저장 모듈(120), 악보 생성 모듈(130), 비트 관리 모듈(140), 시간 관리 모듈(150), 통신 모듈(160) 등을 포함할 수 있다. 여기서, 각각의 모듈(110, 115, 120, 130, 140, 150, 160)은 기능적인 구분이다. 따라서, 실질적인 구현은, 몇 개의 모듈이 하나의 프로그램으로 합쳐져서 구현되거나, 1개의 모듈이 다수의 프로그램으로 나뉘어져 구현되거나, 각각의 모듈이 모두 별개로 구현될 수도 있다. Referring to FIG. 2, a digital sound source management system 10 according to some embodiments of the present invention includes a control module 110, a digital sound source generation module 115, a storage module 120, a score generation module 130, A bit management module 140, a time management module 150, a communication module 160, and the like. Here, each module 110, 115, 120, 130, 140, 150, 160 is a functional division. Thus, a practical implementation may be implemented by combining several modules into one program, or one module may be divided into a plurality of programs, or each module may be separately implemented.

제어 모듈(110)은 디지털 음원 생성 모듈(115), 저장 모듈(120), 악보 생성 모듈(130), 비트 관리 모듈(140), 시간 관리 모듈(150) 및 통신 모듈(160)의 동작을 제어한다.The control module 110 controls operations of the digital sound source generation module 115, the storage module 120, the score generation module 130, the bit management module 140, the time management module 150, and the communication module 160 do.

디지털 음원 생성 모듈(115)은 예를 들어, 미디(MIDI, Musical Instrument Digital Interface, 전자악기 디지털 인터페이스) 파일을 기초로 디지털 음원을 생성할 수 있다. The digital sound source generation module 115 may generate a digital sound source based on, for example, MIDI (Musical Instrument Digital Interface) files.

미디 파일은 피치(음의 높이), 길이, 음량 등의 데이터를 수치화한 데이터로, 음원 박스와 연결되어 여러가지 음색을 낼 수 있다. 미디 파일은 시퀀싱 프로그램(예를 들어, 큐베이스)을 이용하여 만들 수 있다. 구체적으로, 연주자가 컴퓨터와 연결된 건반을 직접 연주하거나, 시퀀싱 프로그램 내에서 입력장치(키보드/마우스) 등을 통해서 직접 그려서, 미디 파일을 생성할 수 있다. 시퀀싱 프로그램은 미디 파일을 디지털 음원으로 변환하여 출력할 수 있다. A MIDI file is data obtained by digitizing data such as pitch (pitch height), length, and volume, and can be connected to a sound box to produce various timbres. MIDI files can be created using a sequencing program (eg, Cubase). Concretely, a player can directly play a keyboard connected to a computer, or draw a MIDI file directly through an input device (keyboard / mouse) or the like in a sequencing program. The sequencing program can convert a MIDI file to a digital sound source and output it.

디지털 음원은 디지털 음원 재생 장치(20)에 의해서 재생될 수 있는 포맷(format)이면 어떤 것이든 가능하다. 예를 들어, WAV(또는 WAVE), MP3, AAC, FLAC, ALAC, WMA 등일 수 있다. 또한, 디지털 음원은 시간 정보를 포함하고 있다. The digital sound source can be any format that can be reproduced by the digital sound source reproduction apparatus 20. [ For example, WAV (or WAVE), MP3, AAC, FLAC, ALAC, WMA, and the like. Also, the digital sound source includes time information.

WAV(Waveform audio format) 파일은, 개인용 컴퓨터에서 오디오를 재생하는 마이크로소프트와 IBM 오디오 파일 포맷 표준이다. 덩어리째로 데이터를 저장하기 위한 RIFF 비트스트림 포맷 방식에서 변화한 것으로, 아미가에 쓰이는 IFFF와 매킨토시 컴퓨터에 쓰이는 AIFF 포맷에 매우 가깝다. 가공되지 않은 오디오를 위한 윈도 시스템에 쓰이는 기본 포맷이다. Waveform audio format (WAV) files are Microsoft and IBM audio file format standards that play audio on personal computers. It's a change from the RIFF bitstream format for storing chunks of data, very close to the IFIF used for Amiga and the AIFF format used for Macintosh computers. It is the default format used for Windows systems for raw audio.

MP3(MPEG-1 Audio Layer-3) 파일은, MPEG-1의 오디오 규격으로 개발된 손실압축 포맷이다. MP1, MP2를 개량하여 만들어져 가장 대중적인 음악 파일 포맷으로 여겨진다. 컴퓨터 디스크 등의 PCM 음성을 일반적으로 들을 만한 음질로 압축하여 크기를 1/10까지 줄일 수 있다. MPEG-2에도 Audio Layer-3 가 있어서 MP3라고 불리기도 한다. An MP3 (MPEG-1 Audio Layer-3) file is a lossy compression format developed with an audio standard of MPEG-1. MP1 and MP2, and is considered to be the most popular music file format. PCM audio, such as a computer disk, can be compressed to generally acceptable sound quality, reducing the size to 1/10. MPEG-2 also has Audio Layer-3, which is also called MP3.

AAC(Advanced Audio Coding) 파일은, MPEG-4 규격에서 채택한 새로운 오디오 코덱으로, MP3보다 효율적이면서 음질은 CD의 원본과 비슷한 음질을 가진다. Dolby, Frauhofer(FhG), AT&T, Sony, Nokia 등의 회사가 AAC 오디오 코덱 개발에 참여해온 것으로 알려져 있다. AAC는 향상된 압축 기술로 인해 작은 크기 파일크기에서도 더 좋은 음질을 제공하며 높은 음 분해 능력을 통해 최대 96kHz(CD음질이 44.1kHz)까지 샘플링을 할 수 있다.The Advanced Audio Coding (AAC) file is a new audio codec adopted by the MPEG-4 standard. It is more efficient than MP3 and has a sound quality similar to that of a CD. Dolby, Frauhofer (FhG), AT & T, Sony and Nokia have been involved in developing AAC audio codecs. AAC is able to sample up to 96 kHz (CD quality 44.1 kHz) with high resolution due to its improved compression technology, providing better sound quality even at small file sizes.

FLAC(Free Lossless Audio Codec) 파일은, 원본 오디오와 비교하여 음원의 손실이 없다. 왜냐하면, MP3는 사람이 듣지 못하는 주파수 영역의 소리를 삭제하여 파일 용량을 줄이고, FLAC는 원 음원을 지우지 않고 파일만 압축해 용량을 줄이기 때문이다. The Free Lossless Audio Codec (FLAC) file has no loss of sound source compared to the original audio. This is because MP3 reduces the file size by deleting the sound of the frequency range that people can not hear, and FLAC reduces the capacity by compressing only the file without erasing the original sound source.

ALAC(Apple Lossless Audio Codec)은 애플사에서 개발한 디지털 음악의 무손실 압축 오디오 코덱이다. The Apple Lossless Audio Codec (ALAC) is a lossless compressed audio codec for digital music developed by Apple.

WMA(Window Media Audio) 파일은 MP3보다 낮은 65kbps 포맷으로 MP3의 128kbps의 포맷과 동등한 음질을 제공한다고 알려져 있다. 용량면에서는 MP3 절반 정도 차지하면서 음질은 동일한 정도로 제공하는 포맷 형식이다. 320bit의 MP3 파일은 보통 용량이 10MB 정도인데, 이 파일을 WMA로 변환해서 들을 경우 96bit로 변환하여 MP3 파일과 거의 동일한 음을 제공하면서도 용량은 1~3MB 내외이다.WMA (Window Media Audio) files are known to provide audio quality equivalent to the 128kbps format of MP3 at a lower 65kbps format than MP3. In terms of capacity, it is a format format that provides about the same amount of MP3 while consuming about half of MP3. 320bit MP3 files usually have a capacity of 10MB. If you convert this file to WMA, you can convert it to 96bit, which gives almost the same sound as an MP3 file, but it is about 1 ~ 3MB.

한편, 디지털 음원 생성 모듈(115)은 하나의 미디 파일을 기초로, 하나 이상의 디지털 음원을 생성할 수 있다. 즉, 하나의 곡에 대해서, 제1 음정을 갖는 제1 디지털 음원과, 상기 제1 음정과 다른 제2 음정을 갖는 제2 디지털 음원을 포함할 수 있다. On the other hand, the digital sound source generation module 115 may generate one or more digital sound sources based on one MIDI file. That is, for one piece of music, it may include a first digital sound source having a first pitch and a second digital sound source having a second pitch different from the first pitch.

여기서, 도 3을 참조하여 예를 들어 설명하면, 하나의 곡에 대해서, 서로 다른 음정을 갖는 다수의 디지털 음원(201, 202, 203)을 생성할 수 있다. 최초의 미디 파일을 그대로 디지털 음원으로 변환시킨다면 제1 음정(예를 들어, 파(F))의 제1 디지털 음원(201)이 생성된다. 디지털 음원 생성 모듈(115)은 제1 음정보다 높은 제2 음정(예를 들어, 시(B))의 제2 디지털 음원(202) 또는 제1 음정보다 낮은 제3 음정(예를 들어, 도(C))의 제3 디지털 음원(203)을 생성할 수 있다.Referring to FIG. 3, a plurality of digital sound sources 201, 202, and 203 having different pitches can be generated for one piece of music. The first digital sound source 201 of the first pitch (for example, wave F) is generated if the first MIDI file is directly converted into a digital sound source. The digital sound source generation module 115 generates a digital sound source by using a second digital sound source 202 of a second pitch higher than the first pitch (e.g., time B) or a third pitch (e.g., C) of the third digital sound source 203 can be generated.

이와 같이 다수의 서로 다른 음정을 갖는 디지털 음원(201, 202, 203)을 생성하는 이유는, 자세히 후술하겠으나, 디지털 음원 재생 장치(20)이 디지털 음원의 음정 변경할 때, 디지털 음원의 왜곡을 없애기 위해서이다(도 15 및 도 16 참조).The reason why the digital sound sources 201, 202, and 203 having a plurality of different pitches are generated will be described in detail later. However, when the digital sound source reproducing apparatus 20 changes the pitch of the digital sound source, (See Figs. 15 and 16).

다시 도 2를 참조하면, 저장 모듈(120)은 디지털 음원을 저장한다. 전술한 것과 같이, 저장 모듈(120)은 하나의 곡에 대해서 다수의 디지털 음원(도 3의 201, 202, 203)을 가질 수 있다. Referring again to FIG. 2, the storage module 120 stores a digital sound source. As described above, the storage module 120 may have a plurality of digital sound sources (201, 202, 203 in FIG. 3) for one piece of music.

또한, 저장 모듈(120)은 후술할 비트별 박자 정보, 비트별 템포 정보, 시간별 템포 정보, 악보 정보, 비트별 노트 정보, 시간별 노트 정보 등을 저장할 수 있다.In addition, the storage module 120 may store beat-specific tone information, bit-by-bit tempo information, time-based tempo information, score information, bit-by-bit note information,

또한, 저장 모듈(120)은 사용자에 의해 변경된 연주 정보를 제공받아 더 저장할 수 있다. 연주 정보는 변경된 비트별 템포 정보, 변경된 시간별 템포 정보 및 변경된 음정 정보, 변경된 악보 정보 중 적어도 하나를 포함할 수 있다. 즉, 디지털 음원 재생 장치(20) 측에서 디지털 음원의 템포/음높이 등의 변경이 있으면, 상기 변경에 따른 상기 연주 정보를 디지털 음원 관리 시스템(10)에서 저장한다.In addition, the storage module 120 may further receive the performance information changed by the user. The performance information may include at least one of changed bit-by-bit tempo information, changed time-based tempo information, changed pitch information, and changed score information. That is, if there is a change in the tempo / pitch of the digital sound source on the digital sound source reproducing apparatus 20 side, the performance information according to the change is stored in the digital sound source management system 10.

악보 생성 모듈(130)은 디지털 음원에 대응되는 악보와, 디지털 음원의 비트 정보를 포함하는 악보 정보를 생성한다. 악보 정보는 예를 들어, 다수의 마디 악보와, 다수의 마디 악보에 각각 대응되는 다수의 비트 정보일 수 있다. 또한, 악보 정보는 다수의 마디 악보의 마디길이 정보를 더 포함할 수 있다.The score creation module 130 generates score information corresponding to a digital sound source and bit information of a digital sound source. The score information may be, for example, a plurality of note scores and a plurality of bit information corresponding to a plurality of note scores, respectively. In addition, the score information may further include a measure length information of a plurality of measure scores.

우선, 악보 생성 모듈(130)은 디지털 음원에 대응되는 전체 악보를 생성한다. 악보 생성 모듈(130)은 사보 프로그램(예를 들어, 시벨리우스(Sibelius) 소프트웨어)을 이용하여 전체 악보를 생성할 수 있다. 사보 프로그램은 미디 파일을 이용하여 악보 이미지(예를 들어, jpg 파일)을 추출한다.First, the score creation module 130 generates the entire score corresponding to the digital sound source. The score creation module 130 can generate the entire score using a news program (e.g., Sibelius software). The Sabo program extracts a score image (for example, a jpg file) using a MIDI file.

이어서, 악보 생성 모듈(130)은 전체 악보를 마디 단위로 구분하여 다수의 마디 악보를 생성한다. Then, the score creation module 130 divides the entire score into units of a bar, and generates a plurality of bar scores.

여기서, 도 4를 참조하면, 다수의 마디 악보를 생성하는 것은, 먼저, 제1 축(S1) 방향으로 스캔하여 악보의 가로선의 위치를 확인한다. 악보의 5개의 가로선의 위치를 확인한다.Here, referring to FIG. 4, in order to generate a plurality of nodal notes, first, the position of the horizontal line of the score is confirmed by scanning in the direction of the first axis S1. Check the position of the five horizontal lines of the score.

이어서, 제1 축(S1)과 다른 제2 축(S2) 방향으로 스캔하여, 마디선 후보(C0, C1, C2, C3)의 위치를 확인한다. 마디선 후보(C0, C1, C2, C3)는 5개의 가로선을 가로지르는(또는 연결하는) 세로선이 될 수 있다. 그런데, 마디선 후보(C0, C1, C2, C3)가 마디선인지 노트의 스템(stem)인지 여부를 체크해야 한다. 이를 위해서, 마디선 후보(C0, C1, C2, C3)의 바로 인접한, 적어도 일측을 체크해 봐야 한다. Then, the position of the node line candidates (C0, C1, C2, C3) is confirmed by scanning in the direction of the second axis S2 different from the first axis S1. The node line candidate (C0, C1, C2, C3) can be a vertical line that crosses (or connects) five horizontal lines. However, it is necessary to check whether the node line candidates (C0, C1, C2, C3) are node lines or stem of a knot. To do this, it is necessary to check at least one side immediately adjacent to the node line candidate (C0, C1, C2, C3).

도 5를 참조하면, 마디선 후보(예를 들어, C1)의 양측(C11, C12)에 어떠한 것도 없다.Referring to Fig. 5, there is nothing on both sides C11 and C12 of the node line candidate (for example, C1).

하지만, 도 6을 참조하면, 마디선 후보(예를 들어, CF)의 일측(CF1)에는 어떠한 것도 없지만, 타측(CF2)에는 4개의 노트 헤드(note head)와 플래그(flag)(또는 테일(tail)로 불리기도 함)가 위치한다. 6, there is nothing on one side CF1 of the node line candidate (CF), but on the other side CF2, four note heads and a flag (or a tail (for example, tail ").

따라서, 도 5의 마디선 후보(C1)를 마디선으로 확정하고, 도 6의 마디선 후보(CF)는 마디선으로 인정하지 않는다. Therefore, the nodal line candidate C1 of Fig. 5 is determined as a nodal line, and the nodal line candidate CF of Fig. 6 is not recognized as a nodal line.

다시 도 4를 참조하면, 악보 생성 모듈(130)에서, 자리표(높은음자리, 낮은음자리)와, 조표, 박자표를 생성하는 것은, 수동 또는 자동으로 가능하다. 즉, 사용자가 첫번째 마디를 보고, 자리표, 조표, 박자표 등은 직접 입력할 수 있다. 또는, 스캔 방식을 이용해서, 첫번째 마디에 위치한 자리표, 조표, 박자표를 자동으로 인식할 수도 있다. 또는, 수동/자동 입력 방식이 혼재되어 사용될 수도 있다. 예를 들어, 자리표, 조표, 박자표 중 일부(예를 들어, 조표, 박자표)는 수동으로 입력하고, 자리표는 자동으로 인식될 수도 있다.Referring again to FIG. 4, in the score creation module 130, it is possible to manually generate a position (high position, low position), a key, and a time signature. In other words, the user can see the first bar, and can directly input the coordinates, marks, and time signature. Alternatively, you can use the scan method to automatically recognize the placemark, keypad, and time signature on the first bar. Alternatively, a manual / automatic input method may be used in combination. For example, some of the placemarks, keyframes, and time signature (for example, keyframes, timeframes) may be entered manually, and the keys may be recognized automatically.

여기서 도 7을 참조하면, 악보 생성 모듈(130)은 다수의 마디 악보에 각각 대응되는 다수의 비트 정보를 더 생성할 수 있다. Referring to FIG. 7, the score creation module 130 may further generate a plurality of pieces of bit information corresponding to a plurality of bars.

도 7에 도시된 것과 같이, 비트 정보는 각 마디 악보에 대응되는 비트일 수 있다. 여기서, 몇번째 "비트"인지는, "곡의 최초 시작 비트"에서부터 카운팅된다. 또한, 도시된 것과 같이, 비트 정보는 각 마디 악보의 시작 비트 일 수 있다. 구체적으로 예를 들면, 4/4박자의 곡인 경우, 첫번째 마디의 시작 비트는 1이고, 두번째 마디의 시작 비트는 5이고, 세번째 마디의 시작 비트는 9 가 된다. 예를 들어, 도 4에 도시된 것과 같이, 2/4박자의 곡이라면, 첫번째 마디의 시작 비트는 1, 두번째 마디의 시작 비트는 3 일 수 있다.As shown in FIG. 7, the bit information may be a bit corresponding to each nodal score. Here, the number of "bits" is counted from "the initial start bit of the song". Further, as shown, the bit information may be the start bit of each tune score. Specifically, for example, in the case of a 4/4 beat song, the start bit of the first measure is 1, the start bit of the second measure is 5, and the start bit of the third measure is 9. For example, in the case of a 2/4 beat song, as shown in FIG. 4, the start bit of the first measure may be 1, and the start bit of the second measure may be 3.

물론, 필요에 따라서, 비트 정보는 각 마디에 속하는 다수 개의 비트를 포함할 수 있다. 예를 들어, 4/4박자의 곡인 경우, 첫번째 마디의 비트 정보는 1, 3 일 수 있다. Of course, if necessary, the bit information may include a plurality of bits belonging to each node. For example, in the case of a 4/4 beat song, the bit information of the first measure may be 1 or 3.

또한, 필요에 따라서, 비트 정보는 시작 비트만 표시되지 않고, 비트 구간(예를 들어, 첫번째 마디에 대응되는 비트 정보는 "비트1~4")으로 표시될 수도 있다. Also, if necessary, the bit information does not indicate only the start bit, and the bit period (for example, the bit information corresponding to the first node may be represented by "bits 1 to 4").

또한, 악보 생성 모듈(130)은 다수의 마디 악보의 마디길이 정보(L1~L4)를 더 생성할 수 있다. 디지털 음원 재생 장치(20)는 마디길이 정보(L1~L4) 및 시간별 템포 정보를 이용하여, 마디 악보의 속도를 계산할 수 있다. 계산된 속도를 고려하여, 디지털 음원(반주)과 악보(이미지 파일)를 동기화할 수 있다. 예를 들어, L1~L4의 길이가 모두 동일하다면, 각 마디의 템포에 따라서, 예를 들어, 첫번째 마디는 천천히 마디 악보가 움직이고, 두번째 마디는 좀 더 빠르게 마디 악보가 움직일 수 있다. 또한, 마디 악보 자체가 움직일 수도 있고, 마디 악보 상에 일정한 표시(예를 들어, 연주 위치를 나타내는 선)이 움직일 수도 있다. In addition, the score creation module 130 may further generate bar length information L1 to L4 of a plurality of bar scores. The digital sound source reproducing apparatus 20 can calculate the speed of the nodal score using the nodal length information L1 to L4 and the time-based tempo information. In consideration of the calculated speed, it is possible to synchronize the digital sound source (accompaniment) and the score (image file). For example, if the lengths of L1 to L4 are all the same, depending on the tempo of each segment, for example, the first segment may move slowly and the second segment may move the segment more quickly. Further, the nodal score itself may move, or a certain indication (for example, a line indicating the performance position) may move on the nodal score.

다시 도 2를 참조하면, 비트 관리 모듈(140)은 디지털 음원에 대응되는 비트별 박자 정보와 비트별 템포 정보를 생성한다. 또한, 비트 관리 모듈(140)은 디지털 음원에 대응되는 비트별 노트 정보를 더 생성할 수 있다. 즉, 비트 관리 모듈(140)은 비트를 기준으로, 박자 정보, 템포 정보, 노트 정보를 정리하게 된다. Referring again to FIG. 2, the bit management module 140 generates beat information and bit-by-bit tempo information corresponding to a digital sound source. In addition, the bit management module 140 may further generate bit-by-bit note information corresponding to the digital sound source. That is, the bit management module 140 arranges beat information, tempo information, and note information based on a bit.

한편, 비트 관리 모듈(140)은 하나의 프로그램으로 구현될 수도 있고, 서로 다른 프로그램으로 구현될 수도 있다. 예를 들어, 비트별 박자 정보와 비트별 템포 정보는 서로 다른 프로그램에 의해서 구현될 수도 있다. 또한, 비트별 박자 정보와 비트별 노트 정보는 하나의 프로그램에 의해서 구현될 수도 있다.Meanwhile, the bit management module 140 may be implemented as one program or as a different program. For example, the beat-specific beat information and the bit-by-bit tempo information may be implemented by different programs. In addition, the beat-specific beat information and the bit-by-bit note information may be implemented by a single program.

여기서, 도 8을 참조하면, 비트별 박자 정보는, 비트 정보와 박자표를 포함한다. 도 8에 도시된 것과 같이, 비트 정보는 비트 구간으로 표시될 수 있다. b1~b20 비트 구간에서 4/4박자이고, b21~b40 비트 구간에서는 3/4박자일 수 있다. 표시된 것과 달리, 비트 정보는 시작 비트로 표시될 수 있다. 이러한 경우, 도 8의 비트별 박자 정보는 (b1, 4/4박자), (b21, 3/4박자)로 표시될 것이다.Here, referring to FIG. 8, the beat information per bit includes bit information and a time signature. As shown in FIG. 8, the bit information can be represented by a bit interval. 4/4 beats in the b1 ~ b20 bit interval, and 3/4 beats in the b21 ~ b40 beat interval. Unlike what is displayed, bit information can be represented by a start bit. In this case, the beat information for each bit in FIG. 8 will be displayed as (b1, 4/4 time), (b21, 3/4 time).

도 9를 참조하면, 비트별 템포 정보는, 비트 정보와 템포값(예를 들어, bpm)을 포함한다. 도 9에 도시된 것과 같이, 비트 정보는 비트 구간으로 표시될 수 있다. b1~b2 비트 구간에서 120bpm의 템포이고, b3~b4 비트 구간에서 130bpm의 템포이고, b5~b6 비트 구간에서 140bpm의 템포이고, b7~b8 비트 구간에서 120bpm의 템포일 수 있다. 여기서, bpm은 beat per minute로서, 분당 비트수를 의미한다. 120bpm이면, 1분에 120 비트가 연주되는 속도라는 의미이다. 표시된 것과 달리, 비트 정보는 시작 비트로 표시될 수 있다. 이러한 경우, 도 9의 비트별 템포 정보는 (b1, 120 bpm), (b3, 130 bpm), (b5, 140 bpm), (b7, 120 bpm)로 표시될 것이다.Referring to FIG. 9, the bit-by-bit tempo information includes bit information and a tempo value (for example, bpm). As shown in FIG. 9, the bit information can be represented by a bit interval. a tempo of 120 bpm in the b1 to b2 bit interval, a tempo of 130 bpm in the b3 to b4 bit interval, a 140 bpm of the b5 to b6 bit interval and a 120 bpm of the b7 to b8 bit interval. Here, bpm is the beat per minute, which means the number of bits per minute. If it is 120 bpm, it means the speed at which 120 bits are played per minute. Unlike what is displayed, bit information can be represented by a start bit. In this case, the bit-by-bit tempo information in FIG. 9 will be represented by (b1, 120 bpm), (b3, 130 bpm), (b5, 140 bpm), and (b7, 120 bpm).

연주를 통해서 제작된 디지털 음원의 경우, 박자표가 일정하더라도, 연주가의 표현에 따라서 템포(빠르기)가 변경될 수 있다. 즉, 4/4박자의 곡이라 하더라도, 연주가가 빠르게 연주하고 싶은 구간은 140~160bpm의 템포로 연주될 수 있고, 연주가가 느리게 연주하고 싶은 구간은 100bpm 이하의 템포로 연주될 수 있다. 따라서, 정확한 반주를 위해서, 비트별 템포 정보가 반드시 필요하다.In the case of a digital sound source produced through performance, even if the time signature is constant, the tempo (speed) may be changed according to the expression of the performer. That is, even if the song is a 4/4 time, the section that the performer wants to perform quickly can be played at a tempo of 140 to 160 bpm, and the section the performer wants to perform slowly can be performed at a tempo of 100 bpm or less. Therefore, for accurate accom- plishment, bit-by-bit tempo information is indispensable.

도 10을 참조하면, 비트별 노트 정보는, 비트 정보와 노트 정보(예를 들어, 피치)를 포함한다. 도 10에 도시된 것과 같이, 비트 정보는 비트 구간으로 표시될 수 있다. b1~b11 비트 구간에서 4C이고, b12~b13 비트 구간에서 4D의 템포이고, b14~b15 비트 구간에서 4E의 템포이고, b16~b2 비트 구간에서 5C의 템포일 수 있다. 여기서, 4C, 4D, 4E는 각각 4옥타브의 도, 레, 미를 의미하고, 5C는 5옥타브의 도를 의미한다. 표시된 것과 달리, 비트 정보는 시작 비트로 표시될 수 있다. 이러한 경우, 도 10의 비트별 노트 정보는 (b1, 4C), (b12, 4D), (b14, 4E), (b16, 5C)로 표시될 것이다.Referring to FIG. 10, bit-by-bit note information includes bit information and note information (for example, pitch). As shown in FIG. 10, the bit information can be represented by a bit interval. 4C in the b1 to b11 bit interval, 4D in the b12 to b13 bit interval, 4E in the b14 to b15 bit interval, and 5C in the b16 to b2 bit interval. Here, 4C, 4D, and 4E denote degrees, raises and lows of four octaves, respectively, and 5C denotes a degree of five octaves. Unlike what is displayed, bit information can be represented by a start bit. In this case, the bit-by-bit note information in FIG. 10 will be indicated by (b1, 4C), (b12, 4D), (b14, 4E), (b16, 5C).

다시 도 2를 참조하면, 시간 관리 모듈(150)은, 비트 관리 모듈(140)로부터 비트별 박자 정보와 비트별 템포 정보를 제공받아, 시간별 템포 정보를 생성한다. 또한, 시간 관리 모듈(150)은 비트 관리 모듈(140)로부터 비트별 노트 정보와 비트별 템포 정보를 제공받아, 시간별 노트 정보를 더 생성할 수 있다.Referring back to FIG. 2, the time management module 150 receives beat-specific beat information and beat-specific tempo information from the bit management module 140, and generates time-based tempo information. In addition, the time management module 150 may receive bit-by-bit note information and bit-by-bit tempo information from the bit management module 140, and may further generate note information by time.

여기서, 도 11을 참조하면, 시간별 템포 정보는 시간 정보와 템포 정보(즉, 템포값)를 포함한다. 도 11에 도시된 것과 같이, 시간 정보는 시간 구간으로 표시될 수 있다. t1~t2 시간 구간에서 120bpm의 템포이고, t3~t4 시간 구간에서 130bpm의 템포이고, t5~t6 시간 구간에서 140bpm의 템포이고, t7~t8 시간 구간에서 120bpm의 템포일 수 있다. 추가적으로, 시간별 템포 정보는 비트 정보를 더 포함할 수 있다. 여기서 비트 정보는 시작 비트로 표시될 수 있다. 이러한 경우, 시간별 템포 정보는, (비트 정보, 시간 정보, 템포값)으로 표시될 수 있다. 표시된 것과 달리, 시간 정보는 시작 시간으로 표시될 수 있다. 이러한 경우, 도 11의 시간별 템포 정보는 (b1, t1, 120 bpm), (b3, t3, 130 bpm), (b5, t5, 140 bpm), (b7, t7, 120 bpm)로 표시될 것이다.Here, referring to FIG. 11, the time-based tempo information includes time information and tempo information (i.e., tempo value). As shown in Fig. 11, the time information can be displayed as a time interval. a tempo of 120 bpm in the time period t1 to t2, a tempo of 130 bpm in the time period t3 to t4, a tempo of 140 bpm in the time period t5 to t6, and a tempo of 120 bpm in the time period t7 to t8. Additionally, the temporal tempo information may further include bit information. Here, the bit information can be represented by a start bit. In this case, the temporal tempo information may be represented by (bit information, time information, tempo value). Unlike what is displayed, the time information can be displayed as a start time. In this case, the tempo information for the time of FIG. 11 will be expressed as (b1, t1, 120 bpm), (b3, t3, 130 bpm), (b5, t5, 140 bpm), (b7, t7, 120 bpm).

구체적으로, 시간별 템포 정보는 다음과 같이 계산될 수 있다. 비트별 박자 정보를 참고하면, 0비트에서 16비트까지는 4/4박자임을 알 수 있고, 비트별 템포 정보를 참고하면, 0비트부터 4비트까지는 120bpm, 5비트~8비트는 130bpm, 9비트~12비트는 150bpm, 13비트~16비트는 100bpm 임을 알 수 있다고 가정하자.Specifically, the temporal tempo information can be calculated as follows. Referring to the beat information for each bit, it can be seen that 0 to 16 bits are 4/4 time. Referring to the bit-by-bit tempo information, 0 to 4 bits are 120 bpm, 5 bits to 8 bits are 130 bpm, Suppose that the 12 bits are 150 bpm and the 13 bits to 16 bits are 100 bpm.

그러면, 120bpm은 1분에 120비트를 연주해야 하므로, 비트 사이의 간격은 0.5초이다. 따라서, 1비트에서 4비트까지(즉, 첫번째 마디)는 2초만에 연주되어야 한다. Then, 120 bpm should play 120 bits per minute, so the interval between the bits is 0.5 seconds. Thus, from 1 to 4 bits (i.e., the first measure) must be played in 2 seconds.

130bpm은 1분에 130비트를 연주해야 하므로, 비트 사이의 간격은 약 0.46초이다. 따라서, 5비트에서 8비트까지(즉, 두번째 마디)는 약 1.84초만에 연주되어야 한다.Since 130bpm should play 130 bits per minute, the interval between the bits is about 0.46 seconds. Thus, from 5 bits to 8 bits (i.e., the second measure) should be played in about 1.84 seconds.

150bpm은 1분에 150비트를 연주해야 하므로, 비트 사이의 간격은 약 0.4초이다. 따라서, 9비트에서 12비트까지(즉, 세번째 마디)는 약 1.6초만에 연주되어야 한다.Since 150 bpm is required to play 150 bits per minute, the interval between the bits is about 0.4 seconds. Thus, from 9 bits to 12 bits (i.e., the third node) must be played in about 1.6 seconds.

100bpm은 1분에 100비트를 연주해야 하므로, 비트 사이의 간격은 약 0.6초이다. 따라서, 13비트에서 16비트까지(즉, 네번째 마디)는 약 2.4초만에 연주되어야 한다.Since 100 bpm must play 100 bits per minute, the interval between the bits is about 0.6 seconds. Thus, from 13 bits to 16 bits (i.e., the fourth node) should be played only about 2.4 seconds.

정리하면, 상기 예의 시간별 템포 정보는 [표 1]과 같이 표시될 수 있다. In summary, the tempo information of the above example can be displayed as shown in [Table 1].

Figure pat00001
Figure pat00001

자세히 후술하겠으나, 본 발명의 몇몇 실시예에서, 저장 모듈(120)에 저장되어 있는 디지털 음원은 비트 정보가 아닌 시간 정보를 가지고 있다. 따라서, 디지털 음원의 연주 상태를 알려면 또는 디지털 음원의 연주 지점을 변경하려면, 시간 정보를 알아야 한다. 또한, 악보는 비트 정보를 가지고 있다. 따라서, 디지털 음원과 악보를 동기화 하려면, 시간 정보, 비트 정보를 서로 매칭하기 위한 데이터가 필요하다. 시간별 템포 정보는 이러한 매칭 데이터 역할을 한다.As will be described in greater detail below, in some embodiments of the present invention, the digital sound source stored in the storage module 120 has time information rather than bit information. Therefore, if you want to know the playing status of a digital sound source or to change the playing point of a digital sound source, you need to know the time information. The score also has bit information. Therefore, in order to synchronize the digital sound source and the score, data for matching time information and bit information with each other is required. Temporal tempo information serves as this matching data.

도 12를 참조하면, 시간별 노트 정보는 시간 정보와 노트 정보(예를 들어, 피치)를 포함한다. 도 12에 도시된 것과 같이, 시간 정보는 시간 구간으로 표시될 수 있다. t1~t11 시간 구간에서 4C를 연주하고, t12~t13 시간 구간에서 4D를 연주하고, t14~t15 시간 구간에서 4E를 연주하고, t16~t2 시간 구간에서 5C를 연주할 수 있다. 추가적으로, 시간별 노트 정보는 비트 정보를 더 포함할 수 있다. 여기서 비트 정보는 시작 비트로 표시될 수 있다. 이러한 경우, 시간별 템포 정보는, (비트 정보, 시간 정보, 노트 정보)으로 표시될 수 있다. 표시된 것과 달리, 시간 정보는 시작 시간으로 표시될 수 있다. 이러한 경우, 도 12의 시간별 템포 정보는 (b1, t1, 4C), (b3, t3, 4D), (b5, t5, 4E), (b7, t7, 5C)로 표시될 것이다.Referring to FIG. 12, time-based note information includes time information and note information (e.g., pitch). As shown in Fig. 12, the time information can be displayed in a time interval. 4C can be played in the time interval t1 to t11, 4D can be played in the time interval t12 to t13, 4E can be played in the time interval t14 to t15, and 5C can be played in the time interval t16 to t2. Additionally, the time-based note information may further include bit information. Here, the bit information can be represented by a start bit. In such a case, the temporal tempo information may be expressed by (bit information, time information, note information). Unlike what is displayed, the time information can be displayed as a start time. In this case, the tempo-specific tempo information of FIG. 12 will be indicated by (b1, t1, 4C), (b3, t3, 4D), (b5, t5, 4E), (b7, t7, 5C).

자세히 후술하겠으나, 본 발명의 몇몇 실시예에서, 연주자의 연주 속도를 인식하기 위해서, 시간별 노트 정보를 사용할 수 있다. As will be described in detail below, in some embodiments of the present invention, note-by-time information may be used to recognize the performance speed of the performer.

다시 도 2를 참조하면, 통신 모듈(160)은 디지털 음원, 시간별 템포 정보(비트 정보 포함), 시간별 노트 정보(비트 정보 포함), 악보 정보 등을 디지털 음원 생성 모듈(115)에 전송한다. Referring again to FIG. 2, the communication module 160 transmits a digital sound source, time-based tempo information (including bit information), time information (including bit information), and musical note information to the digital sound source generation module 115.

시간별 템포 정보, 시간별 노트 정보에 비트 정보가 포함되지 않는 경우에는, 통신 모듈(160)은 비트별 템포 정보도 디지털 음원 생성 모듈(115)에 전송한다. If the bit information is not included in the time-based tempo information and the time-based note information, the communication module 160 also transmits the bit-by-bit tempo information to the digital sound source generation module 115.

또한, 통신 모듈(160)은 디지털 음원 생성 모듈(115)로부터, 변경된 연주 정보(예를 들어, 변경된 비트별 템포 정보, 변경된 시간별 템포 정보 및 변경된 음정 정보 중 적어도 하나)를 제공받아, 저장 모듈(120)에 저장시킬 수 있다. 디지털 음원 생성 모듈(115)에서 요청시, 변경된 연주 정보는 다시 디지털 음원 생성 모듈(115)에게 전송될 수 있다. The communication module 160 receives the changed performance information (for example, the changed tempo information for each bit, at least one of the changed tempo information and the changed pitch information) from the digital tone generator module 115, 120). When requested by the digital sound source generation module 115, the changed performance information may be transmitted to the digital sound source generation module 115 again.

도 13은 본 발명의 몇몇 실시예에 따른 디지털 음원 재생 장치의 예시적인 블록도이다.13 is an exemplary block diagram of a digital sound source reproducing apparatus according to some embodiments of the present invention.

도 13을 참조하면, 본 발명의 몇몇 실시예에 따른 디지털 음원 재생 장치(20)는 제어 유닛(210), 저장 유닛(220), 재생 유닛(230), 디스플레이 유닛(240), 출력 유닛(250), 입력 유닛(255), 통신 유닛(260), 센싱 유닛(270) 등을 포함할 수 있다. 여기서, 각각의 유닛(210, 220, 230, 240, 250, 255, 260, 270)은 기능적인 구분이다. 따라서, 실질적인 구현은, 몇 개의 유닛이 하나의 장치/기구/프로그램으로 합쳐져서 구현되거나, 1개의 유닛이 다수의 장치/기구/프로그램으로 나뉘어져 구현되거나, 각각의 유닛이 모두 별개로 구현될 수도 있다.13, a digital sound source reproduction apparatus 20 according to some embodiments of the present invention includes a control unit 210, a storage unit 220, a reproduction unit 230, a display unit 240, an output unit 250 An input unit 255, a communication unit 260, a sensing unit 270, and the like. Here, each unit 210, 220, 230, 240, 250, 255, 260, 270 is a functional division. Thus, a practical implementation may be implemented in such a way that several units are combined into one device / mechanism / program, one unit may be divided into multiple devices / mechanisms / programs, or each unit may be implemented separately.

제어 유닛(210)은 저장 유닛(220), 재생 유닛(230), 디스플레이 유닛(240), 출력 유닛(250), 입력 유닛(255), 통신 유닛(260) 및 센싱 유닛(270)의 동작을 제어한다. The control unit 210 controls the operation of the storage unit 220, the reproduction unit 230, the display unit 240, the output unit 250, the input unit 255, the communication unit 260 and the sensing unit 270 .

통신 유닛(260)은 디지털 음원 관리 시스템(10)으로부터 여러가지 데이터(예를 들어, 디지털 음원, 시간별 템포 정보(비트 정보 포함), 시간별 노트 정보(비트 정보 포함), 악보 정보 등)을 제공받는다. 구체적으로, 하나의 곡에 대해서, 서로 다른 음정을 갖는 다수의 디지털 음원이 제공된다. 시간별 템포 정보는 시간 정보와 템포 정보(템포값)을 포함할 수 있고, 비트 정보도 추가적으로 포함할 수 있다. 시간별 노트 정보는 시간 정보와 노트 정보를 포함할 수 있고, 비트 정보도 추가적으로 포함할 수 있다. 만약, 시간별 템포 정보, 시간별 노트 정보에 비트 정보가 포함되지 않는 경우에는, 통신 유닛(260)은 디지털 음원 관리 시스템(10)으로부터 비트별 템포 정보도 제공받는다. The communication unit 260 is supplied with various data (for example, a digital sound source, time tempo information (including bit information), time note information (including bit information), musical note information, etc.) from the digital sound source management system 10. Specifically, for one piece of music, a plurality of digital sound sources having different pitches are provided. Temporal tempo information may include time information and tempo information (tempo value), and may additionally include bit information. The note information by time may include time information and note information, and bit information may be additionally included. If bit information is not included in the time-based tempo information and the time-based note information, the communication unit 260 is also provided with bit-by-bit tempo information from the digital sound source management system 10. [

저장 유닛(220)은, 디지털 음원 관리 시스템(10)으로부터 제공받은 여러가지 데이터를 저장한다. 또한, 사용자에 의해 변경된 연주 정보(예를 들어, 변경된 비트별 템포 정보, 변경된 시간별 템포 정보 및 변경된 음정 정보 중 적어도 하나)도 저장할 수 있다. The storage unit 220 stores various data provided from the digital sound source management system 10. [ Also, it is possible to store performance information changed by the user (for example, at least one of changed bit rate information, changed time rate information, and changed pitch information).

재생 유닛(230)은 제어 유닛(210)의 제어에 따라서 디지털 음원을 재생한다. 재생 유닛(230)은 디지털 음원을 재생할 수 있는 플레이어(player)라면, 어떤 것이든 가능하다. 제어 유닛(210)은 시간별 템포 정보, 시간별 노트 정보 등을 이용하여, 디지털 음원의 재생 속도를 조절할 수 있다. 디지털 음원은 출력 유닛(250)(예를 들어, 스피커)을 통해서 출력된다. The reproduction unit 230 reproduces the digital sound source under the control of the control unit 210. [ The playback unit 230 may be any player capable of playing a digital sound source. The control unit 210 can adjust the playback speed of the digital sound source using the time-based tempo information, time-based note information, and the like. The digital sound source is output through an output unit 250 (e.g., a speaker).

디스플레이 유닛(240)은 제어 유닛(210)의 제어에 따라서 악보 이미지를 디스플레이한다. 제어 유닛(210)은 시간별 템포 정보 및 악보 정보를 이용하여 디스플레이하는 악보의 속도를 조절할 수 있다.The display unit 240 displays the score image according to the control of the control unit 210. [ The control unit 210 can adjust the speed of the score to be displayed using the tempo information and the score information.

입력 유닛(255)은 예를 들어, 마이크, 키패드, 터치 패드, 전자펜 등 다양한 방식의 입력 도구가 사용될 수 있다. 디지털 음원 재생 장치(20)에는 여러 개의 입력 유닛(255)(예를 들어, 마이크와 터치 패드)이 설치되어 있을 수도 있다. The input unit 255 may be a variety of input tools such as, for example, a microphone, a keypad, a touch pad, and an electronic pen. A plurality of input units 255 (for example, a microphone and a touch pad) may be provided in the digital sound source reproducing apparatus 20. [

한편, 터치 입력이 가능한 디스플레이(다른 용어로, 터치패널)는, 디스플레이 유닛(240)의 역할과 입력 유닛(255)의 역할을 동시에 한다. Meanwhile, a display (in other words, a touch panel) capable of touch input simultaneously serves as the display unit 240 and the input unit 255.

출력 유닛(250)은 예를 들어, 스피커일 수 있다.The output unit 250 may be, for example, a speaker.

한편, 제어 유닛(210)은 시간별 노트 정보와, 사용자의 연주 노트를 비교하여, 사용자가 정확한 노트를 연주하고 있는지를 체크한다.On the other hand, the control unit 210 compares the note information of the time with the performance note of the user to check whether or not the user is playing the correct note.

또한, 사용자는 디지털 음원의 적어도 일부의 템포를 변경할 수 있다. 예를 들어, 사용자에 의해서 기설정된 기준 영역별로(예를 들어, 마디별로) 템포 변경 정도를 직접 입력받을 수 있다(도 17, 도 18 참조). 또는 디지털 음원에 따라서 사용자가 연주하고, 사용자의 연주(연주 템포, 연주 노트 등)를 센싱 유닛(270)에서 센싱하고 제어 유닛(210)에서 분석함으로써, 템포가 변경될 수 있다(도 19 참조). The user can also change the tempo of at least a portion of the digital sound source. For example, the degree of tempo change can be directly inputted for each reference area (for example, each node) predetermined by the user (see FIGS. 17 and 18). Or the digital sound source, and the tempo can be changed by sensing the performance of the user (performance tempo, performance note, etc.) in the sensing unit 270 and analyzing it in the control unit 210 (see FIG. 19) .

사용자의 요청에 따라 템포가 변경되면, 제어 유닛(210)은 새로운(또는 변경된) 시간별 템포 정보(비트 정보 포함)를 생성한다. 시간별 템포 정보에 비트 정보가 없는 경우라면, 제어 유닛(210)은 새로운(또는 변경된) 시간별 템포 정보와 새로운(또는 변경된) 비트별 템포 정보를 생성한다. 또한, 제어 유닛(210)은 새로운 비트별 템포 정보를 기초로, 새로운 비트 정보가 포함된 새로운 악보 정보를 생성한다. When the tempo is changed according to the user's request, the control unit 210 generates new (or changed) time-based tempo information (including bit information). If there is no bit information in the hourly tempo information, the control unit 210 generates new (or changed) hourly tempo information and new (or changed) bitwise tempo information. Also, the control unit 210 generates new score information including new bit information, based on the new bit-by-bit tempo information.

제어 유닛(210)은 새로운 악보 정보를 기초로 악보가 디스플레이되도록 하고, 새로운 시간별 템포 정보를 기초로 상기 디지털 음원이 재생되게 함으로써, 악보와 디지털 음원의 싱크를 맞춘다.The control unit 210 causes the score to be displayed based on the new score information and causes the digital sound source to be played based on the new time-based tempo information to synchronize the score and the digital sound source.

이와 같이 새롭게 생성된 악보 정보, 시간별 템포 정보 또는 비트별 템포 정보는 저장 유닛(220)에 저장된다. 사용자가, 변경된 악보 정보, 시간별 템포 정보 또는 비트별 템포 정보를 다음에도 사용하기를 원하는 경우(예를 들어, 사용자가 기설정된 특정키를 누름), 변경된 상기 정보들은 디지털 음원 관리 시스템(10)에 전송되어 저장 모듈(120) 내에 저장된다. 사용자는 현재 사용하고 있는 디지털 음원 재생 장치가 아닌 다른 재생 장치에서도, 변경된 상기 정보들을 불러서 사용할 수 있다.The newly generated score information, time-based tempo information, or per-bit-tempo information is stored in the storage unit 220. If the user desires to use the changed score information, time-based tempo information, or per-bit-based tempo information also (for example, the user presses a predetermined key), the changed information is stored in the digital sound source management system 10 And stored in the storage module 120. The user can also use the changed information by calling the playback apparatus other than the currently used digital sound reproduction apparatus.

한편, 시간별 노트 정보를 이용하여 생활 잡음을 제거할 수도 있다.On the other hand, the living noise can be removed using the note information by time.

디지털 음원을 따라서 사용자가 악기를 연주할 때, 생활 잡음이 문제가 될 수 있다. 이는 사용자의 연주 데이터는 손상시키지 않는 범위 내에서, 일부 주파수 영역을 차단 또는 압축함으로써 해결할 수 있다.When a user plays a musical instrument along a digital sound source, life noise may be a problem. This can be solved by blocking or compressing some frequency regions within a range that does not damage the performance data of the user.

예를 들어, 사용자의 악기가 중저음역 악기인 경우에는, 중저음역 악기의 주파수 대역은 예를 들어, 87Hz~523Hz 일 수 있다. 생활 잡음을 제거하기 위해서, 상기 주파수 대역을 압축시킬 경우 답답하거나 먼 거리에 있는 소리로 왜곡될 수 있다. 따라서, 상기 주파수 대역의 소리는 증폭하고, 그 외의 주파수 대역의 소리는 압축하면, 생활 잡음을 제거할 수 있다.For example, when the user's instrument is a bass-reversed musical instrument, the frequency band of the bass-reversed musical instrument may be, for example, 87 Hz to 523 Hz. In order to remove the living noise, when compressing the frequency band, it may be frustrating or distorted into a sound at a long distance. Therefore, if the sound of the frequency band is amplified and the sound of the other frequency band is compressed, the living noise can be removed.

사용자의 악기가 고음역 악기인 경우에는, 고음역 악기의 주파수 대역은 예를 들어, 164Hz~932Hz 일 수 있다. 유사하게, 상기 주파수 대역의 소리는 증폭하고, 그 외의 주파수 대역의 소리는 압축할 수 있다. If the user's musical instrument is a high-range musical instrument, the frequency band of the high-range musical instrument may be, for example, 164 Hz to 932 Hz. Similarly, the sound of the frequency band can be amplified, and the sound of the other frequency band can be compressed.

도 14는 디지털 음원을 재생할 때 발생할 수 있는 노이즈의 캔슬링(cancelling) 동작을 설명하기 위한 도면이다. 14 is a diagram for explaining a cancellation operation of noise that may occur when a digital sound source is reproduced.

도 14를 참조하면, 전술한 것과 같이, 디지털 음원 재생 장치(20)는 디지털 음원을 재생할 수 있는 전기 장치라면 무엇이든 가능하다. 그런데, 사이즈가 작은 디지털 음원 재생 장치(20)(예를 들어, 스마트 폰, 휴대 단말기)의 경우, 출력 유닛(250)(예를 들어, 스피커)와 입력 유닛(255)(예를 들어, 마이크)의 거리가 매우 가깝다. 이러한 경우, 스피커에서 나온 디지털 음원의 소리가 마이크로 바로 입력이 되어서, 디지털 음원 자체가 노이즈 역할을 할 수도 있다.Referring to Fig. 14, as described above, the digital sound source reproducing apparatus 20 can be any electronic device capable of reproducing a digital sound source. In the case of a small-sized digital sound reproducing apparatus 20 (for example, a smart phone, a portable terminal), an output unit 250 (for example, a speaker) and an input unit 255 ) Is very close. In this case, the sound of the digital sound source from the speaker becomes a micro-direct input, so that the digital sound source itself may act as a noise.

이를 방지하기 위해서, 제어 유닛(210)은 음원(310)과 정확하게 반전된 값의 파장을 갖는 역위상 음원(320)을 생성한다. 따라서, 음원(310)과 역위상 음원(320)을 실시간으로 출력하여 합치게 되면, 노이즈 캔슬된 음원(330)을 생성할 수 있다.In order to prevent this, the control unit 210 generates the anti-phase sound source 320 having the wavelength of the value accurately reversed with the sound source 310. Accordingly, when the sound source 310 and the anti-phase sound source 320 are output in real time and combined, the noise canceled sound source 330 can be generated.

도 15는 디지털 음원의 음높이를 조정하는 동작을 설명하기 위한 도면이다.15 is a diagram for explaining an operation for adjusting the pitch of a digital sound source.

도 15를 참조하면, 전술한 것과 같이, 디지털 음원 관리 시스템(10)의 디지털 음원 생성 모듈(115)은 하나의 곡에 대해서 서로 다른 음정을 갖는 다수의 디지털 음원(도 3 및 도 15의 201, 202, 203 참조)을 생성한다. 최초의 미디 파일을 그대로 디지털 음원으로 변환시킨다면 제1 음정(예를 들어, 파(F))의 제1 디지털 음원(201)이 생성된다. 디지털 음원 생성 모듈(115)은 제1 음정보다 높은 제2 음정(예를 들어, 시(B))의 제2 디지털 음원(202) 및/또는 제1 음정보다 낮은 제3 음정(예를 들어, 도(C))의 제3 디지털 음원(203)을 생성할 수 있다.15, as described above, the digital sound source generation module 115 of the digital sound source management system 10 includes a plurality of digital sound sources (201, 202, 203). The first digital sound source 201 of the first pitch (for example, wave F) is generated if the first MIDI file is directly converted into a digital sound source. The digital sound source generation module 115 generates a digital sound source based on the second digital sound source 202 of a second pitch (e.g., time B) higher than the first pitch and / or a third pitch (e.g., The third digital sound source 203 of FIG.

만약, 사용자가 음정을 높이기를 원하는 경우(즉, 파(F)에서 솔(G), 라(A), 또는 시(B)로 올리기를 원하는 경우)를 검토해 보자. 만약, 이미 만들어져 있는 음정(즉, 시(B))까지 올리기를 원하면, 이미 만들어져 있는 제2 디지털 음원(202)을 이용한다. 사용자가 3음을 올리기를 원했음에도 불구하고, 제2 디지털 음원(202)은 최초의 미디 파일을 이용해서 만들어진 음원이기 때문에, 출력되는 소리의 왜곡은 전혀 없다. 또한, 사용자가 1음을 올리기를 원하면(즉, 솔(G)까지), 제1 디지털 음원(201)으로부터 1음을 올린 디지털 음원(201a)을 출력한다(도면부호 U1 참조). 반면, 사용자가 2음을 올리기를 원하면(즉, 라(A)까지), 제2 디지털 음원(202)로부터 1음을 내린 디지털 음원(202a)을 출력한다(도면부호 D2 참조). 즉, 사용자가 2음을 올리기를 원했음에도 불구하고, 제2 디지털 음원(202)을 이용해서 1음만 내렸기 때문에, 출력되는 소리의 왜곡은 거의 없다. Let's consider if the user wants to raise the pitch (ie, if you want to raise from a wave (F) to a solo (G), a (A), or a poem (B)). If it is desired to raise up to the already created pitch (i.e., the poem B), the second digital sound source 202 already made is used. Since the second digital sound source 202 is a sound source made using the first MIDI file, the sound output is not distorted at all, despite the user desiring to raise the third sound. Further, when the user desires to raise the first note (that is, until the sole G), the digital sound source 201a which has raised one note from the first digital sound source 201 is output (refer to U1). On the other hand, if the user desires to raise the second note (that is, up to (A)), the digital sound source 202a outputting one note from the second digital sound source 202 is output (refer to D2). That is, although the user desires to raise the second note, since only one note is output using the second digital sound source 202, the output sound is hardly distorted.

한편, 사용자가 4음을 올리기를 원하는 경우(즉, 도(C)까지)에도, 제2 디지털 음원(202)에서 1음을 올려서 출력한다. 사용자가 5음을 올리기를 원하는 경우(즉, 레(D)까지)에도, 제2 디지털 음원(202)에서 2음을 올려서 출력할 수 있다.On the other hand, when the user desires to raise the fourth note (that is, up to FIG. C), the second digital sound source 202 outputs one note by raising one note. When the user desires to raise the fifth note (that is, up to the level D), the second digital sound source 202 can raise the second note and output it.

만약, 사용자가 음정을 내리기를 원하는 경우(즉, 파(F)에서 미(E), 레(D), 또는 도(C)로 올리기를 원하는 경우)를 검토해 보자. 만약, 이미 만들어져 있는 음정(즉, 도(C))까지 내리기를 원하면, 이미 만들어져 있는 제3 디지털 음원(203)을 이용한다. 사용자가 3음을 내리기를 원했음에도 불구하고, 제3 디지털 음원(203)은 최초의 미디 파일을 이용해서 만들어진 음원이기 때문에, 출력되는 소리의 왜곡은 전혀 없다. 또한, 사용자가 1음을 내리기를 원하면(즉, 미(E)까지), 제1 디지털 음원(201)으로부터 1음을 내린 디지털 음원(201b)을 출력한다(도면부호 D1 참조). 반면, 사용자가 2음을 내리기를 원하면(즉, 레(D)까지), 제3 디지털 음원(203)로부터 1음을 올린 디지털 음원(203a)을 출력한다(도면부호 U2 참조). 즉, 사용자가 2음을 내리기를 원했음에도 불구하고, 제3 디지털 음원(203)을 이용해서 1음만 올렸기 때문에, 출력되는 소리의 왜곡은 거의 없다.Let's consider if the user wishes to lower the pitch (ie, if you want to raise from F (F) to M (E), L (D), or C). If it is desired to lower the already created pitch (i.e., the pitch C), the third digital sound source 203 already made is used. Since the third digital sound source 203 is a sound source made by using the first MIDI file, the sound outputted from the third digital sound source 203 is not distorted even though the user desires to make a third sound. Further, when the user desires to reduce the first note (that is, until the end E), the digital sound source 201b which outputs one note from the first digital sound source 201 is output (refer to D1). On the other hand, if the user desires to lower the second note (i.e., up to the level D), the digital sound source 203a that has raised one note from the third digital sound source 203 is output (refer to U2). That is, although the user desires to reduce the second note, since only one note is raised by using the third digital sound source 203, the output sound is hardly distorted.

한편, 사용자가 4음을 내리기를 원하는 경우(즉, 시(B)까지)에도, 제3 디지털 음원(203)에서 1음을 내려서 출력한다. 사용자가 5음을 내리기를 원하는 경우(즉, 라(A)까지)에도, 제3 디지털 음원(203)에서 2음을 내려서 출력할 수 있다.On the other hand, when the user desires to reduce the fourth note (that is, up to the time B), the third digital sound source 203 outputs one note. The third digital sound source 203 can output a second sound even when the user desires to reduce the sound to five (i.e., up to (A)).

한편, 이와 같이 사용자에 의해 변경된 음정 정보는, 저장 유닛(220)에 저장된다. 사용자가 변경된 음정 정보를 다음에도 사용하기를 원하는 경우(예를 들어, 사용자가 기설정된 특정키를 누름), 변경된 음정 정보는 디지털 음원 관리 시스템(10)에 전송되어 저장 모듈(120) 내에 저장된다. 사용자는 현재 사용하고 있는 디지털 음원 재생 장치가 아닌 다른 재생 장치에서도, 변경된 음정 정보를 불러서 사용할 수 있다. On the other hand, the pitch information changed by the user in this way is stored in the storage unit 220. [ When the user wants to use the changed pitch information next (e.g., the user presses a predetermined key), the changed pitch information is transmitted to the digital sound source management system 10 and stored in the storage module 120 . The user can also use the changed pitch information in a playback apparatus other than the currently used digital sound source playback apparatus.

도 16은 음정을 조정하는 동작을 설명하기 위한 도면이다. FIG. 16 is a diagram for explaining an operation for adjusting the pitch.

도 16을 참조하면, 제어 유닛(210)은 다음과 같은 예시적 판단 과정을 통해서, 음정을 조정할 수 있다.Referring to FIG. 16, the control unit 210 may adjust the pitch through the following exemplary determination process.

하나의 곡에 대해서, 제1 음정의 제1 디지털 음원과, 제1 음정과 다른 제2 음정의 제2 디지털 음원이 있다고 하자. 제1 음정이 상기 곡의 원래(original) 음정이라고 하자. 사용자로부터 음정 변경 요청을 받으면, 사용자가 변경 요청한 음정이, 제2 음정인지 검토한다. 제2 음정인 경우라면, 이미 준비되어 있는 제2 음정의 제2 디지털 음원을 출력한다. 만약, 제2 음정이 아니라면, 사용자가 변경 요청한 음정이, 제1 음정과 가까운지 상기 제2 음정과 가까운지 검토한다. 제1 음정과 가까우면 제1 디지털 음원을 음정 변경하여 출력하고, 제2 음정과 가까우면 제2 디지털 음원을 음정 변경하여 출력한다. Suppose there is a first digital sound source of the first pitch and a second digital sound source of the second pitch different from the first pitch, for one piece of music. Let the first pitch be the original pitch of the song. When receiving the pitch change request from the user, the user checks whether the pitch requested by the user is the second pitch. If it is the second pitch, it outputs the second digital sound source of the second pitch already prepared. If it is not the second pitch, it is checked whether the pitch requested by the user is close to the first pitch or close to the second pitch. When the first digital sound source is close to the first pitch, the first digital sound source is changed in pitch and output. When the second digital sound source is close to the second pitch, the second digital sound source is changed in pitch and output.

3개의 서로 다른 음정의 디지털 음원이 있는 경우는, 도 16을 이용하여 설명한다. The case where there are digital sound sources of three different pitches will be described with reference to Fig.

사용자가 원하는 음정이 제1 음정(예를 들어, 파(F))과 동일한지 검토한다(S410).The user checks whether the desired pitch is equal to the first pitch (for example, wave F) (S410).

제1 음정과 동일한 경우, 제1 음정의 제1 디지털 음원(201)을 그대로 출력한다(S412).If it is the same as the first pitch, the first digital sound source 201 of the first pitch is directly output (S412).

제1 음정과 동일하지 않으면, 올리기를 바라는지 내리기를 바라는지 확인한다(S420).If it is not the same as the first pitch, it is confirmed whether it is desired to raise or lower (S420).

올리기를 바라는 경우, 사용자가 원하는 음정이 제2 음정과 동일한지 검토한다(S430).If it is desired to raise, the user checks whether the desired pitch is equal to the second pitch (S430).

제2 음정과 동일한 경우, 제2 음정의 제2 디지털 음원(202)을 그대로 출력한다(S432).If it is the same as the second pitch, the second digital sound source 202 of the second pitch is directly output (S432).

제2 음정과 동일하지 않은 경우, 사용자가 원하는 음정이 제1 음정과 가까운지 검토한다(S440).If it is not the same as the second pitch, the user checks whether the desired pitch is close to the first pitch (S440).

제1 음정과 가까우면, 제1 음정의 제1 디지털 음원(201)으로부터 음정을 올려서 출력한다(S442). If it is close to the first pitch, the pitch is output from the first digital sound source 201 of the first pitch and outputted (S442).

제2 음정과 가까우면, 제2 음정의 제1 디지털 음원(202)으로부터 음정을 내려서 출력한다(S444).If it is close to the second pitch, the pitch is outputted from the first digital sound source 202 of the second pitch and outputted (S444).

한편, S420 단계에서, 내리기를 바라는 경우, 사용자가 원하는 음정이 제3 음정과 동일한지 검토한다(S450).On the other hand, if it is desired to lower the pitch in step S420, the user checks whether the desired pitch is equal to the third pitch (S450).

제3 음정과 동일한 경우, 제3 음정의 제3 디지털 음원(203)을 그대로 출력한다(S452).If it is the same as the third pitch, the third digital sound source 203 of the third pitch is output as it is (S452).

제3 음정과 동일하지 않은 경우, 사용자가 원하는 음정이 제1 음정과 가까운지 검토한다(S460).If it is not the same as the third pitch, the user checks whether the desired pitch is close to the first pitch (S460).

제1 음정과 가까우면, 제1 음정의 제1 디지털 음원(201)으로부터 음정을 내려서 출력한다(S462). If it is close to the first pitch, the pitch is outputted from the first digital sound source 201 of the first pitch and outputted (S462).

제3 음정과 가까우면, 제3 음정의 제3 디지털 음원(203)으로부터 음정을 올려서 출력한다.If it is close to the third pitch, the pitch is output from the third digital sound source 203 of the third pitch.

이와 같이 하나의 곡에 대해서 서로 다른 음정을 갖는 다수의 디지털 음원을 이용함으로써, 음정을 많이 변화시키더라도, 소리의 왜곡을 최소화할 수 있다.By using a plurality of digital sound sources having different pitches for one music, distortion of sound can be minimized even if the pitch is changed a lot.

도 17 및 도 18은 디지털 음원의 적어도 일부의 템포를 변경하는 방식을 설명하기 위한 도면이다. 17 and 18 are diagrams for explaining a method of changing the tempo of at least a part of the digital sound source.

우선, 도 17을 참조하면, 터치 입력이 가능한 디스플레이(터치 패널) 위에 악보가 디스플레이된다. 여기서, 터치 패널은 악보를 디스플레이하는 디스플레이 유닛 역할도 하고, 사용자의 템포 변경 지시를 받는 입력 유닛 역할도 한다.First, referring to FIG. 17, a score is displayed on a display (touch panel) capable of touch input. Here, the touch panel also serves as a display unit for displaying a score and also serves as an input unit for receiving a user's tempo change instruction.

악보 위에, 디지털 음원의 템포를 나타내는 템포 라인(510)이 도시된다. 사용자는 템포 라인(510)을 손으로 변경시킴으로써, 부분적으로 디지털 음원의 템포를 조정할 수 있다. 구체적으로 예를 들면, 사용자는 첫번째 마디의 연주 템포를 올린다(도면부호 SP1 참조). 사용자는 두번째, 세번째 마디의 연주 템포를 내린다(도면부호 SP2 참조). 사용자는 네번째 마디의 연주 템포는 올린다(도면부호 SP3 참조). 예를 들면, 최초의 디지털 음원은 도 17의 모든 마디를 120bpm으로 연주하는 것으로 설정되어 있었으나, 첫번째 마디는 130bpm으로, 두번째, 세번째 마디는 100bpm으로, 네번째 바디는 140bpm으로 연주하는 것으로 설정 변경될 수 있다.Above the score, a tempo line 510 representing the tempo of the digital sound source is shown. The user can adjust the tempo of the digital sound source partly by changing the tempo line 510 by hand. Specifically, for example, the user increases the playing tempo of the first node (see reference symbol SP1). The user decreases the playing tempo of the second and third nodes (see SP2). The user increases the playing tempo of the fourth bar (see SP3). For example, the first digital sound source is set to play all the bars of FIG. 17 at 120 bpm, but the first bar may be set to play at 130 bpm, the second bar, the third bar at 100 bpm, and the fourth bar at 140 bpm have.

템포 라인(510)을 특정 방향으로 끌어당기는 정도에 따라서, 템포의 변화량이 결정된다. 예를 들어, 템포 라인(510)을 상방향으로 올리는 정도에 따라서, 연주 템포의 빨라짐이 결정된다. 반대로, 템포 라인(510)을 하방향으로 내리는 정도에 따라서, 연주 템포의 느려짐이 결정된다.The amount of change in the tempo is determined according to the degree to which the tempo line 510 is drawn in a specific direction. For example, depending on the degree to which the tempo line 510 is raised in the upward direction, the acceleration of the performance tempo is determined. Conversely, depending on the degree of downward movement of the tempo line 510, the slowing of the performance tempo is determined.

한편, 템포 변경이 가능한 단위 영역은 전술한 설명과 다를 수 있다. 즉, 도 17에서는 마디별로 템포 변경 가능한 것으로 설명하였으나, 이에 한정되지 않는다. 예를 들어, 한 마디를 다수 개의 템포 변경 영역으로 구분할 수도 있다. 또는, 다수의 마디(예를 들어, 4개의 마디)를 하나의 그룹으로 하여, 그룹 단위로 템포 변경을 할 수도 있다.On the other hand, the unit area in which the tempo can be changed may be different from the above description. That is, in FIG. 17, it is described that the tempo can be changed for each node, but the present invention is not limited thereto. For example, a word can be divided into a plurality of tempo change areas. Alternatively, a plurality of nodes (for example, four nodes) may be grouped to change the tempo on a group basis.

사용자의 템포 변경 지시를 받는 방식은 여러 가지일 수 있다. 예를 들어, 템포 변경을 원하는 정도를 숫자(예를 들어, 퍼센트)로 직접 입력할 수도 있다. There are various ways of receiving the user's tempo change instruction. For example, you can enter the number of degrees you want to change the tempo (for example, percent) directly.

여기서, 도 17 및 도 18을 참조하면, 디지털 음원의 일부의 템포가 변경되더라도, 다음과 같은 방법을 통해서 소리의 왜곡을 최소화할 수 있다. 이하에서, 도 17의 영역 520에서 디지털 음원의 템포가 변경되는 경우를 예로 들어 설명한다. 17 and 18, even if the tempo of a part of the digital sound source is changed, the distortion of the sound can be minimized through the following method. Hereinafter, the case where the tempo of the digital sound source is changed in the area 520 of FIG. 17 will be described as an example.

본 발명의 몇몇 실시예에 따르면, 제어 유닛(210)은 다수의 재생 유닛(230)을 이용한다. 제1 재생 유닛(230)은 제1 템포로(예를 들어, 100 bpm으로) 상기 디지털 음원을 연주한다. 제2 재생 유닛(230)은 제1 속도와 다른 제2 템포로(예를 들어, 140 bpm으로) 상기 디지털 음원을 연주한다. 두번째, 세번째 마디에서는 제1 재생 유닛(230)의 재생만 출력되고, 제2 재생 유닛(230)의 재생은 출력되지 않는다. 즉, 제2 재생 유닛(230)의 재생은 백그라운드로 진행된다. 세번째 마디와 네번째 마디의 경계 또는 경계 부근에서, 제1 재생 유닛(230)의 출력은 페이드 아웃(fade-out)되고 제2 재생 유닛(230)의 출력은 페이드 인(fade-in)된다. 네번째 마디에서는, 제2 재생 유닛(230)의 재생만 출력되고, 제1 재생 유닛(230)의 재생은 출력되지 않는다. According to some embodiments of the present invention, the control unit 210 utilizes a plurality of playback units 230. The first playback unit 230 plays the digital sound source at a first tempo (for example, at 100 bpm). The second playback unit 230 plays the digital sound source at a second tempo different from the first speed (for example, at 140 bpm). In the second and third nodes, only the reproduction of the first reproduction unit 230 is output, and the reproduction of the second reproduction unit 230 is not output. That is, the reproduction of the second reproduction unit 230 proceeds in the background. The output of the first reproduction unit 230 is faded out and the output of the second reproduction unit 230 is fade-in, at the boundary or boundary between the third and fourth nodes. In the fourth node, only the reproduction of the second reproduction unit 230 is output, and the reproduction of the first reproduction unit 230 is not output.

특히, 제어 유닛(210)은 세번째 마디에서의 마지막 노트(521)의 릴리즈(release) 부분(RL1)과, 네번째 마디에서의 첫번째 노트(522)의 어택(attack) 부분(AT2)이 서로 오버랩되도록 제어한다. 이러한 오버랩 영역에서, 제1 재생 유닛(230)의 출력은 페이드 아웃되고, 제2 재생 유닛(230)의 출력은 페이드 인된다. 사용자에게 노트(521)의 릴리즈 부분(RL1)이 끊기는 것처럼 들리면, 사용자는 소리의 재생이 좋지 않다고 판단하게 된다. 따라서, 다음 노트(522)의 어택 부분(AT2)은 소리가 크기 때문에, 이전 노트(521)의 릴리즈 부분(RL1)의 페이드 아웃을 가려줄 수 있다. 따라서, 디지털 음원의 템포 변경을 자연스럽게 만들 수 있다. 종래 기술처럼, 하나의 재생 유닛을 사용하여, 디지털 음원의 템포를 빠르게 했다가 느리게 했다가 하면, 소리의 왜곡이 발생할 수 있다. In particular, the control unit 210 causes the release portion RL1 of the last note 521 in the third section and the attack portion AT2 of the first note 522 in the fourth section to overlap each other . In this overlap region, the output of the first reproduction unit 230 is faded out, and the output of the second reproduction unit 230 is faded. If the release portion RL1 of the note 521 seems to be interrupted by the user, the user judges that sound reproduction is not good. Therefore, the attack portion AT2 of the next note 522 can cover the fade-out of the release portion RL1 of the previous note 521 because of the loud sound. Therefore, it is possible to make the tempo change of the digital sound source natural. As with the prior art, when using a single playback unit to speed up and slow down the tempo of a digital sound source, sound distortion may occur.

한편, 템포가 변경되는 구간을 "마디" 단위로 설명하였으나, 이에 한정되지 않는다. 설계에 따라서, 연속되는 제1 영역과 제2 영역이 있고, 제1 영역과 제2 영역의 템포가 달라질 때, 다수의 재생 유닛을 이용한 전술한 방법을 사용할 수 있다.On the other hand, the section in which the tempo is changed is described as a "measure" unit, but is not limited thereto. Depending on the design, there may be a first region and a second region which are continuous, and when the tempos of the first region and the second region are different, the above-described method using a plurality of reproduction units can be used.

도 19는 지능형 반주솔루션을 설명하기 위한 도면이다.19 is a diagram for explaining an intelligent accompaniment solution.

도 19를 참조하여, 본 발명의 몇몇 실시예에서, 디지털 음원을 반주로 하여 연주자가 연주를 하고, 사용자의 연주를 센싱하여 자동으로 디지털 음원의 템포를 조정할 수도 있다("지능형 반주솔루션").Referring to FIG. 19, in some embodiments of the present invention, a digital sound source may be accompanied by a player to perform a performance, and the tempo of the digital sound source may be automatically adjusted by sensing the performance of the user ("intelligent accompaniment solution").

여기서, 템포(bpm1)는, 현재 반주되는 디지털 음원의 템포 정보이다. 템포(bpm2)는, 사용자가 연주하는 템포 정보이다. 템포(bpm3)은, 추후에 저장 유닛(220)(또는 저장 모듈(120))에 저장될 템포 정보이다.Here, the tempo bpm1 is the tempo information of the digital sound source currently being accompanied. The tempo bpm2 is the tempo information that the user plays. The tempo bpm3 is the tempo information to be stored in the storage unit 220 (or the storage module 120) at a later time.

구체적으로, 앞의 3마디(601, 602, 603)에서, 디지털 음원은 120bpm, 130bpm, 140bpm으로 연주된다. 그런데, 사용자는 디지털 음원(반주)보다 더 빠르게, 132bpm, 143 bpm, 154 bpm으로 연주할 수 있다. 즉, 사용자는 반주보다 약 10%씩 빠르게 연주한다.Specifically, in the three bars 601, 602, and 603, the digital sound sources are played at 120 bpm, 130 bpm, and 140 bpm. By the way, the user can play at 132 bpm, 143 bpm, and 154 bpm faster than a digital sound source (accompaniment). That is, the user plays about 10% faster than the accompaniment.

센싱 유닛(270)은 사용자의 연주 템포를 센싱한다. 제어 유닛(210)은 시간별 노트 정보와 센싱된 연주 템포를 기초로, 상기 디지털 음원의 템포를 조정한다. 제어 유닛(210)은 이전의 3마디(601, 602, 603)를 사용자가 어떤 템포로 연주하는지 검토하여, 이후 마디의 템포를 조정할 수 있다. 여기서, 3마디는 예시적인 것에 불과하고, 4마디 이상일 수도 있고, 2마디일 수도 있다. 또한, 이전의 3마디에서의 사용자의 연주 템포를 평균(또는 가중 평균)하여, 다음 마디에서의 디지털 음원의 템포를 결정할 수 있다. 여기서, 평균(또는 가중 평균)은 예시적인 것에 불과하고, 템포 결정 방식은 다를 수 있다.The sensing unit 270 senses the performance tempo of the user. The control unit 210 adjusts the tempo of the digital sound source based on the note information per time and the sensed performance tempo. The control unit 210 can review the previous three bars 601, 602, 603 at what tempo the user is playing, and adjust the tempo of the bar afterwards. Here, the three words are merely illustrative, and may be four or more words, or two words. In addition, the tempo of the digital sound source at the next measure can be determined by averaging (or weighted average) the performance tempo of the user in the previous three measures. Here, the average (or weighted average) is merely an example, and the tempo determination method may be different.

정리하면, 디지털 음원은 연속되는 제1 템포(예를 들어, 140bpm)의 제1 영역(예를 들어, 603)과, 제2 템포(예를 들어, 120bpm)의 제2 영역(예를 들어, 604)을 포함한다. 디지털 음원에 따라서 사용자가 연주하되, 사용자가 제1 영역을 제1 템포(140bpm)가 아닌 제3 템포(예를 들어, 154bpm)로 연주하면, 제어 유닛은 제2 영역을 제2 템포(120bpm)가 아닌 제4 템포(예를 들어, 132bpm)로 재생할 수 있다. To summarize, the digital sound source may include a first region (e.g., 603) of a first tempo (e.g., 140 bpm) and a second region of a second tempo (e.g., 120 bpm) 604). If the user plays according to a digital sound source and the user plays the first area at a third tempo (e.g., 154 bpm) instead of the first tempo (140 bpm), the control unit controls the second area to the second tempo (120 bpm) (E.g., 132 bpm) instead of the fourth tempo.

따라서, 네번째 마디(604)에서, 디지털 음원은 원래의 템포인 120 bpm 보다 10%빠른 132bpm 으로 연주된다(도면부호 611 참조). Thus, at the fourth node 604, the digital sound source is played at 132 bpm, 10% faster than the original tempo of 120 bpm (see 611).

센싱 유닛(270)은 사용자가 120 bpm 보다 10%빠른 132bpm으로 연주하고 있음을 확인한다.The sensing unit 270 confirms that the user is playing at 132 bpm, 10% faster than 120 bpm.

따라서, 다섯번째 마디(605)에서도, 디지털 음원은 원래의 템포인 120 bpm 보다 10%빠른 132bpm 으로 연주된다(도면부호 612 참조)Thus, even at the fifth measure 605, the digital sound source is played at 132 bpm, which is 10% faster than the original tempo of 120 bpm (see 612)

센싱 유닛(270)은 사용자가 원래의 템포인 120bpm보다 10% 느린 108bpm으로 연주함을 확인한다.The sensing unit 270 confirms that the user plays at 108 bpm, which is 10% slower than the original tempo of 120 bpm.

따라서, 여섯번째 마디(606)에서, 디지털 음원은 10%보다 적은 약 3% 빠른 134bpm으로 연주된다(도면부호 613 참조). 사용자가 네번째 마디, 다섯번째 마디는 10% 빠르게 연주하고, 여섯번째 마디는 원래 속도보다 10% 느리게 연주하였기 때문이다. Thus, at the sixth node 606, the digital sound source is played at 134 bpm, about 3% faster than 10% (see 613). This is because the user plays the fourth bar, the fifth bar is 10% faster, and the sixth bar is 10% slower than the original speed.

센싱 유닛(270)은 사용자가 원래의 템포인 130bpm으로 연주함을 확인한다.The sensing unit 270 confirms that the user plays at the original tempo of 130 bpm.

이와 같은 방식으로, 실시간으로 사용자의 연주 템포를 반영하여, 디지털 음원(반주)의 속도를 조절할 수 있다.In this way, the speed of the digital sound source (accompaniment) can be adjusted by reflecting the tempo of the user's performance in real time.

또한, 센싱된 사용자의 연주 속도(즉, bpm3)는 저장 유닛(220)에 저장되거나, 디지털 음원 관리 시스템(10)의 저장 모듈(120)에 저장될 수 있다. 따라서, 사용자는 현재 사용하고 있는 디지털 음원 재생 장치가 아닌 다른 재생 장치에서도, 변경된 정보들을 불러서 사용할 수 있다.Further, the sensed user's performance speed (i.e., bpm3) may be stored in the storage unit 220 or stored in the storage module 120 of the digital sound source management system 10. [ Therefore, the user can also use the changed information by using the changed information in the reproducing apparatus other than the digital sound source reproducing apparatus currently used.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.

10: 디지털 음원 관리 시스템 20: 디지털 음원 재생 장치
30: 네트워크 110: 제어 모듈
115: 디지털 음원 생성 모듈 120: 저장 모듈
130: 악보 생성 모듈 140: 비트 관리 모듈
150: 시간 관리 모듈 160: 통신 모듈
210: 제어 유닛 220: 저장 유닛
230: 재생 유닛 240: 디스플레이 유닛
250: 출력 유닛 255: 입력 유닛
260: 통신 유닛 270: 센싱 유닛
10: Digital sound source management system 20: Digital sound source reproduction device
30: network 110: control module
115: digital sound source generation module 120: storage module
130: score creation module 140: bit management module
150: time management module 160: communication module
210: control unit 220: storage unit
230: reproduction unit 240: display unit
250: output unit 255: input unit
260: communication unit 270: sensing unit

Claims (12)

비트별 템포 정보 또는 시간별 템포 정보를 저장하고, 디지털 음원 및 악보 정보를 저장하되, 상기 악보 정보는 상기 디지털 음원에 대응되는 악보와 비트 정보를 포함하는 저장 유닛;
상기 악보를 디스플레이하는 디스플레이 유닛;
상기 디지털 음원을 재생하는 재생 유닛;
상기 디지털 음원의 적어도 일부의 템포 변경을 입력받는 입력 유닛; 및
상기 템포 변경을 반영하여, 변경된 비트별 템포 정보 또는 변경된 시간별 템포 정보를 생성하고, 상기 변경된 비트별 템포 정보를 기초로 상기 악보가 디스플레이되도록 하고, 상기 변경된 시간별 템포 정보를 기초로 상기 디지털 음원이 재생되게 함으로써, 상기 악보와 상기 디지털 음원의 싱크를 맞추는 제어 유닛을 포함하는 디지털 음원 재생 장치.
Bit-by-bit tempo information or tempo-based tempo information, and stores the digital sound source and the score information, wherein the score information includes a score and bit information corresponding to the digital sound source;
A display unit for displaying the score;
A reproducing unit for reproducing the digital sound source;
An input unit for receiving a tempo change of at least a part of the digital sound source; And
And generating the changed tempo information or the modified time-based tempo information by reflecting the tempo change, displaying the score on the basis of the changed per-bit tempo information, and reproducing the digital sound source based on the changed time- And a control unit for synchronizing the musical score and the digital sound source.
제 1항에 있어서,
상기 템포 변경을 입력받는 것은, 상기 디지털 음원에 따라서 사용자가 연주하고 상기 사용자의 연주를 센싱하는 것을 포함하는 디지털 음원 재생 장치.
The method according to claim 1,
Wherein the receiving of the tempo change includes playing a user according to the digital sound source and sensing performance of the user.
제 1항 또는 제 2항에 있어서,
상기 디지털 음원은 연속되는 제1 템포의 제1 영역과, 제2 템포의 제2 영역을 포함하고,
상기 디지털 음원에 따라서 상기 사용자가 연주하되, 상기 사용자가 상기 제1 영역을 상기 제1 템포가 아닌 제3 템포로 연주하면,
상기 제어 유닛은 상기 제2 영역을 상기 제2 템포가 아닌 제4 템포로 재생하는 디지털 음원 재생 장치.
3. The method according to claim 1 or 2,
The digital sound source comprising a first region of successive first tempos and a second region of a second tempo,
When the user plays the first area at a third tempo instead of the first tempo,
Wherein the control unit reproduces the second region at a fourth tempo instead of the second tempo.
제 1항에 있어서,
상기 템포 변경을 입력받는 것은, 사용자에 의해서 마디별로 템포 변경 정도를 직접 입력받는 것을 포함하는 디지털 음원 재생 장치.
The method according to claim 1,
Wherein the input of the tempo change includes directly inputting a degree of tempo change for each node by the user.
제 4항에 있어서,
악보 위에 상기 디지털 음원의 템포를 나타내는 템포 라인이 도시되고,
사용자가 상기 템포 라인을 끌어당김으로써 템포를 변경하는 디지털 음원 재생 장치.
5. The method of claim 4,
A tempo line indicating the tempo of the digital sound source is shown on the score,
And the user changes the tempo by attracting the tempo line.
제 5항에 있어서,
상기 디지털 음원과, 상기 악보 정보, 상기 비트별 템포 정보 또는 상기 시간별 템포 정보 중 적어도 하나는 디지털 음원 관리 시스템으로부터 제공받은 디지털 음원 재생 장치.
6. The method of claim 5,
At least one of the digital sound source, the score information, the bit-by-bit tempo information, or the time-based tempo information is provided from a digital sound source management system.
제 1항에 있어서,
상기 변경된 비트별 템포 정보 또는 변경된 시간별 템포 정보는, 상기 디지털 음원 관리 시스템으로 전송하는 통신 유닛을 더 포함하는 디지털 음원 재생 장치.
The method according to claim 1,
Further comprising a communication unit for transmitting the changed bit-by-bit tempo information or the changed time-based tempo information to the digital sound source management system.
연속되는 제1 영역과 제2 영역을 포함하는 디지털 음원을 저장하는 제1 저장 유닛;
상기 제1 영역을 제1 템포로 상기 디지털 음원을 재생하는 제1 재생 유닛;
상기 제2 영역을 상기 제1 템포와 다른 제2 템포로 상기 디지털 음원을 재생하는 제2 재생 유닛; 및
상기 제1 재생 유닛과 상기 제2 재생 유닛을 제어하되, 상기 제1 영역에서의 마지막 노트의 릴리즈(release) 부분과, 상기 제2 영역에서의 첫번째 노트의 어택(attack) 부분이 서로 오버랩되도록 제어하는 제어 유닛을 포함하는 디지털 음원 재생 장치.
A first storage unit for storing a digital sound source including successive first and second regions;
A first reproducing unit for reproducing the digital sound source with the first region at a first tempo;
A second reproducing unit for reproducing the digital sound source at a second tempo different from the first tempo; And
The control unit controls the first playback unit and the second playback unit so that the release portion of the last note in the first area and the attack portion of the first note in the second area overlap each other And a control unit for controlling the digital sound source.
제 8항에 있어서,
상기 제2 재생 유닛은, 백그라운드로, 상기 제1 영역도 제2 템포로 상기 디지털 음원을 재생하는 디지털 음원 재생 장치.
9. The method of claim 8,
Wherein the second reproduction unit reproduces the digital sound source in the background and the first region also at the second tempo.
제 8항에 있어서,
상기 제1 영역 및 상기 제2 영역은 서로 바로 인접한 마디들인 디지털 음원 재생 장치.
9. The method of claim 8,
Wherein the first region and the second region are immediately adjacent to each other.
하나의 곡에 대해서 제1 음정을 갖는 제1 디지털 음원과, 상기 제1 음정과 다른 제2 음정을 갖는 제2 디지털 음원을 제공하고,
사용자로부터 음정 변경 요청을 제공받고,
사용자가 변경 요청한 음정이, 제1 음정과 가까운지 상기 제2 음정과 가까운지 검토하고,
제1 음정과 가까우면 제1 디지털 음원을 음정 변경하여 출력하고,
제2 음정과 가까우면 제2 디지털 음원을 음정 변경하여 출력하는 음원 재생 방법.
Providing a first digital sound source having a first pitch for one song and a second digital sound source having a second pitch different from the first pitch,
A pitch change request is received from the user,
Whether the pitch requested by the user is close to the first pitch or close to the second pitch,
If the first digital sound source is close to the first pitch, the first digital sound source is changed in pitch and output,
And changing the pitch of the second digital sound source when the second digital sound source is close to the second pitch.
제 11항에 있어서,
상기 제1 음정은 상기 곡의 원래 음정이고,
상기 음정 변경 요청을 받은 후, 사용자가 변경 요청한 음정이 제2 음정과 동일한지 검토하고,
제2 음정과 동일한 경우에, 상기 제2 디지털 음원을 출력하는 음원 재생 방법.

12. The method of claim 11,
Wherein the first pitch is an original pitch of the song,
After receiving the pitch change request, it is checked whether the pitch requested by the user is identical to the second pitch,
And outputs the second digital sound source when the second digital sound source is the same as the second sound source.

KR1020160095140A 2016-07-27 2016-07-27 Management system and method for digital sound source, device and method of playing digital sound source KR20180012398A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160095140A KR20180012398A (en) 2016-07-27 2016-07-27 Management system and method for digital sound source, device and method of playing digital sound source

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160095140A KR20180012398A (en) 2016-07-27 2016-07-27 Management system and method for digital sound source, device and method of playing digital sound source

Publications (1)

Publication Number Publication Date
KR20180012398A true KR20180012398A (en) 2018-02-06

Family

ID=61228072

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160095140A KR20180012398A (en) 2016-07-27 2016-07-27 Management system and method for digital sound source, device and method of playing digital sound source

Country Status (1)

Country Link
KR (1) KR20180012398A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190117417A (en) 2019-09-26 2019-10-16 엘지전자 주식회사 Robot and method of delivering articles by the robot

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190117417A (en) 2019-09-26 2019-10-16 엘지전자 주식회사 Robot and method of delivering articles by the robot

Similar Documents

Publication Publication Date Title
ES2561534T3 (en) Semantic audio track mixer
CN1783324B (en) Content using apparatus and method, distribution server apparatus, information distribution method, and recording medium
JP2010518459A (en) Web portal for editing distributed audio files
JP3621686B2 (en) Data editing method, data editing device, data editing program
US11120782B1 (en) System, method, and non-transitory computer-readable storage medium for collaborating on a musical composition over a communication network
US9601029B2 (en) Method of presenting a piece of music to a user of an electronic device
US8887051B2 (en) Positioning a virtual sound capturing device in a three dimensional interface
JP6452229B2 (en) Karaoke sound effect setting system
KR20180012397A (en) Management system and method for digital sound source, device and method of playing digital sound source
JP2001215979A (en) Karaoke device
WO1999040566A1 (en) Method and apparatus for digital signal processing, method and apparatus for generating control data, and medium for recording program
CN101551997B (en) Assisted learning system of music
US20230409281A1 (en) Cuepoint determination system
KR20180012398A (en) Management system and method for digital sound source, device and method of playing digital sound source
KR101813704B1 (en) Analyzing Device and Method for User's Voice Tone
CN201397672Y (en) Music learning system
JP6568351B2 (en) Karaoke system, program and karaoke audio playback method
CN105976802A (en) Music automatic generation system based on machine learning technology
US20220301529A1 (en) System and method for distributed musician synchronized performances
Alexandraki et al. Anticipatory networked communications for live musical interactions of acoustic instruments
CN113781989A (en) Audio animation playing and rhythm stuck point identification method and related device
CN1604180B (en) Music reproducing system
JP2014013340A (en) Music composition support device, music composition support method, music composition support program, recording medium storing music composition support program and melody retrieval device
KR101975193B1 (en) Automatic composition apparatus and computer-executable automatic composition method
KR20150041268A (en) Apparatus for serving information of background music, method therefor and computer recordable medium storing the method