WO2014003513A1 - 사용자 음원 평가 장치 및 방법 - Google Patents

사용자 음원 평가 장치 및 방법 Download PDF

Info

Publication number
WO2014003513A1
WO2014003513A1 PCT/KR2013/005819 KR2013005819W WO2014003513A1 WO 2014003513 A1 WO2014003513 A1 WO 2014003513A1 KR 2013005819 W KR2013005819 W KR 2013005819W WO 2014003513 A1 WO2014003513 A1 WO 2014003513A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound source
user
source
user sound
object audio
Prior art date
Application number
PCT/KR2013/005819
Other languages
English (en)
French (fr)
Inventor
조충상
신화선
최병호
김제우
Original Assignee
인텔렉추얼디스커버리 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔렉추얼디스커버리 주식회사 filed Critical 인텔렉추얼디스커버리 주식회사
Publication of WO2014003513A1 publication Critical patent/WO2014003513A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/056Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or identification of individual instrumental parts, e.g. melody, chords, bass; Identification or separation of instrumental parts by their characteristic voices or timbres
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance

Definitions

  • the present invention relates to a technique for performing evaluation on a user sound source received from a user, and more particularly, to a technique for evaluating a user sound source by comparing a sound source recorded and separated into object audio and a user sound source.
  • the sound source consists of several sources of audio, such as playing musical instruments and singing by a singer.
  • a recorded sound source is recorded by mixing multiple source audios without being separated from each other.
  • the user sound source evaluation technique evaluates the user sound source according to how similar the user sound source generated by the user's song or the like is with the recorded sound source (original sound). As a method of evaluation, a score is calculated about a user sound source.
  • the feature (feature) extracted for the recorded sound source and the feature extracted for the user sound source is compared with each other.
  • object audio technology has been developed that can separate and record each source audio into object audio without mixing and recording several source audios. That is, object audio corresponding to each source audio is separately recorded in the sound source recorded using the object audio technology.
  • only the object audio corresponding to the singer's song may be extracted from the recorded sound source, or only the object audio corresponding to the piano accompaniment or drum performance may be extracted.
  • the purpose of the following embodiments is to compare and evaluate sound sources recorded using object audio technology and user sound sources.
  • the purpose of the following examples is to compare and evaluate the performance of the recorded sound source and the user sound source.
  • a sound source storage unit for storing a sound source recorded by separating a plurality of source audio into a plurality of object audio corresponding to the source audio, respectively, a sound source receiver for receiving a user sound source associated with the sound source, the object A feature for each of the audio is generated, a sound source feature generator for generating a feature for the user sound source, and a characteristic for the object audio and a property for the user sound source are compared to calculate a score for the user sound source.
  • a user sound source evaluation device including a score calculation unit.
  • the characteristic may include a pitch of the object audio or the user sound source, a loudness of the object audio or the user sound source, and an energy of a critical band of the object audio or the user sound source. It may include at least one of the frequency band of the object audio or the user sound source.
  • the user sound source may include at least one of a voice of the user associated with the recorded sound source or an instrument sound played by the user.
  • the apparatus may further include an object separation unit, wherein the user sound source includes source audio received from each of the plurality of users, and the object separation unit separates the user sound source into object audio corresponding to each of the plurality of users, and the score
  • the calculation unit may calculate scores individually for the object audio corresponding to each user.
  • the apparatus may further include an output unit configured to display the individually calculated scores.
  • a plurality of source audio is divided into a plurality of object audio corresponding to the source audio, respectively, storing the recorded sound source, receiving a user sound source associated with the sound source, the object audio Generating features for each, generating a characteristic for the user sound source, and comparing the characteristic for the object audio with the characteristic for the user sound source, and calculating a score for the user sound source.
  • a user sound source evaluation method is provided.
  • the characteristic may include a pitch of the object audio or the user sound source, a loudness of the object audio or the user sound source, and an energy of a critical band of the object audio or the user sound source. It may include at least one of the frequency band of the object audio or the user sound source.
  • the user sound source may include at least one of a voice of the user associated with the recorded sound source or an instrument sound played by the user.
  • the user sound source may further include source audio received from each of a plurality of users, and the user sound source may be further divided into object audio corresponding to each of the plurality of users. Scores may be individually calculated for the object audio corresponding to each user.
  • the method may further include displaying the individually calculated scores.
  • the performance of the recorded sound source and the user sound source can be compared and evaluated.
  • FIG. 1 is a diagram illustrating a concept of a user sound source evaluation technique according to an exemplary embodiment.
  • Fig. 2 is a block diagram showing the structure of a user sound source evaluating apparatus according to an exemplary embodiment.
  • FIG. 3 is a block diagram illustrating a loudness extraction technique in accordance with an exemplary embodiment.
  • Fig. 4 is a flowchart illustrating a method for evaluating a user sound source according to an exemplary embodiment.
  • FIG. 1 is a diagram illustrating a concept of a user sound source evaluation technique according to an exemplary embodiment.
  • the recording device 140 records the performance of the at least one or more instruments 110, 120, and 130 using a microphone and generates a sound source.
  • the sound generated by playing the respective instruments 110, 120, and 130 is defined as source audio. Therefore, the sound source recorded using the recording device 140 may be referred to as a sound source recorded using a plurality of source audios.
  • the performance of each of the instruments can be stored separately from each other as source audio.
  • the sound source may include object audio that includes individual information about the respective source audios.
  • the user sound source evaluating apparatus 150 receives the user sound source from the user as well as the recorded sound source.
  • the user sound source may include one of a voice of the user who sang the same song as the recorded sound source or an instrument sound that the user played along with the other instrument 170 the same song as the recorded sound source.
  • the user sound source evaluation apparatus 150 may provide a karaoke service using the recorded sound source.
  • the karaoke service plays a recorded sound source, and when a user sings a song accordingly, the service provides a rating for the song sung by the user.
  • the user sound source evaluation apparatus 150 may separate the recorded sound source into the object audio.
  • the user sound source evaluating apparatus 150 extracts a feature of each object audio.
  • the user sound source evaluating apparatus 150 extracts the characteristics of the received user sound source.
  • the user sound source evaluating apparatus 150 may calculate a score for the user sound source by comparing the property of the object audio with the property of the user sound source.
  • the user sound source evaluator 150 extracts object audio corresponding to the singer's song part from the recorded sound source.
  • the user sound source evaluation device 150 extracts the characteristics of the singer's song and extracts the characteristics of the user's voice.
  • the user sound source evaluation apparatus 150 may compare the characteristics of the singer's song with the characteristics of the user's voice to calculate a score for the user's voice and display the calculated score to the user.
  • the user sound source evaluator 150 may output object audio corresponding to the playing portion of the same instrument 110 as the user's instrument 170 among the recorded sound sources. Extract.
  • the user sound source evaluating apparatus 150 extracts the characteristics of the instrument 110 from the recorded sound source and extracts the characteristics of the user's instrument 170 playing.
  • the user sound source evaluation apparatus 150 may compare the characteristics of the singer's song with the characteristics of the user's voice to calculate a score for the user's voice and display the calculated score to the user.
  • the user may be evaluated for not only his song but also his instrument 170 playing.
  • Fig. 2 is a block diagram showing the structure of a user sound source evaluating apparatus according to an exemplary embodiment.
  • the user sound source evaluation apparatus 200 includes a sound source storage unit 210, a sound source receiver 220, a sound source characteristic generator 230, an object separator 240, a score calculator 250, and an output unit 260. do.
  • the sound source storage unit 210 stores the recorded sound source.
  • the sound source recorded in the sound source storage unit 210 may be a sound source recorded by separating a plurality of source audio into a plurality of object audio corresponding to each source audio.
  • the sound source storage unit 210 may be formed of a memory semiconductor, and when the recorded sound source is received by streaming, a buffer memory for buffering the received sound source may be used as the sound source storage unit 210.
  • the sound source receiving unit 220 receives a user sound source associated with a sound recording source.
  • the user sound source may include one of a voice of a user who sings the same song as the recorded sound source or an instrument sound of the user playing the same song as the recorded sound with another instrument.
  • the sound source feature generator 240 generates a feature for each object audio included in the recorded sound source, and generates a feature for the user sound source.
  • a pitch of the object audio or the user sound source may be generated as a characteristic.
  • Pitch can be understood as pitch, representing the magnitude of the frequency that a person can perceive and the natural frequency of the sound that a person can feel.
  • the loudness of the object audio or the user sound source may be extracted as a characteristic.
  • loudness represents the size of music, and objectively represents the size of an acoustic sound source felt by the human hearing. Therefore, the sound source is regarded as one signal and is distinguished from the intensity calculated by simply calculating the energy value of the signal.
  • the intensity of the critical band of the object audio or the user sound source may be extracted as a characteristic. Humans can distinguish signals in the low frequency band, but not in the high frequency band. Therefore, the critical band can be set based on these characteristics. According to one side, the energy or loudness of the critical band unit may be extracted as a characteristic of the object audio or the user sound source.
  • the frequency bandwidth of the object audio or user sound source may also be extracted as a characteristic.
  • the frequency bandwidth of the sound expressed may vary depending on the instrument mixed in the recorded sound source or the singer who sang the song. Therefore, a frequency band and a frequency bandwidth in which sound is present in the object audio or the user sound source may be used as characteristics of the object audio or the user sound source.
  • the score calculation unit 250 may calculate a score for the user sound source by comparing the property of the object audio with the property of the user sound source. According to one side, the score calculation unit 250 may calculate a high score for the user sound source, if the characteristics of the object audio and the characteristics of the user sound source are similar to each other.
  • the output unit 260 may display the scores calculated for the user sound source to the user.
  • the user sound source may include a voice received from each of the plurality of users.
  • a voice sung together may be received as the user sound source.
  • the object separator 240 separates the received user sound source including the plurality of user voices into object audio corresponding to each user.
  • the object separator 240 may extract a frequency band in which a specific source audio is present in the left and right channels of the received user sound source. For example, if the source audio to be separated is the user's voice, the voice is only present in a narrow frequency range (eg 300 Hz to 12 KHz) of the entire frequency band of the sound source. In this case, the object separator 240 may extract frequencies in the 300Hz to 12KHz band in which the singer's voice is concentrated from the left and right channels of the sound source.
  • a narrow frequency range eg 300 Hz to 12 KHz
  • the object separator 240 determines the similarity from which the frequency band is extracted. In the case of a singer's voice, the similarity of left and right channels is very high. Therefore, when the extracted frequency band includes the voice of the singer, the similarity of the left and right channels is very high.
  • the object separator 240 controls a specific audio source by dividing the left and right channels according to the similarity between the left and right channels.
  • the similarity of the left and right channels is high. That is, the left and right channels contain almost similar voices. Therefore, when the right channel is differentiated from the left channel or the left channel is differentiated from the right channel, the voices included in the left and right channels are canceled out.
  • the object separation unit 240 may calculate the weight for each channel according to the similarity between the left and right channels, and separate the user sound source into the object audio by performing the difference between the left and right channels using the calculated weight. .
  • the sound source characteristic generator 230 generates a characteristic for each of the object audio separated from the user sound source
  • the score calculation unit 250 calculates a score individually for each of the object audio separated from the user sound source. Can be.
  • the output unit 260 may display, to the user, scores separately calculated for each object audio separated from the user sound source.
  • the individual evaluation of each user is performed even if the user sound source includes source audio generated by a plurality of users, such as all the users chorusing, one user singing, and the other user playing the instrument. Is possible.
  • FIG. 3 is a block diagram illustrating a loudness extraction technique in accordance with an exemplary embodiment.
  • FIG. 3 the loudness is measured for a sound source with five channels (left, center, right, left surround, right surround).
  • blocks 311, 321, 331, and 341 of the first line process signals of the left channel
  • blocks 312, 322, 332, and 342 of the second line process signals of the right channel.
  • Blocks 313, 323, 333, and 343 of the third line process the signal of the center channel
  • blocks 314, 324, 334, and 344 of the fourth line are the left surround
  • blocks of the fifth line 315, 325, 335, and 345 process signals of the right surround channel.
  • the prefilters 311, 312, 313, 314, and 315 are types of high pass filters (HPFs), which block low frequency bands and pass only high frequency bands.
  • HPFs high pass filters
  • the RLB filters 321, 322, 323, 324, and 325 are also types of high pass filters.
  • the squared mean unit 331, 332, 333, 334, 335 squares the value of each signal and takes the average, and the value is the energy of the corresponding signal.
  • each signal is multiplied by the weight G in multipliers 341, 342, 343, 344, 344 and summed in adder 350.
  • the loudness of the object audio may be calculated by weighted average of the energy of each channel.
  • Fig. 4 is a flowchart illustrating a method for evaluating a user sound source according to an exemplary embodiment.
  • the user sound source evaluation apparatus stores the recorded sound source.
  • the user sound source evaluation apparatus may be a sound source recorded by recording a plurality of source audio is divided into a plurality of object audio corresponding to each of the source audio.
  • the recorded sound source may be buffered in the buffer memory.
  • the user sound source evaluation device receives a user sound source associated with the recording source sound source.
  • the user sound source may include one of a voice of a user who sings the same song as the recorded sound source or an instrument sound of the user playing the same song as the recorded sound with another instrument.
  • the apparatus for evaluating a user sound source generates a feature for each object audio included in the recorded sound source, and generates a feature for the user sound source.
  • the pitch of the object audio or user sound source, the loudness of the object audio or user sound source, the intensity of the critical band of the object audio or user sound, the object audio or user sound source At least one of the frequency bands may be generated as a characteristic.
  • the apparatus for evaluating a user sound source may calculate a score for the user sound source by comparing the property of the object audio with the property of the user sound source.
  • the user sound source evaluation apparatus can calculate a high score for the user sound source, if the characteristics of the object audio and the user sound source is similar to each other.
  • the user sound source evaluation apparatus may display the calculated score to the user.
  • the user sound source may include a voice received from each of the plurality of users.
  • a voice sung together may be received as the user sound source.
  • the user sound source evaluating apparatus separates the received user sound source including the plurality of user voices into object audio corresponding to each user. Further, in step 440, the user sound source evaluation device generates a characteristic for each of the object audio separated from the user sound source.
  • the user sound source evaluating apparatus may calculate a score for each of the object audio separated from the user sound source.
  • the user sound source evaluating apparatus may display, to the user, scores separately calculated for each object audio separated from the user sound source.
  • the individual evaluation of each user is performed even if the user sound source includes source audio generated by a plurality of users, such as all the users chorusing, one user singing, and the other user playing the instrument. Is possible.
  • Methods according to an embodiment of the present invention can be implemented in the form of program instructions that can be executed by various computer means and recorded in a computer readable medium.
  • the computer readable medium may include program instructions, data files, data structures, etc. alone or in combination.
  • Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

사용자 음원 평가 기술이 개시된다. 사용자 음원 평가 장치는 객체 오디오 기술을 이용하여 녹음된 음원으로부터 객체 오디오를 추출한다. 사용자 음원 평가 장치는 객체 오디오와 사용자 음원을 비교한다. 본 발명에 따르면, 사용자 음원 평가 장치는 녹음된 음원에 포함된 가수의 가창과 사용자의 가창을 비교할 수 있을 뿐만 아니라, 녹음된 음원에 포함된 기타 연주, 드럼 연주와 사용자의 악기 연주를 비교할 수 있다.

Description

사용자 음원 평가 장치 및 방법
본 발명은 사용자로부터 수신된 사용자 음원에 대하여 평가를 수행하는 기술에 관한 것으로서, 좀더 구체적으로는 객체 오디오로 분리되어 녹음된 음원과 사용자 음원을 비교하여 사용자 음원을 평가하는 기술에 관한 것이다.
음원은 악기 연주, 가수의 가창 등 여러 개의 소스 오디오로 구성된다. 일반적으로 녹음된 음원은 여러 개의 소스 오디오들이 서로 분리되어 녹음되지 않고, 혼합(Mixed)되어 녹음된다.
사용자 음원 평가 기술은 사용자의 가창 등에 의하여 생성된 사용자 음원이 녹음된 음원(원음)과 얼마나 유사한지 여부에 따라서 사용자 음원을 평가한다. 평가의 방법으로는 사용자 음원에 대하여 점수가 산정된다.
일측에 따르면, 사용자 음원과 녹음된 음원의 유사 여부를 판정하기 위하여, 녹음된 음원에 대하여 추출된 특성(feature)과 사용자 음원에 대하여 추출된 특성을 서로 비교한다.
한편, 여러 개의 소스 오디오들을 혼합하여 녹음하지 않고, 각 소스 오디오들을 객체 오디오로 분리하여 녹음할 수 있는 '객체 오디오 기술'이 개발되었다. 즉, 객체 오디오 기술을 이용하여 녹음된 음원에는 각 소스 오디오에 대응되는 객체 오디오들이 서로 분리되어 녹음된다.
따라서, 녹음된 음원에서 가수의 가창에 대응되 객체 오디오만을 추출할 수도 있고, 피아노 반주나 드럼 연주에 대응되는 객체 오디오만을 추출할 수도 있다.
객체 오디오 기술을 이용하여 녹음된 음원과 사용자 음원을 비교하여 평가하는 기술에 대해서는 아직 소개된 바 없다.
하기 실시예들의 목적은 객체 오디오 기술을 이용하여 녹음된 음원과 사용자 음원을 비교하여 평가하는 것이다.
하기 실시예들의 목적은 녹음된 음원의 연주와 사용자 음원을 비교하여 평가하는 것이다.
예시적 실시예에 따르면, 복수의 소스 오디오들이 상기 소스 오디오에 각각 대응되는 복수의 객체 오디오로 분리되어 녹음된 음원을 저장하는 음원 저장부, 상기 음원과 관련된 사용자 음원을 수신하는 음원 수신부, 상기 객체 오디오 각각에 대한 특성(feature)들을 생성하고, 상기 사용자 음원에 대한 특성을 생성하는 음원 특성 생성부 및 상기 객체 오디오에 대한 특성과 상기 사용자 음원에 대한 특성을 비교하여 상기 사용자 음원에 대한 점수를 산정하는 점수 산정부를 포함하는 사용자 음원 평가 장치가 제공된다.
여기서, 상기 특성은 상기 객체 오디오 또는 상기 사용자 음원의 피치(pitch), 상기 객체 오디오 또는 상기 사용자 음원의 라우드니스(loudness), 상기 객체 오디오 또는 상기 사용자 음원의 크리티컬 밴드(critical band)의 에너지(intensity), 상기 객체 오디오 또는 상기 사용자 음원의 주파수 대역 중에서 적어도 하나를 포함할 수 있다.
그리고, 상기 사용자 음원은 상기 녹음된 음원과 관련된 상기 사용자의 목소리 또는 상기 사용자가 연주한 악기 소리 중에서 적어도 하나를 포함할 수 있다.
또한, 객체 분리부를 더 포함하고, 상기 사용자 음원은 복수의 사용자 각각으로부터 수신한 소스 오디오들을 포함하고, 상기 객체 분리부는 상기 사용자 음원을 상기 복수의 사용자 각각에 대응하는 객체 오디오로 분리하고, 상기 점수 산정부는 상기 각각의 사용자에 대응되는 객체 오디오에 대하여 개별적으로 점수를 산정할 수 있다.
여기서, 상기 개별적으로 산정된 점수들을 디스플레이하는 출력부를 더 포함할 수 있다.
또 다른 예시적 실시예에 따르면, 복수의 소스 오디오들이 상기 소스 오디오에 각각 대응되는 복수의 객체 오디오로 분리되어 녹음된 음원을 저장하는 단계, 상기 음원과 관련된 사용자 음원을 수신하는 단계, 상기 객체 오디오 각각에 대한 특성(feature)들을 생성하고, 상기 사용자 음원에 대한 특성을 생성하는 단계 및 상기 객체 오디오에 대한 특성과 상기 사용자 음원에 대한 특성을 비교하여 상기 사용자 음원에 대한 점수를 산정하는 단계를 포함하는 사용자 음원 평가 방법이 제공된다.
여기서, 상기 특성은 상기 객체 오디오 또는 상기 사용자 음원의 피치(pitch), 상기 객체 오디오 또는 상기 사용자 음원의 라우드니스(loudness), 상기 객체 오디오 또는 상기 사용자 음원의 크리티컬 밴드(critical band)의 에너지(intensity), 상기 객체 오디오 또는 상기 사용자 음원의 주파수 대역 중에서 적어도 하나를 포함할 수 있다.
그리고, 상기 사용자 음원은 상기 녹음된 음원과 관련된 상기 사용자의 목소리 또는 상기 사용자가 연주한 악기 소리 중에서 적어도 하나를 포함할 수 있다.
또한, 상기 사용자 음원은 복수의 사용자 각각으로부터 수신한 소스 오디오들을 포함하고, 상기 사용자 음원을 상기 복수의 사용자 각각에 대응하는 객체 오디오로 분리하는 단계를 더 포함하고, 상기 점수를 산정하는 단계는 상기 각각의 사용자에 대응되는 객체 오디오에 대하여 개별적으로 점수를 산정할 수 있다.
여기서, 상기 개별적으로 산정된 점수들을 디스플레이하는 단계를 더 포함할 수 있다.
하기 실시예들에 따르면, 객체 오디오 기술을 이용하여 녹음된 음원과 사용자 음원을 비교하여 평가할 수 있다.
하기 실시예들에 따르면, 녹음된 음원의 연주와 사용자 음원을 비교하여 평가할 수 있다.
도 1은 예시적 실시예에 따른 사용자 음원 평가 기술의 개념을 설명한 도면이다.
도 2는 예시적 실시예에 따른 사용자 음원 평가 장치의 구조를 도시한 블록도이다.
도 3은 예시적 실시예에 따른 라우드니스 추출 기법을 설명한 블록도이다.
도 4는 예시적 실시예에 따른 사용자 음원 평가 방법을 단계별로 설명한 순서도이다.
이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
도 1은 예시적 실시예에 따른 사용자 음원 평가 기술의 개념을 설명한 도면이다.
녹음 장치(140)는 적어도 하나 이상의 악기(110, 120, 130)들의 연주를 마이크를 이용하여 녹음하고 음원을 생성한다. 이하 본 명세서에서는 각 악기(110, 120, 130)들이 연주되어 생성된 소리를 소스 오디오라고 정의한다. 따라서, 녹음 장치(140)를 이용하여 녹음된 음원은 복수의 소스 오디오들을 이용하여 녹음된 음원이라 할 수 있다.
일측에 따르면, 각 악기(110, 120, 130)들의 연주는 서로 분리되어 소스 오디오로 저장될 수 있다. 또한, 이 경우에, 음원은 각 소스 오디오들에 대한 개별적인 정보를 포함하는 객체 오디오를 포함할 수 있다.
사용자 음원 평가 장치(150)는 녹음된 음원은 물론, 사용자로부터 사용자 음원을 수신한다. 일측에 따르면, 사용자 음원은 녹음된 음원과 동일한 노래를 사용자가 따라 부른 사용자의 목소리 또는 녹음된 음원과 동일한 노래를 사용자가 다른 악기(170)로 따라서 연주한 악기 소리 중에서 하나를 포함할 수 있다.
사용자 음원 평가 장치(150)는 녹음된 음원을 이용하여 노래방 서비스를 제공할 수 있다. 노래방 서비스는 녹음된 음원을 재생하고, 사용자가 이에 맞추어 노래를 부르면, 사용자가 부른 노래에 대한 평가를 제공하는 서비스이다.
일측에 따르면, 사용자 음원 평가 장치(150)는 녹음된 음원을 객체 오디오로 분리할 수 있다. 사용자 음원 평가 장치(150)는 각 객체 오디오에 대한 특성(feature)를 추출한다. 사용자 음원 평가 장치(150)는 수신된 사용자 음원에 대한 특성을 추출한다. 사용자 음원 평가 장치(150)는 객체 오디오에 대한 특성과 사용자 음원에 대한 특성을 서로 비교하여 사용자 음원에 대한 점수를 산정할 수 있다.
예를 들어, 사용자 음원이 사용자의 목소리인 경우에, 사용자 음원 평가 장치(150)는 녹음된 음원 중에서 가수의 가창 부분에 대응되는 객체 오디오를 추출한다. 사용자 음원 평가 장치(150)는 가수의 가창에 대한 특성을 추출하고 사용자의 목소리에 대한 특성을 추출한다. 사용자 음원 평가 장치(150)는 가수의 가창에 대한 특성과 사용자의 목소리에 대한 특성을 비교하여 사용자의 목소리에 대한 점수를 산정하고, 산정된 점수를 사용자에게 디스플레이 할 수 있다.
예를 들어, 사용자 음원이 사용자의 악기(170)연주인 경우에, 사용자 음원 평가 장치(150)는 녹음된 음원 중에서 사용자의 악기(170)와 동일한 악기(110)의 연주 부분에 대응되는 객체 오디오를 추출한다. 사용자 음원 평가 장치(150)는 녹음된 음원에서 악기(110) 연주에 대한 특성을 추출하고 사용자의 악기(170)연주에 대한 특성을 추출한다. 사용자 음원 평가 장치(150)는 가수의 가창에 대한 특성과 사용자의 목소리에 대한 특성을 비교하여 사용자의 목소리에 대한 점수를 산정하고, 산정된 점수를 사용자에게 디스플레이 할 수 있다.
예시적 실시예에 따르면, 사용자는 자신의 노래뿐만 아니라 자신의 악기(170) 연주에 대해서도 평가를 받을 수 있다.
도 2는 예시적 실시예에 따른 사용자 음원 평가 장치의 구조를 도시한 블록도이다.
사용자 음원 평가 장치(200)는 음원 저장부(210), 음원 수신부(220), 음원 특성 생성부(230), 객체 분리부(240), 점수 산정부(250), 출력부(260)를 포함한다.
음원 저장부(210)는 녹음된 음원을 저장한다. 일측에 따르면, 음원 저장부(210)에 녹음된 음원은 복수의 소스 오디오들이 각 소스 오디오 들에 대응되는 복수의 객체 오디오로 분리되어 녹음된 음원일 수 있다. 일측에 따르면, 음원 저장부(210)는 메모리 반도체로 구성될 수 있으며, 녹음된 음원을 스트리밍하여 수신한 경우, 수신된 음원을 버퍼링하는 버퍼 메모리가 음원 저장부(210)로 사용될 수 있다.
음원 수신부(220)는 녹음원 음원과 관련된 사용자 음원을 수신한다. 여기서, 사용자 음원은 녹음된 음원과 동일한 노래를 사용자가 따라 부른 사용자의 목소리 또는 녹음된 음원과 동일한 노래를 사용자가 다른 악기로 따라서 연주한 악기 소리 중에서 하나를 포함할 수 있다.
음원 특성 생성부(240)는 녹음된 음원에 포함된 객체 오디오 각각에 대한 특성(feature)를 생성하고, 사용자 음원에 대한 특성을 생성한다. 일측에 따르면, 객체 오디오 또는 사용자 음원의 피치(pitch)가 특성으로 생성될 수 있다. 피치는 음정으로 이해될 수 있으며, 사람이 지각할 수 있는 주파수의 크기, 사람이 느낄 수 있는 음의 고유 주파수를 나타낸다.
다른 측면에 따르면, 객체 오디오 또는 사용자 음원의 라우드니스(Loudness)가 특성으로 추출될 수 있다. 여기서, 라우드니스는 음악의 크기를 나타내는 것으로, 사람의 청각이 느끼는 청감적 음원의 크기를 객관화하여 나타낸다. 따라서, 음원을 하나의 신호로 보고 단순히 신호의 에너지 값을 계산하여 산출된 인텐시티(Intensity)와는 구별된다.
이하 객체 오디오 또는 사용자 음원에서 라우드니스를 추출하는 구성은 도 3을 참조하여 상세히 설명하기로 한다.
또 다른 측면에 따르면, 객체 오디오 또는 사용자 음원의 크리티컬 밴드(critical band)의 에너지(intensity)가 특성으로 추출될 수 있다. 인간은 저주파 대역의 신호는 잘 구분할 수 있으나, 고주파 대역의 신호는 잘 구분하지 못한다. 따라서, 이러한 특성에 기반하여 크리티컬 밴드를 설정할 수 있다. 일측에 따르면, 크리티컬 밴드 단위의 에너지나 라우드니스가 객체 오디오 또는 사용자 음원에 대한 특성으로 추출될 수 있다.
또 다른 측면에 따르면, 객체 오디오 또는 사용자 음원의 주파수 대역폭도 특성으로 추출될 수 있다. 녹음된 음원에 믹싱된 악기나 노래를 부른 가수에 따라 표현되는 음의 주파수 대역폭은 달라질 수 있다. 따라서, 객체 오디오 또는 사용자 음원에서 소리가 존재하는 주파수 대역과 주파수 대역폭이 객체 오디오 또는 사용자 음원의 특성으로 사용될 수 있다.
점수 산정부(250)는 객체 오디오에 대한 특성과 사용자 음원에 대한 특성을 비교하여 사용자 음원에 대하여 점수를 산정할 수 있다. 일측에 따르면, 점수 산정부(250)는 객체 오디오에 대한 특성과 사용자 음원에 대한 특성이 서로 유사하다면, 사용자 음원에 대하여 높은 점수를 산정할 수 있다.
출력부(260)는 사용자 음원에 대하여 산정된 점수들을 사용자에게 디스플레이 할 수 있다.
상기 설명된 실시예에 따르면, 녹음된 음원에 포함된 개별적인 객체 오디오와 유사한 사용자 음원에 대한 정확한 평가가 가능하다. 즉, 사용자는 자신의 가창뿐만 아니라, 자신의 악기 연주에 대해서도 평가 받을 수 있다.
일측에 따르면, 사용자 음원은 복수의 사용자로부터 각각 수신한 목소리를 포함할 수 있다. 즉, 사용자들이 듀엣으로, 또는 합창으로 노래를 부른 경우에 함께 부른 목소리가 사용자 음원으로 수신될 수 있다.
이 경우에, 객체 분리부(240)는 복수의 사용자 목소리를 포함하는 수신된 사용자 음원을 각 사용자에 대응되는 객체 오디오로 분리한다.
일측에 따르면, 객체 분리부(240)는 수신된 사용자 음원의 좌우 채널에서 특정 소스 오디오가 존재하는 주파수 대역을 추출할 수 있다. 예를 들어 분리하려는 소스 오디오가 사용자의 목소리인 경우에, 목소리는 음원의 전체 주파수 대역 중에서 좁은 주파수 영역(예를 들면 300Hz ~ 12KHz)에만 존재한다. 이 경우에, 객체 분리부(240)는 가수의 목소리가 집중적으로 존재하는 300Hz ~ 12KHz 대역의 주파수를 음원의 좌우 채널에서 추출할 수 있다.
객체 분리부(240)는 주파수 대역이 추출된 유사도를 판단한다. 가수의 목소리의 경우 좌우 채널의 유사도가 매우 높다. 따라서, 추출된 주파수 대역이 가수의 목소리를 포함하는 경우에, 좌우 채널의 유사도는 매우 높다.
객체 분리부(240)는 좌우 채널간의 유사도에 따라서, 좌우 채널을 차분하여 특정 오디오 소스를 제어한다. 가수의 목소리가 포함된 경우, 좌우 채널의 유사도가 높다. 즉, 좌우 채널에는 거의 유사한 목소리가 포함된다. 따라서, 좌측 채널에서 우측 채널을 차분하거나, 우측 채널에서 좌측 채널을 차분한다면, 좌우 채널에 포함된 목소리는 서로 상쇄되어 제거된다.
일측에 따르면, 객체 분리부(240)는 좌우 채널간의 유사도에 따라서, 각 채널에 대한 가중치를 산출하고, 산출된 가중치를 이용하여 좌우 채널간의 차분을 수행하여 사용자 음원을 객체 오디오로 분리할 수 있다.
이 경우에, 음원 특성 생성부(230)는 사용자 음원에서 분리된 객체 오디오 각각에 대하여 특성을 생성하고, 점수 산정부(250)는 사용자 음원에서 분리된 객체 오디오 각각에 대하여 개별적으로 점수를 산정할 수 있다.
출력부(260)는 사용자 음원에서 분리된 객체 오디오 각각에 대하여 개별적으로 산정된 점수들을 사용자에게 디스플레이 할 수 있다.
상기 실시예에 따르면, 사용자들이 모두 합창을 하거나, 한 사용자는 가창을 하고 다른 사용자는 악기 연주를 하는 등, 사용자 음원이 복수의 사용자들이 생성한 소스 오디오를 포함하는 경우에도 각 사용자에 대한 개별적인 평가가 가능하다.
도 3은 예시적 실시예에 따른 라우드니스 추출 기법을 설명한 블록도이다.
도 3에서는 5개 채널(왼쪽, 중앙, 오른쪽, 왼쪽 서라운드, 오른쪽 서라운드)을 가진 사운드 소스에 대한 라우드니스가 측정된다. 도 3에서 첫 번째 라인의 블록들(311, 321, 331, 341)은 왼쪽 채널의 신호를 처리하고, 두 번째 라인의 블록들(312, 322, 332, 342)은 오른쪽 채널의 신호를 처리한다. 세 번째 라인의 블록들(313, 323, 333, 343)은 중앙 채널의 신호를 처리하고, 네 번째 라인의 블록들(314, 324, 334, 344)은 왼쪽 서라운드, 다섯 번째 라인의 블록들(315, 325, 335, 345)은 오른쪽 서라운드 채널의 신호를 처리한다.
프리필터(311, 312, 313, 314, 315)는 하이패스필터(HPF: High Pass Filter)의 일종으로서, 저주파 대역은 차단하고, 고주파 대역만을 통과시킨다.
RLB 필터(321, 322, 323, 324, 325)도 역시 하이패스필터의 일종이다.
제곱 평균부(331, 332, 333, 334, 335)각 신호의 값을 제곱하여 그 평균을 취하며, 그 값은 해당 신호의 에너지이다.
각 신호의 에너지는 곱셈기(341, 342, 343, 344, 344)에서 가중치G와 곱해지고, 가산기(350)에서 합산된다.
도 3에서 설명된 바와 같이, 객체 오디오의 라우드니스는 각 채널의 에너지를 가중 평균하여 산출될 수 있다.
도 4는 예시적 실시예에 따른 사용자 음원 평가 방법을 단계별로 설명한 순서도이다.
단계(410)에서 사용자 음원 평가 장치는 녹음된 음원을 저장한다. 일측에 따르면, 사용자 음원 평가 장치는 녹음된 음원은 복수의 소스 오디오들이 각 소스 오디오 들에 대응되는 복수의 객체 오디오로 분리되어 녹음된 음원일 수 있다. 일측에 따르면, 사용자 음원 평가 장치가 녹음된 음원을 스트리밍하여 수신한 경우, 단계(410)에서, 녹음된 음원은 버퍼 메모리에 버퍼링될 수 있다.
단계(420)에서, 사용자 음원 평가 장치는 녹음원 음원과 관련된 사용자 음원을 수신한다. 여기서, 사용자 음원은 녹음된 음원과 동일한 노래를 사용자가 따라 부른 사용자의 목소리 또는 녹음된 음원과 동일한 노래를 사용자가 다른 악기로 따라서 연주한 악기 소리 중에서 하나를 포함할 수 있다.
단계(440)에서, 사용자 음원 평가 장치는 녹음된 음원에 포함된 객체 오디오 각각에 대한 특성(feature)를 생성하고, 사용자 음원에 대한 특성을 생성한다.
일측에 따르면, 객체 오디오 또는 사용자 음원의 피치(pitch), 객체 오디오 또는 사용자 음원의 라우드니스(loudness), 객체 오디오 또는 사용자 음원의 크리티컬 밴드(critical band)의 에너지(intensity), 객체 오디오 또는 사용자 음원의 주파수 대역 중에서 적어도 하나가 특성으로 생성될 수 있다.
단계(450)에서 사용자 음원 평가 장치는 객체 오디오에 대한 특성과 사용자 음원에 대한 특성을 비교하여 사용자 음원에 대하여 점수를 산정할 수 있다. 일측에 따르면, 사용자 음원 평가 장치는 객체 오디오에 대한 특성과 사용자 음원에 대한 특성이 서로 유사하다면, 사용자 음원에 대하여 높은 점수를 산정할 수 있다.
단계(460)에서, 사용자 음원 평가 장치는 산정된 점수를 사용자에게 디스플레이 할 수 있다.
일측에 따르면, 사용자 음원은 복수의 사용자로부터 각각 수신한 목소리를 포함할 수 있다. 즉, 사용자들이 듀엣으로, 또는 합창으로 노래를 부른 경우에 함께 부른 목소리가 사용자 음원으로 수신될 수 있다.
이 경우에, 단계(430)에서 사용자 음원 평가 장치는 복수의 사용자 목소리를 포함하는 수신된 사용자 음원을 각 사용자에 대응되는 객체 오디오로 분리한다. 또한, 단계(440)에서, 사용자 음원 평가 장치는 사용자 음원으로부터 분리된 객체 오디오 각각에 대하여 특성을 생성한다.
단계(450)에서, 사용자 음원 평가 장치는 사용자 음원에서 분리된 객체 오디오 각각에 대하여 개별적으로 점수를 산정할 수 있다. 단계(460)에서, 사용자 음원 평가 장치는 사용자 음원에서 분리된 객체 오디오 각각에 대하여 개별적으로 산정된 점수들을 사용자에게 디스플레이 할 수 있다.
상기 실시예에 따르면, 사용자들이 모두 합창을 하거나, 한 사용자는 가창을 하고 다른 사용자는 악기 연주를 하는 등, 사용자 음원이 복수의 사용자들이 생성한 소스 오디오를 포함하는 경우에도 각 사용자에 대한 개별적인 평가가 가능하다.
본 발명의 실시 예에 따른 방법들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.

Claims (11)

  1. 복수의 소스 오디오들이 상기 소스 오디오에 각각 대응되는 복수의 객체 오디오로 분리되어 녹음된 음원을 저장하는 음원 저장부;
    상기 음원과 관련된 사용자 음원을 수신하는 음원 수신부;
    상기 객체 오디오 각각에 대한 특성(feature)들을 생성하고, 상기 사용자 음원에 대한 특성을 생성하는 음원 특성 생성부;
    상기 객체 오디오에 대한 특성과 상기 사용자 음원에 대한 특성을 비교하여 상기 사용자 음원에 대한 점수를 산정하는 점수 산정부
    를 포함하는 사용자 음원 평가 장치.
  2. 제1항에 있어서,
    상기 특성은 상기 객체 오디오 또는 상기 사용자 음원의 피치(pitch), 상기 객체 오디오 또는 상기 사용자 음원의 라우드니스(loudness), 상기 객체 오디오 또는 상기 사용자 음원의 크리티컬 밴드(critical band)의 에너지(intensity), 상기 객체 오디오 또는 상기 사용자 음원의 주파수 대역 중에서 적어도 하나를 포함하는 사용자 음원 평가 장치.
  3. 제1항에 있어서,
    상기 사용자 음원은 상기 녹음된 음원과 관련된 상기 사용자의 목소리 또는 상기 사용자가 연주한 악기 소리 중에서 적어도 하나를 포함하는 사용자 음원 평가 장치.
  4. 제3항에 있어서,
    객체 분리부;
    를 더 포함하고,
    상기 사용자 음원은 복수의 사용자 각각으로부터 수신한 소스 오디오들을 포함하고,
    상기 객체 분리부는 상기 사용자 음원을 상기 복수의 사용자 각각에 대응하는 객체 오디오로 분리하고,
    상기 점수 산정부는 상기 각각의 사용자에 대응되는 객체 오디오에 대하여 개별적으로 점수를 산정하는 사용자 음원 평가 장치.
  5. 제4항에 있어서,
    상기 개별적으로 산정된 점수들을 디스플레이하는 출력부
    를 더 포함하는 사용자 음원 평가 장치.
  6. 복수의 소스 오디오들이 상기 소스 오디오에 각각 대응되는 복수의 객체 오디오로 분리되어 녹음된 음원을 저장하는 단계;
    상기 음원과 관련된 사용자 음원을 수신하는 단계;
    상기 객체 오디오 각각에 대한 특성(feature)들을 생성하고, 상기 사용자 음원에 대한 특성을 생성하는 단계;
    상기 객체 오디오에 대한 특성과 상기 사용자 음원에 대한 특성을 비교하여 상기 사용자 음원에 대한 점수를 산정하는 단계
    를 포함하는 사용자 음원 평가 방법.
  7. 제6항에 있어서,
    상기 특성은 상기 객체 오디오 또는 상기 사용자 음원의 피치(pitch), 상기 객체 오디오 또는 상기 사용자 음원의 라우드니스(loudness), 상기 객체 오디오 또는 상기 사용자 음원의 크리티컬 밴드(critical band)의 에너지(intensity), 상기 객체 오디오 또는 상기 사용자 음원의 주파수 대역 중에서 적어도 하나를 포함하는 사용자 음원 평가 방법.
  8. 제6항에 있어서,
    상기 사용자 음원은 상기 녹음된 음원과 관련된 상기 사용자의 목소리 또는 상기 사용자가 연주한 악기 소리 중에서 적어도 하나를 포함하는 사용자 음원 평가 방법.
  9. 제8항에 있어서,
    상기 사용자 음원은 복수의 사용자 각각으로부터 수신한 소스 오디오들을 포함하고,
    상기 사용자 음원을 상기 복수의 사용자 각각에 대응하는 객체 오디오로 분리하는 단계
    를 더 포함하고,
    상기 점수를 산정하는 단계는 상기 각각의 사용자에 대응되는 객체 오디오에 대하여 개별적으로 점수를 산정하는 사용자 음원 평가 방법.
  10. 제9항에 있어서,
    상기 개별적으로 산정된 점수들을 디스플레이하는 단계
    를 더 포함하는 사용자 음원 평가 방법.
  11. 제6항 내지 제10항 중에서 어느 하나의 항의 방법을 실행시키기 위한 프로그램이 기록된 컴퓨터 판독 가능한 기록 매체.
PCT/KR2013/005819 2012-06-29 2013-07-01 사용자 음원 평가 장치 및 방법 WO2014003513A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2012-0070763 2012-06-29
KR1020120070763A KR101406398B1 (ko) 2012-06-29 2012-06-29 사용자 음원 평가 장치, 방법 및 기록 매체

Publications (1)

Publication Number Publication Date
WO2014003513A1 true WO2014003513A1 (ko) 2014-01-03

Family

ID=49783556

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2013/005819 WO2014003513A1 (ko) 2012-06-29 2013-07-01 사용자 음원 평가 장치 및 방법

Country Status (2)

Country Link
KR (1) KR101406398B1 (ko)
WO (1) WO2014003513A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108010503A (zh) * 2017-12-27 2018-05-08 北京酷我科技有限公司 一种k歌录音的方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101679712B1 (ko) 2014-12-10 2016-11-28 전자부품연구원 오디오 음량 측정 방법 및 장치
US11337738B2 (en) 2017-05-22 2022-05-24 Mcginley Engineered Solutions, Llc Variable angle orthopedic fasteners for fixation of an orthopedic implant
KR101925217B1 (ko) 2017-06-20 2018-12-04 한국과학기술원 가창 표현 이식 시스템
KR101975193B1 (ko) * 2017-11-15 2019-05-07 가기환 자동 작곡 장치 및 컴퓨터 수행 가능한 자동 작곡 방법
KR101943223B1 (ko) 2017-12-11 2019-01-28 송문섭 본딩 와이어 제조 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090049082A1 (en) * 2007-08-13 2009-02-19 Yahoo! Inc. System and method for identifying similar media objects
US20090049091A1 (en) * 2007-08-13 2009-02-19 Yahoo! Inc. System and method for identifying similar media objects
US20100135510A1 (en) * 2008-12-02 2010-06-03 Electronics And Telecommunications Research Institute Apparatus for generating and playing object based audio contents
US20110046759A1 (en) * 2009-08-18 2011-02-24 Samsung Electronics Co., Ltd. Method and apparatus for separating audio object
US20120059650A1 (en) * 2009-04-17 2012-03-08 France Telecom Method and device for the objective evaluation of the voice quality of a speech signal taking into account the classification of the background noise contained in the signal

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR940022367A (ko) * 1993-03-27 1994-10-20 이헌조 노래점수 측정 장치 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090049082A1 (en) * 2007-08-13 2009-02-19 Yahoo! Inc. System and method for identifying similar media objects
US20090049091A1 (en) * 2007-08-13 2009-02-19 Yahoo! Inc. System and method for identifying similar media objects
US20100135510A1 (en) * 2008-12-02 2010-06-03 Electronics And Telecommunications Research Institute Apparatus for generating and playing object based audio contents
US20120059650A1 (en) * 2009-04-17 2012-03-08 France Telecom Method and device for the objective evaluation of the voice quality of a speech signal taking into account the classification of the background noise contained in the signal
US20110046759A1 (en) * 2009-08-18 2011-02-24 Samsung Electronics Co., Ltd. Method and apparatus for separating audio object

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108010503A (zh) * 2017-12-27 2018-05-08 北京酷我科技有限公司 一种k歌录音的方法
CN108010503B (zh) * 2017-12-27 2021-12-03 北京酷我科技有限公司 一种k歌录音的方法

Also Published As

Publication number Publication date
KR101406398B1 (ko) 2014-06-13
KR20140003111A (ko) 2014-01-09

Similar Documents

Publication Publication Date Title
WO2014003513A1 (ko) 사용자 음원 평가 장치 및 방법
Yamada et al. A rhythm practice support system with annotation-free real-time onset detection
Gillet et al. Enst-drums: an extensive audio-visual database for drum signals processing
WO2015030319A1 (ko) 음원 평가방법, 이에 사용되는 연주정보 분석방법과 기록매체 그리고 이를 이용한 음원의 평가장치
WO2019117362A1 (ko) 온라인 노래방 서비스의 반주 및 가창 음성 간 동기화 시스템 및 이를 수행하기 위한 장치
WO2017057530A1 (ja) 音響処理装置及び音響処理方法
WO2018236015A1 (ko) 가창 표현 이식 시스템
Friberg et al. Automatic real-time extraction of musical expression
JP5428458B2 (ja) 評価装置
CN117295004B (zh) 一种转换多声道环绕声的方法、装置及音响系统
JP6657713B2 (ja) 音響処理装置および音響処理方法
WO2010047444A1 (ko) 음악분수 구동장치 및 방법과 이를 위한 음악분수 시나리오 생성장치 및 방법
Luizard et al. How singers adapt to room acoustical conditions
KR102118189B1 (ko) 미디어 컨텐츠 서비스 시스템
Jensen et al. Binary decision tree classification of musical sounds
WO2011136454A1 (ko) 이미지를 이용한 음원 생성 시스템 및 방법
Bader et al. Computational timbre and tonal system similarity analysis of the music of Northern Myanmar-based Kachin compared to Xinjiang-based Uyghur ethnic groups
WO2015093668A1 (ko) 오디오 신호 처리 장치 및 방법
JP2016184112A (ja) アンサンブル評価装置
JP2009092871A (ja) 採点装置及びプログラム
JP2008040260A (ja) 楽曲練習支援装置、動的時間整合モジュールおよびプログラム
JP4048249B2 (ja) カラオケ装置
Sakuraba et al. Comparing features for forming music streams in automatic music transcription
WO2011052905A2 (ko) 절대음감 학습 방법/장치, 전자악기 및 음원 처리 장치
WO2014133331A1 (ko) 가라오케 컨텐츠 생성 장치 및 그 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13810559

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13810559

Country of ref document: EP

Kind code of ref document: A1