KR100989867B1 - An automatic song transcription method - Google Patents
An automatic song transcription method Download PDFInfo
- Publication number
- KR100989867B1 KR100989867B1 KR1020090003118A KR20090003118A KR100989867B1 KR 100989867 B1 KR100989867 B1 KR 100989867B1 KR 1020090003118 A KR1020090003118 A KR 1020090003118A KR 20090003118 A KR20090003118 A KR 20090003118A KR 100989867 B1 KR100989867 B1 KR 100989867B1
- Authority
- KR
- South Korea
- Prior art keywords
- pitch
- syllable
- recognition
- sound field
- value
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000013518 transcription Methods 0.000 title 1
- 230000035897 transcription Effects 0.000 title 1
- 238000001514 detection method Methods 0.000 claims abstract description 24
- 238000013507 mapping Methods 0.000 claims abstract description 10
- 238000000605 extraction Methods 0.000 claims abstract description 8
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 239000011295 pitch Substances 0.000 claims description 149
- 230000011218 segmentation Effects 0.000 claims description 10
- 238000005311 autocorrelation function Methods 0.000 claims description 7
- 230000002068 genetic effect Effects 0.000 claims description 7
- 210000000349 chromosome Anatomy 0.000 claims description 6
- 230000000284 resting effect Effects 0.000 claims description 4
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 230000035772 mutation Effects 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 12
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 238000004321 preservation Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000029058 respiratory gaseous exchange Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/38—Chord
- G10H1/383—Chord detection and/or recognition, e.g. for correction, or automatic bass generation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/72—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for transmitting results of analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Auxiliary Devices For Music (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
개시된 내용은 자동 노래 채보방법에 관한 것으로서, 마이크와 같은 음성신호 입력부를 통해 입력되는 음성신호로부터 피치를 추출하고, 추출된 피치 데이터를 기반으로 연속된 음성신호를 음절 단위로 분할함과 동시에 음성신호의 잡음을 제거하고 음절의 대표 피치값을 제공하고, 분할된 음절을 음장 인식이 가능한 유효 단위 구간으로 변환하는 전처리를 수행한 후 각각의 음표 단위로 클러스터링하여 음장 인식을 수행하고, 분할된 첫 음절의 대표 피치값을 기준으로 상대 음정 주파수 표를 재구성한 후 재구성된 상대 음정 주파수 표를 토대로 음절의 대표 피치값을 매핑하여 음정 인식을 수행하고, 추출된 피치 데이터에 임계값을 적용하여 임계값 이하의 비음성 구간인 휴지기를 추출한 후 추출된 휴지기 정보를 이용하여 마디를 검출하며, 음장 인식 정보, 음정 인식 정보, 마디 검출 정보를 토대로 악보 데이터를 생성한다. 따라서, 본 발명은 음절 분할시 잡음 제거 및 효과적인 영역 분할을 수행하고, 개개인의 발성 속도에 구애받지 않는 음장 인식이 가능하고, 상대 음정을 통한 음정 인식을 통해 개개인의 음고에 적합한 음정 인식이 가능하며, 마디 검출을 통해 정확한 악보 생성이 가능하다.Disclosed is a method for automatic song taking, extracting a pitch from a voice signal input through a voice signal input unit such as a microphone, and dividing a continuous voice signal into syllable units based on the extracted pitch data. After preprocessing to remove the noise of the syllables and provide a representative pitch value of the syllables, and convert the divided syllables into effective unit sections capable of sound field recognition, perform clustering by each note unit to perform sound field recognition, and then divide the first syllables. After reconstructing the relative pitch frequency table based on the representative pitch value of, map recognition is performed by mapping the representative pitch values of syllables based on the reconstructed relative pitch frequency table, and the threshold value is applied to the extracted pitch data. After extracting the rest period which is the non-voice interval of, using the extracted rest information, the node is detected and the sound field is And it generates the music data based on the expression information, pitch information recognition, word detection information. Therefore, the present invention can perform noise reduction and effective region division when the syllable is divided, and can recognize the sound field irrespective of the individual's speech rate, and it is possible to recognize the pitch suitable for the individual pitch through the pitch recognition through the relative pitch. By detecting the nodes, accurate scores can be generated.
노래, 채보, 피치 추출, 음절 분할, 음장 인식, 음정 인식, 마디 검출 Song, Grading, Pitch Extraction, Syllable Splitting, Sound Field Recognition, Pitch Recognition, Node Detection
Description
본 발명은 자동 노래 채보(採譜)방법에 관한 것이다.The present invention relates to an automatic song retrieval method.
보다 상세하게는 사람의 노랫소리로부터 악보 데이터를 자동으로 생성하도록 하는 자동 노래 채보방법에 관한 것이다.More specifically, the present invention relates to an automatic song retrieval method for automatically generating sheet music data from human song.
인류에게 있어서 노래는 오래 전부터 존재해 왔던 하나의 문화 현상이며, 개인과 사회 집단의 감정표현의 수단이자 유희의 도구였다. 노래는 음성의 범주에 속하며, 발성 기관을 통해 표현되어 언어적인 모습을 지닌다는 점에서는 일반적인 말과 비슷하지만, 음고(音高), 음량(音量), 음가(音價), 음색(音色) 등의 음악적 속성을 가지고 있으므로 일반적인 말과는 차이점이 있다. 이와 같이 사람의 노래나 악기로 연주된 음악의 음정, 박자, 가사를 인식하거나 기존의 노래 자료와 입력된 노래의 비교를 통해 곡명을 인식하는 연구인 곡조 인식(music recognition)은 음성 인지 분야 중 하나로 노래의 각 특징량을 사용하여 최종적으로 원하는 데이터 의 형태로 나타내 주는 것을 말한다.For mankind, song is a cultural phenomenon that has existed for a long time, a means of expressing emotions of individuals and social groups and an instrument of amusement. Songs belong to the category of voice and are similar to ordinary words in that they are expressed through vocal organs and have a linguistic appearance, but songs, pitch, volume, tone, tone, etc. It has a musical attribute, so it is different from general words. Music recognition is one of the fields of speech recognition, which is the study of recognizing the pitch, time, and lyrics of music played by human songs or instruments, or by recognizing the name of a song by comparing existing song data with input songs. Each feature of the song is used to finally express it in the form of the desired data.
이러한 곡조 인식은 노래를 통한 시창 교육 분야 및 여가 활동을 위한 엔터테인먼트 분야에 사용 될 수 있을 뿐만 아니라 최근에 중요시되고 있는 노래의 저작권을 보호하기 위한 표절 검사의 도구로 사용 될 수도 있다. 하지만 다양한 정보 수단에 대한 컴퓨터의 성능이 발전하고 있음에도 불구하고 곡조 인식에 관한 연구는 현재까지 미미한 실정이다.This music recognition can be used not only in the field of sight education through the song and in the entertainment field for leisure activities, but also as a tool for plagiarism check to protect the copyright of the song which is recently important. However, despite the development of computer performance for various information means, studies on tune recognition have been minimal.
음성 처리에 있어서 곡조 인식의 한 분야인 자동 채보 시스템은 사람의 음성 및 악기로 연주된 노래로부터 음의 높이(음정(音程), interval), 길이(음장(音長), duration), 가사를 인식하여 그 결과를 악보의 형태로 나타내어 주는 것으로서, 기존의 음악에 익숙한 전문가가 직접 노래를 듣고 채보하는 방법에 비하여 시창자(始唱者)의 노래가 가진 음악적 특징을 시스템이 자동으로 인식하여 악보화할 수 있으므로 일반인도 쉽게 사용할 수 있다.An automatic grading system, which is a field of tune recognition in speech processing, recognizes the height (pitch, interval), length (sound field, duration), and lyrics of a song played by human voices and musical instruments. As a result of expressing the result in the form of sheet music, the system automatically recognizes the musical characteristics of the song of the viewer and compares the score with the expert who is familiar with the existing music. It can be used easily even by the general public.
현재 알려진 종래의 자동 채보 시스템으로는 연속적인 음성신호에서 추출된 특징 정보를 각각의 음표로 인식할 수 있게 하는 분할을 위하여 음소 단위로 분절된 구간을 합쳐 음절의 경계 정보로 사용하는 방법, 피치 간격마다 발생하는 음성의 최대값을 연결하여 구한 에너지 정보를 이용하여 음절 구간(segment)을 형성하는 방법 등이 있다.[0003] The presently known automatic grading system combines segmented sections by phoneme to be used as boundary information of syllables to divide feature information extracted from continuous speech signals into individual notes. There is a method of forming a syllable segment using energy information obtained by connecting the maximum value of the voice generated every time.
그러나, 상술한 바와 같은 종래의 자동 채보 시스템은, 음성신호의 연속적인 특성 때문에 음절 분할시 경계가 모호한 부분에서는 그 효율성이 현저히 떨어지고, 예측된 음절 경계의 한 구간마다 음정 인식을 위하여 피치 정보의 대표값을 찾아 주어야 하는 과정을 추가하여야 하며, 마디 검출이 불가능하여 노래의 인식 결과를 완전한 악보의 형태로 나타내어 줄 수 없으므로 만족할 만한 결과를 제공해 줄 수 없는 문제점을 가지고 있다.However, in the above-described conventional automatic grading system, due to the continuous characteristics of the speech signal, the efficiency is remarkably decreased in the part where the boundary is ambiguous when the syllable is divided, and the pitch information is represented to recognize the pitch at each section of the predicted syllable boundary. The process of finding the value should be added, and since it is impossible to detect the node, it can not represent the result of the song in the form of a complete score, and thus has a problem in that it cannot provide satisfactory results.
또한, 통상적으로 사람의 노래 빠르기는 각각 다른 속도와 시간을 지니고 있으므로 개인차가 매우 크지만, 음장 인식에 있어서 종래의 방법은 일반화된 표준 데이터에 의거하여 표준 음표에 매핑(mapping)하는 방법을 사용하기 때문에 사람마다 다른 노래 입력의 빠르기에 적응하지 못하는 단점이 있다.In addition, although the speed of a person's song usually has different speed and time, the individual difference is very large. However, the conventional method of sound field recognition uses a method of mapping to standard notes based on generalized standard data. Because of this, there is a disadvantage in that each person cannot adapt to the speed of different song input.
본 발명의 목적은 전술한 문제점을 해결할 수 있도록, 사람의 노랫소리 등의 음성신호로부터 음장과 음정을 자동으로 인식하고, 마디를 자동으로 검출하여 최종적으로 악보 데이터를 생성하도록 하는 자동 노래 채보방법을 제공하는 데 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide an automatic song retrieval method for automatically recognizing a sound field and a pitch from a voice signal such as a person's song, and automatically detecting a measure to finally generate sheet music data so as to solve the above problems. To provide.
본 발명의 다른 목적은, 사람의 노랫소리를 음성신호로 변환한 후 효율적인 피치 추출과 음절 분할을 토대로 사람마다 다른 노래의 빠르기에 무관한 음장 인식 및 상대 음정에 의거한 음정 인식을 수행하며, 음성신호의 휴지기 정보를 이용하여 마디를 검출함으로써, 정확한 악보 데이터를 생성하도록 하는 자동 노래 채보방법을 제공하는 데 있다.Another object of the present invention is to convert the song of a person into a voice signal, and then to perform pitch recognition based on efficient pitch extraction and syllable division, and to recognize the sound field based on the relative pitch and the relative pitch. The present invention provides an automatic song collecting method for generating accurate sheet music data by detecting nodes using pause information of a signal.
이러한 목적을 달성하기 위한 본 발명에 따른 자동 노래 채보방법은, (1) 마이크와 같은 음성신호 입력부를 통해 입력되는 음성신호로부터 음성의 높낮이를 나타내는 피치를 추출하는 단계와, (2) (1) 단계에서 추출된 피치 데이터를 기반으로 연속된 음성신호를 음절 단위로 분할함과 동시에 음성신호의 잡음을 제거하며, 음절의 대표 피치값을 제공하는 단계와, (3) (2) 단계에서 분할된 음절을 음장 인식이 가능한 유효 단위 구간으로 변환하는 전처리를 수행하고, 전처리된 음장 데이터를 각각의 음표 단위로 클러스터링하여 음장 인식을 수행하는 단계와, (4) (2) 단계에서 분할된 첫 음절의 대표 피치값을 기준으로 상대 음정 주파수 표를 재구성하고, 재구성된 상대 음정 주파수 표를 토대로 음절의 대표 피치값을 매핑하여 음정 인식을 수행하는 단계와, (5) (1) 단계에서 추출된 피치 데이터에 임계값을 적용하여 임계값 이하의 비음성 구간인 휴지기를 추출하고, 추출된 휴지기 정보를 이용하여 마디를 검출하는 단계, 그리고 (6) (3), (4), (5) 단계를 통해 수행된 음장 인식 정보, 음정 인식 정보, 마디 검출 정보를 토대로 악보 데이터를 생성하는 단계를 포함한다.The automatic song taking method according to the present invention for achieving this object comprises the steps of: (1) extracting the pitch indicating the height of the voice from the voice signal input through the voice signal input unit, such as a microphone, (2) (1) Based on the pitch data extracted in the step, the continuous speech signal is divided into syllable units, the noise of the speech signal is removed, a representative pitch value of the syllables is provided, and (3) (2) are divided. Performing preprocessing to convert the syllables into effective unit sections capable of sound field recognition, clustering the preprocessed sound field data into units of each note, and performing sound field recognition; and (4) step (2) of the first syllable divided Reconstructing a relative pitch frequency table based on the representative pitch value, and performing pitch recognition by mapping a representative pitch value of a syllable based on the reconstructed relative pitch frequency table; (5) applying a threshold value to the pitch data extracted in step (1) to extract a rest period, which is a non-speech interval below the threshold value, detecting a node using the extracted rest period information, and (6) (3 And generating sheet music data based on the sound field recognition information, the pitch recognition information, and the node detection information performed through the steps (4) and (5).
삭제delete
이상에서와 같이 본 발명의 자동 노래 채보방법에 따르면, 안정화된 역확산 방정식을 토대로 음절 분할을 수행하여 잡음 제거 및 효과적인 영역 분할을 수행함과 동시에 분할된 음절의 대표 피치값을 얻을 수 있고, 유전자 알고리즘을 토대로 음길이 인식을 수행하여 비슷한 발성 시간을 가진 각 음표를 클러스터링 함으로써 시창자의 발성 속도에 구애받지 않는 음길이 인식이 가능하고, 음정 인식시 종래와 같이 표준화된 데이터를 기반으로 인식하는 것과 달리 음절 분할시 얻어진 음정의 기본 정보를 상대 음정을 통해 매핑하여 시창자의 음고에 적합한 음정 인식이 가능하며, 음정과 박자 정보를 토대로 악보를 구성한 종래의 채보 방식과 달리 음성신호의 휴지기 정보를 이용하여 마디 검출을 수행하므로 노래를 채보할 때 마디 정보를 통한 정확한 악보 생성이 가능한 효과가 있다.As described above, according to the automatic song picking method of the present invention, the syllable segmentation is performed based on the stabilized despreading equation to remove the noise and the effective region segmentation, and at the same time obtain the representative pitch value of the segmented syllable, and the genetic algorithm By recognizing the note length, clustering each note with a similar utterance time enables note length recognition regardless of the voice speed of the speaker, and when recognizing the note based on the standardized data, It is possible to recognize the pitch suitable for the pitcher's pitch by mapping the basic information of the pitch obtained at the time of division through relative pitch, and detecting node using pause information of voice signal unlike the conventional grading method which composed the score based on the pitch and beat information. So that when you're compiling a song It is possible to create sheet music.
또한, 휴대전화 등의 개인통신 단말기에 적용하여 음성을 통한 자동 작곡 시스템과 같은 응용이 가능하며, 더 나아가 사용자의 음성 특징량을 분석한 감성 검색 시스템으로의 적용이 가능한 효과가 있다.In addition, the present invention can be applied to a personal communication terminal such as a mobile phone, such as an automatic composition system through voice, and furthermore, it can be applied to an emotional search system that analyzes a user's voice feature amount.
이하, 첨부된 도면을 참조하여 본 발명의 자동 노래 채보방법을 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail the automatic song taking method of the present invention.
도 1은 본 발명에 따른 자동 노래 채보방법이 적용된 구성을 개략적으로 나타낸 블록도이다.1 is a block diagram schematically showing a configuration to which the automatic song picking method according to the present invention is applied.
도시된 바와 같이, 사람의 노랫소리로부터 악보 데이터를 자동으로 생성하는 자동 노래 채보방법이 적용된 장치는, 음성신호 입력부(10), 피치 추출부(20), 음절 분할부(30), 전처리부(40), 음장 인식부(50), 음정 인식부(60), 휴지기 추출부(70), 마디 검출부(80), 악보 생성부(90) 등으로 구성된다.As shown in the drawing, the apparatus to which the automatic song collection method for automatically generating the music data from the song of a person is applied includes a voice
음성신호 입력부(10)는 마이크 등으로 구성되며, 외부로부터 입력되는 아날로그 음성신호를 디지털 음성신호로 변환한 후, 디지털로 변환한 음성신호를 피치 추출부(20)로 출력한다.The voice
피치 추출부(20)는 음성신호 입력부(10)를 통해 입력되는 음성신호의 특징 값을 추출하기 위한 부분으로서, 음성신호의 높낮이를 나타내는 피치를 추출하고, 추출된 피치 데이터를 음절 분할부(30)와 휴지기 추출부(70)로 출력한다.The
피치를 추출하기 위해서 일반적인 주기적인 신호에서 주기성을 검출하기 위하여 사용되는 자기상관함수(Autocorrelation function)를 사용하며, 자기상관함수는 어떤 시간에서의 신호값과 다른 시간에서의 신호값과의 상관성을 나타내는 것으로 연산결과로 나오는 신호는 신호의 주기적인 부분을 강조해 주어 피치를 측정할 수 있게 해 준다.To extract the pitch, we use autocorrelation function, which is used to detect periodicity in general periodic signals. The autocorrelation function represents the correlation between the signal value at one time and the signal value at another time. The signal resulting from the calculation highlights the periodic part of the signal, allowing the pitch to be measured.
자기상관함수는 다음의 수학식 1로 정의된다.The autocorrelation function is defined by
따라서 자기상관계수는 어느 한 시점 n에서 표본 x(n)의 값과 그로부터 d만큼 떨어져 있는 표본의 값을 서로 곱한 것을 모든 n에 대하여 합한 것이라고 볼 수 있다.Therefore, the autocorrelation coefficient can be regarded as the sum of all n values of the sample x (n) multiplied by the value of the sample at a certain point n from each other.
도 2는 입력된 음성신호에 수학식 1의 자기상관함수를 적용하여 피치를 추출한 예를 나타낸 도면으로서, 검출된 피치는 본 발명의 자동 노래 채보방법의 기본 정보가 되며, 이를 통해 음절 분할, 음장 인식, 음정 인식, 마디 검출 등의 일련의 단계가 수행된다.FIG. 2 is a diagram illustrating an example of extracting a pitch by applying an autocorrelation function of
음절(syllable) 분할부(30)는 피치 추출부(20)에서 추출된 피치 데이터를 기반으로 연속된 음성신호의 잡음을 제거함과 동시에 음절( 음절은 각각 하나의 음표를 나타내므로 음표의 음장, 음정을 인식하는 기본 단위임 ) 단위로 분할하고, 음절의 대표 피치값을 확인하도록 하며, 분할된 음절 데이터를 전처리부(40), 음정 인식부(60)로 출력한다.The
이때 음절 분할부(30)는 피치 추출부(20)를 통해 추출된 피치 데이터를 음정 및 음표의 음장 인식이 가능한 단위로 분리하기 위하여 안정화된 역확산 방정식(Stabilized Inverse Diffusion Equation)을 사용한다.In this case, the
안정화된 역확산 방정식은 일반적으로 영상처리 분야에서 객체 분할에 사용되는 알고리즘으로서, 잡음에 매우 강인하며 안정된 분할 결과를 나타내므로 본 발명에서 음성신호의 잡음 제거 및 연속된 신호를 음절 단위로 분할하기 위해 사용한다.The stabilized despreading equation is an algorithm generally used for object segmentation in the field of image processing, and is very robust against noise and exhibits stable segmentation results. Therefore, in the present invention, in order to remove noise of a speech signal and divide a continuous signal into syllable units use.
음절을 분할하기 위하여 안정화된 역확산 방정식에서 사용하는 F함수는 다음의 수학식 2로 정의할 수 있다.The F function used in the stabilized despreading equation to divide the syllables can be defined by
본 발명에서는 수학식 2를 만족하는 다음의 수학식 3을 F함수로 사용한다.In the present invention, the following equation (3) satisfying equation (2) is used as the F function.
안정화된 역확산 방정식을 기반으로 한 다중 스케일 필터링 방법은 영역 분할을 목적으로 하며 다음의 수학식 4와 같이 영역 값의 변화를 구하는 수학식이 사용된다.The multi-scale filtering method based on the stabilized despreading equation is for the purpose of region division and an equation for obtaining a change in region value is used as shown in Equation 4 below.
안정화된 역확산 방정식에 기반을 둔 음절 분할은 다음과 같은 과정들을 순차적으로 수행한다. 초기 조건인 알고리즘의 반복 횟수(I)는 임의로 설정할 수 있다. 다만, 반복 횟수(I)는 여러 번에 걸친 실험을 통하여 최적화된 값으로 설정하는 것이 바람직하며, 실험은 순차적으로 반복 횟수(I)의 값을 증가시키면서 각 반복 횟수(I)에 따른 음절 분할의 결과를 사람이 직접 듣고 가장 자연스러운 것을 선택하는 관능시험 방법을 적용할 수 있다.The syllable segmentation based on the stabilized despreading equation performs the following processes sequentially. The number of iterations I of the algorithm, which is an initial condition, can be arbitrarily set. However, the number of repetitions (I) is preferably set to an optimized value through several experiments, and the experiment sequentially increases the value of the number of repetitions (I) while the syllable division according to each repetition number (I). Sensory test methods can be applied in which the person hears the results and selects the most natural one.
1단계 - 피치 추출부(20)에서 추출된 각각의 피치 데이터들을 독립된 영역으로 설정한다. 이때, 각 영역의 면적(mi), 영역의 값(ui), 분할된 영역의 수(N)를 계산한다.
2단계 - 인접한 영역 두 개 이상의 값이 같아질 때까지 각 영역의 필터링이 진행될 때 스케일에 따른 변화율 값을 수학식 4를 통해 갱신한다.Step 2-The change rate value according to the scale is updated through Equation 4 when filtering of each area is performed until two or more values of adjacent areas are equal.
3단계 - 동일한 값을 가진 인접 영역들을 병합한다. 이때, 각 영역의 면적(mi), 영역의 값(ui), 분할된 영역의 수(N)를 갱신한다.Step 3-Merges adjacent areas with the same value. At this time, the area m i of each region, the value u i of the region, and the number N of divided regions are updated.
4단계 - 2단계 이후를 수행한다. 이때 반복 횟수(I)가 초기 설정값을 만족하면 알고리즘을 종료한다.Perform steps 4-2 and beyond. At this time, if the repetition number I satisfies the initial setting value, the algorithm is terminated.
분할된 결과를 통해 안정화된 역확산 방정식에 기반을 둔 영역 분할을 수행할 때 F함수에서 사용되는 σ에 따라 그 수행 결과에 차이가 있는 것을 확인할 수 있다. 수학식 3과 수학식 4에서 알 수 있듯이 σ값이 클 경우 반복횟수 감소, 잡음제거, 에지 손실 등의 특징이 있는 반면, σ값이 작으면 반복횟수 증가, 잡음보존, 에지 보존 등의 특징을 지닌다. 따라서 효율적인 음절 분할을 위하여 초기에 σ값을 크게 해서 잡음을 제거함과 동시에 수렴속도를 개선하고 분할이 진행될수록 σ값을 작게 해서 그 성능을 높일 수 있는 방법을 적용한다.The segmented results show that when the segmentation is based on the stabilized despreading equation, the results differ depending on the σ used in the F function. As can be seen from Equations 3 and 4, if the value of σ is large, it is characterized by decreasing the number of repetitions, noise reduction, and edge loss.However, if the value of σ is small, it is characterized by increasing the number of repetitions, noise preservation, and edge preservation. Have Therefore, for efficient syllable segmentation, we apply the method to increase the σ value at the beginning to remove noise, improve convergence speed, and increase the performance by decreasing σ value as the segmentation progresses.
도 3은 도 2의 피치 데이터를 토대로 본 발명의 안정화된 역확산 방정식을 사용하여 음절 분할을 수행한 결과의 예를 나타낸 도면으로서, 음성신호에서 모호한 음절 경계를 효과적으로 분할하고 병합하였으며, 음정의 잡음을 제거함과 동시 에 음정 인식에 필요한 음정의 대표값을 찾아낼 수 있다. 또한, 반복 횟수를 줄여 그 소요 시간을 줄이므로 그 성능을 높일 수 있으며, 분할 후에 일정 임계치에 근접하지 못한 영역은 음표로서 유효하지 못하다고 보고 그 앞 음절에 포함하여 처리함을 알 수 있다.FIG. 3 is a diagram illustrating an example of a result of performing syllable division using the stabilized despreading equation of the present invention based on the pitch data of FIG. 2, which effectively divides and merges an ambiguous syllable boundary in a speech signal, and produces noise. At the same time, we can find the representative value of the pitch needed to recognize the pitch. In addition, the performance can be improved by reducing the number of repetitions so that the time required can be improved, and it can be seen that an area which is not close to a predetermined threshold after division is considered invalid as a note and is included in the preceding syllable.
전처리부(40)는 음표의 음장( 음정과 함께 나타내어 한 마디 안에서 일정한 규칙에 따라 표현되며 곡조 인식에 있어서 핵심적인 정보임 )을 인식하기 위하여 음절 분할부(30)에서 분할된 음절을 인식을 위한 기본 단위로 변환하여 음장 인식부(50)로 출력한다.The
도 4는 본 발명의 전처리 과정의 지속시간, 휴지기 및 IOI의 개념을 설명하기 위한 도면으로서, 음성신호는 음성이 발성되는 지속시간(duration)과 사람이 숨쉬거나 또는 발음상의 이유로 인해 발생되는 휴지기(pause)로 이루어져 있다. 사람이 노래를 할 경우에도 음성의 단절이 발생되며, 이때 발성 지속시간과 휴지기를 합한 것을 IOI(Inter Onset Interval)로 정의할 수 있다. 여기서 발성 지속시간의 시작시간과 휴지기의 종료시간은 각 음표의 시작시간과 다음 음표의 시작시간의 차를 의미한다. 본 발명의 음장 인식에서는 기존의 지속시간 데이터보다 IOI로 변형된 데이터를 사용한 경우가 좋은 성능을 얻을 수 있으므로 음절 데이터를 IOI로 변환하는 전처리 과정을 거쳐 사용한다. 도 5는 도 3의 음절 분할 데이터를 토대로 IOI로 변형된 음절 길이 정보의 예를 나타낸 도면이다.4 is a view for explaining the concept of the duration, pause and IOI of the pre-processing process of the present invention, the voice signal is a pause (duration) when the voice is spoken and a pause caused by the person breathing or pronunciation reasons ( pause). Even when a person sings, a voice break occurs, and the sum of the talk duration and the pause can be defined as an inter onset interval (IOI). Here, the start time of the utterance duration and the end time of the pause period means the difference between the start time of each note and the start time of the next note. In the sound field recognition of the present invention, since the performance obtained by using the IOI-modified data is better than the existing duration data, it is used through the preprocessing process of converting the syllable data into the IOI. FIG. 5 is a diagram illustrating an example of syllable length information transformed into an IOI based on syllable segmentation data of FIG. 3.
음장 인식부(50)는 유전자 알고리즘(Genetic Algorithm)을 사용하여, 전처리부(40)로부터 입력되는 전처리된 음장 데이터를 각각의 음표 단위로 클러스터링하 여 음장 인식을 수행하고, 음장 인식 정보를 악보 생성부(90)로 출력한다.The sound
유전자 알고리즘은 탐색과 해의 가능 영역들을 균형있게 이용하는 일반성 있는 부류의 탐색방법으로서, 기존의 다른 탐색방법들은 탐색 공간에서 최적값을 찾기 전에 지역 극소(local minimum)에 빠질 위험이 있지만, 유전자 알고리즘은 해가 될 가능성이 있는 개체 집단을 유지하면서 그들 모두가 동시에 최적값을 찾아나가기 때문에 지역 극소에 빠질 위험을 해결할 수 있다는 점에서 본 발명에 적용하게 되었다.Genetic algorithms are a general class of search methods that balance the possible areas of search and solution. While other existing search methods are at risk of falling into local minimum before finding the optimal value in the search space, genetic algorithms The present invention has been applied in that the risk of falling into local minima can be solved by maintaining a population that is likely to be harmful and all of them simultaneously find optimal values.
음장 인식부(50)에서 수행되는 유전자 알고리즘을 이용한 클러스터링의 절차는 다음과 같다.The clustering procedure using the genetic algorithm performed in the sound
1단계 - 추출된 음절 데이터를 기반으로 염색체를 구성하고 모집단을 초기화한다.Step 1-Construct chromosomes and initialize the population based on the extracted syllable data.
2단계 - 초기 클러스터의 센터값을 바탕으로 각 객체 와 클러스터 센터간의 거리(dmin)를 최소화하는 클러스터링을 수행한다. 거리를 최소화하는 수학식은 다음의 수학식 5와 같다.Step 2-Each object based on the center of the initial cluster Clustering is performed to minimize the distance d min between the cluster and the cluster center. Equation 5 for minimizing the distance is shown in Equation 5 below.
3단계 - 2단계 결과의 적합도를 평가하기 위하여 클러스터 간의 거리인 Dinter 와 클러스터 내부 거리인 Dintra를 다음의 수학식 6, 7을 사용하여 정의한다.In order to evaluate the goodness of fit of the results of Step 3 and
이때, 이고, 이다.At this time, ego, to be.
는 현재 클러스터와 그 센터, 는 나머지 클러스터와 각각의 센터를 말하며, 적합도 함수는 다음의 수학식 8로 정의한다. Is the current cluster and its center, Denotes the remaining clusters and their respective centers, and the fitness function is defined by Equation 8 below.
4단계 - 3단계에서 계산된 적합도 함수의 결과는 다음과 같은 일련의 단계들을 수행한다. 룰렛 휠(Roulette wheel) 방법을 통하여 선택하고, 이 결과를 통하여 구성된 염색체를 다시 일점 교차(one point crossover)하며, 최종적으로, 주어진 돌연변이 계수를 이용하여 새로운 세대를 창출해낸다. 그리고 다시 2단계 이후의 알고리즘을 수행한다.The result of the goodness-of-fit function computed in steps 4-3 performs a series of steps: The roulette wheel method is used to select one point crossover the resulting chromosomes, and finally, a new generation is created using a given mutation coefficient. Then, the algorithm after
음정 인식부(60)는 음절 분할부(30)에서 분할된 첫 음절의 대표 피치값을 기준으로 상대 음정 주파수 표를 재구성하고, 재구성된 상대 음정 주파수 표를 토대 로 음절의 대표 피치값을 매핑하여 음정 인식을 수행하며, 음정 인식 정보를 악보 생성부(90)로 출력한다.The
기존의 음정 인식 방법에서는 절대 음정을 바탕으로 표준 주파수 테이블을 이용하여 사람의 목소리를 인식하였지만, 이러한 방법은 사람의 음고 변화에 적응하지 못하는 모습을 보여준다. 따라서 본 발명의 음정 인식에서는 상대 음정(relative interval)의 개념을 사용한다. 상대 음정은 앞 음과의 상대적인 변화를 측정하여 변화 정도로 음정을 결정하는 방법으로서, 상대 음정을 통하여 앞 음보다 얼마나 변화하였는지를 측정하고, 그 변화정도를 12 음계에 적용할 수 있도록 근사한다.Conventional pitch recognition method recognizes human voice using standard frequency table based on absolute pitch, but this method does not adapt to change of human pitch. Therefore, the pitch recognition of the present invention uses the concept of a relative interval (relative interval). Relative pitch is a method of determining the pitch by measuring the relative change with the previous note. It measures how much the previous note has changed through the relative pitch, and approximates the change to be applied to the 12th scale.
상대 음정 인식을 위하여 첫 음절의 대표 피치값을 기준음으로 보고, 평균율 음계의 비율을 이용하여 각 노래에 해당하는 상대 음정 주파수 표를 재구성하게 된다. 평균율 음계는 도 6에 도시된 바와 같이 음정의 결정시 사용하는 12 음계를 바탕으로 한다.In order to recognize the relative pitch, the representative pitch value of the first syllable is regarded as the reference sound, and the relative pitch frequency table for each song is reconstructed using the ratio of the average rate scale. The average rate scale is based on the 12 scales used in the determination of the pitch, as shown in FIG.
12 음계 시스템은 인간의 청각적 한계와 밀접한 관련이 있으며, 12 음계 내에서 주파수들 간의 관계는 배수 관계로 선형 비례가 아니다. 1도 차이 음의 주파수비는 다음의 수학식 9에 의해 표현된다.The 12 scale system is closely related to the human auditory limits, and the relationship between frequencies within the 12 scale is a linear multiple of the relationship. The frequency ratio of the 1 degree difference sound is expressed by the following equation (9).
그러므로 옥타브가 12개의 반음으로 되어 있고, 모든 반음이 정확하게 같은 크기로 되어 있다면 C∼C#의 음정은 C#∼D의 음정과 같다. 이때의 음정값을 a라 하고, C의 주파수를 1이라 하면 C#은 상대 주파수 a가 되고, D는 a를 또 곱한 a2이 된다.Therefore, if the octaves are 12 semitones and all semitones are exactly the same size, the pitches of C to C # are the same as the pitches of C # to D. If the pitch value is a and the frequency of C is 1, C # is the relative frequency a, and D is a 2 multiplied by a.
이러한 주파수 비를 바탕으로 한 평균율 음계는 도 7에서 도시된 바와 같이 상술한 수학식 9에 의해 각 음정에 따른 총 12개로 나뉘어 표현될 수 있다.As shown in FIG. 7, the average rate scale based on the frequency ratio may be divided into a total of 12 according to each pitch by Equation 9 described above.
도 7의 평균율 음계를 이용하여 음정 인식부(60)에서 수행되는 음정 인식의 절차는 다음과 같다.The procedure of pitch recognition performed by the
우선 음절 분할부(30)에서 분할된 첫 음절을 기준음으로 보고 첫 음절의 대표 피치값을 통해 음정을 확인한 후, 확인된 음정을 도 7에 도시된 평균율 음계와 나누어 상대 음정 주파수 표의 C음을 확인한다. 그리고 확인된 C음의 주파수와 평균율 음계를 곱하여 상대 음정 주파수 표의 12 음계를 확인한 후, 이를 토대로 도 8에서 도시된 바와 같이 상대 음정 주파수 표를 재구성한다. 도 8은 첫 음이 표준 음고에서의 '솔'이며 해당 주파수가 200Hz일 때의 상대 음정 주파수 표의 예를 나타낸 도면이다. 이와 같이 재구성된 상대 음정 주파수 표를 기준으로 음절 분할부(30)에서 분할된 각 음절의 대표 피치값을 매핑하면, 음절의 음정을 인식할 수 있다. 이처럼 상대음정을 이용할 경우 각 개인마다 음역이 다름으로 인하여 발생되는 개인차를 고려하지 않아도 된다는 장점이 있다.First, the first syllable divided by the
휴지기 추출부(70)는 피치 추출부(20)에서 추출된 피치 데이터에 적정 임계 값을 적용하여 임계값 이하의 비음성 구간인 휴지기를 추출하고, 추출된 휴지기 정보를 정렬하여 마디 검출부(80)로 출력한다.The
마디 검출부(80)는 휴지기 추출부(70)에서 추출된 휴지기 정보를 통해 입력된 음성신호의 마디를 검출하고, 마디 검출 정보를 악보 생성부(90)로 출력한다.The
악곡에서 마디(measure)는 오선 위에 세로로 그은 세로줄(bar) 사이의 유효한 박자의 길이를 나타낸다. 음악의 시간적인 흐름을 구분하는 박자는 기본이 되는 음표의 종류와 1마디 안에 들어가는 음표의 수에 따라서 결정되므로, 마디를 검출하는 것은 보다 정확한 악보를 구성하는 데 중요하다.In music, the measure indicates the effective length of the beat between the vertical bars drawn vertically above the stave. Since the time signature that distinguishes the temporal flow of music is determined by the type of the underlying note and the number of notes in one measure, detecting a measure is important for constructing a more accurate score.
마디 검출부(80)에서 수행되는 마디 검출의 절차는 다음과 같다.The procedure of node detection performed in the
우선, 휴지기 추출부(70)에서 피치 추출부(30)로부터 입력된 피치 데이터에 임계값을 적용하여 음성/비음성 구간을 판단하며, 비음성 구간을 음성의 휴지기라 하며 악보 상에서 마디의 후보 위치라 가정한다. 사람이 악보로 구성된 노래를 부를 때에는 대체로 곡의 중간 부분에 가장 긴 휴지기가 존재하게 되는데 이것을 기준마디라고 하며, 휴지기 추출부(70)로부터 입력되는 휴지기 정보 중 가장 긴 휴지기를 기준마디로 정의(N=1)한다. 그리고 한 노래에서 각 마디에는 해당 박자에 해당하는 음표들이 존재하게 되며, 이는 한 마디와 다른 마디의 발성 시간이 비슷한 대역에 분포한다는 것을 의미하므로 기준마디에 일정 배수(0.25, 0.5, 0.75…)를 곱하는 연산을 수행하여 도 9에 도시된 바와 같이 기준마디를 이용하여 예측 마디를 생성한다. 예측된 마디는 음성신호의 총 시간보다 짧을 경우에만 유효하므로 예측마디와 총 시간의 비교를 통해 마디 검출의 진행과 종료를 결정한다. 비교 결 과 마디 검출의 진행시에는 예측 마디와 근접한 후보 휴지기를 검출하게 되는데, 후보 휴지기가 검출된다는 것은 N번째 마디의 검출이 완료되었다는 것을 나타내며, 이후 N=N+1 연산을 수행하여 다음 마디의 검출을 수행한다. 그리고 이와 같이 수행한 마디 검출 정보를 악보 생성부(90)로 출력한다.First, the
악보 생성부(90)는 음장 인식부(50), 음정 인식부(60), 마디 검출부(80)로부터 입력되는 음장 인식 정보, 음정 인식 정보, 마디 검출 정보를 토대로 악보 데이터를 생성한다.The
다음에는, 이와 같이 구성된 본 발명에 따른 자동 노래 채보방법의 일 실시예를 도 10 내지 도 14를 참조하여 상세하게 설명한다.Next, an embodiment of the automatic song picking method according to the present invention configured as described above will be described in detail with reference to FIGS. 10 to 14.
도 10 내지 도 14는 본 발명에 따른 자동 노래 채보방법의 일 실시예의 동작과정을 나타낸 순서도이다.10 to 14 are flowcharts showing the operation of one embodiment of the automatic song picking method according to the present invention.
우선, 음성신호 입력부(10)는 외부로부터 입력되는 아날로그 음성신호(사람의 노랫소리)를 디지털 음성신호로 변환하여 피치 추출부(20)로 출력하고(S100), 피치 추출부(20)는 음성신호 입력부(10)로부터 입력된 음성신호를 상술한 수학식 1의 자기상관함수를 사용하여 음성신호의 높낮이를 나타내는 피치를 추출한 후, 피치 데이터를 음절 분할부(30)와 휴지기 추출부(70)로 출력한다(S200).First, the voice
피치 추출부(20)로부터 피치 데이터를 입력받은 음절 분할부(30)는 안정화된 역확산 방정식을 기반으로 음절 단위로 분할하며, 분할된 음절 데이터를 전처리부(40), 음정 인식부(60)로 출력한다(S300). 이때 음절 분할부(30)에서 분할되는 음절 데이터는 잡음이 제거됨과 동시에 음절의 대표 피치값을 확인할 수 있는 상태가 된다.The
S300 단계의 음절 분할을 도 11을 참조하여 보다 상세하게 설명하면, 음절 분할부(30)는 S100 단계에서 추출된 각각의 피치 데이터들을 독립된 영역으로 설정( 이때, 각 영역의 면적, 영역의 값, 분할된 영역의 수를 계산함 )하고(S310), 인접한 영역 두 개 이상의 값이 같아질 때까지 각 영역의 값을 상술한 수학식 4를 통해 갱신한다(S320).If the syllable division of step S300 will be described in more detail with reference to FIG. 11, the
그리고 동일한 값을 가진 인접 영역들을 병합( 이때, 각 영역의 면적, 영역의 값, 분할된 영역의 수를 갱신함 )하고(S330), 반복 횟수가 초기 설정값을 만족하는지를 판단한다(S340).Adjacent areas having the same value are merged (in this case, the area of each area, the value of the area, and the number of divided areas are updated) (S330), and it is determined whether the number of repetitions satisfies the initial setting value (S340).
판단결과 반복 횟수가 초기 설정값을 만족하면, 음절 분할부(30)는 음절 분할을 종료한 후 분할된 음절 데이터를 전처리부(40)와 음정 인식부(60)로 각각 출력하고(S350), 아니면 S320 단계 이후를 반복하여 수행한다.As a result of the determination, if the number of repetitions satisfies the initial set value, the
S300 단계의 음절 분할 이후, 전처리부(40)는 음절 분할부(30)에서 분할된 음절을 음장 인식이 가능한 유효 단위 구간으로 변환하는 전처리를 수행하여 음장 인식부(50)로 출력한다(S400).After the syllable division in step S300, the
음장 인식부(50)는 전처리부(40)에서 전처리된 음장 데이터를 유전자 알고리즘을 기반으로 각각의 음표 단위로 클러스터링하여 음장 인식을 수행하고, 음장 인식 정보를 악보 생성부(90)로 출력한다(S500).The sound
S500 단계의 음장 인식을 도 12를 참조하여 보다 상세하게 설명하면, 분할된 음절을 음장 인식이 가능한 유효 단위 구간으로 변환하는 전처리를 수행한 음장 데이터를 기반으로 염색체를 구성하고 모집단을 초기화하고(S510), 음장 데이터의 초기 클러스터의 센터값을 바탕으로 수학식 5와 같이 각 객체와 클러스터 센터간의 거리를 최소화하는 클러스터링을 수행한다(S520).Referring to FIG. 12 in more detail with reference to FIG. 12, a chromosome is constructed and a population is initialized based on pre-processed sound field data for converting a divided syllable into an effective unit section capable of sound field recognition (S510). On the basis of the center value of the initial cluster of sound field data, clustering is performed to minimize the distance between each object and the cluster center as shown in Equation 5 (S520).
그리고 수학식 6, 7을 사용하여 클러스터간의 거리와 클러스터 내부 거리를 정의하고(S530), 수학식 8의 적합도 함수를 사용하여 S520 단계에서 클러스터링된 결과의 평가를 수행한다(S540).The distance between the clusters and the internal distance of the clusters are defined using Equations 6 and 7 (S530), and the evaluation of the clustered result is performed in step S520 using the fitness function of Equation 8 (S540).
클러스터링된 결과의 평가 이후 S540 단계에서 수행된 적합도 함수의 결과를 공지의 룰렛 휠 방법을 통해 선택하고, 이 결과를 토대로 구성된 염색체를 일점 교차하며, 최종적으로 주어진 돌연변이 계수를 이용하여 새로운 세대를 창출해낸다(S550). 그리고 음장 데이터의 클러스터링이 종료될 때까지 S520 단계 이후를 반복하여 수행한다.After the evaluation of the clustered results, the result of the fitness function performed in step S540 is selected by using a known roulette wheel method, and one point crosses the chromosome constructed based on the result, and finally, a new generation is generated using a given mutation coefficient. (S550). And after the step S520 is repeated until the clustering of the sound field data is completed.
S500 단계를 통해 음장 인식을 수행한 이후, 음정 인식부(60)는 S300 단계를 통해 분할된 첫 음절의 대표 피치값을 기준으로 상대 음정 주파수 표를 재구성하고, 재구성된 상대 음정 주파수 표를 토대로 음절의 대표 피치값을 매핑하여 음정 인식을 수행하며, 음정 인식 결과를 악보 생성부(90)로 출력한다(S600).After performing the sound field recognition through the step S500, the
S600 단계의 음장 인식을 도 13을 참조하여 보다 상세하게 설명하면, 음정 인식부(60)는 S300 단계에서 분할된 첫 음절을 기준음으로 보고 첫 음절의 대표 피치값을 통해 음정을 확인하고(S610), 확인된 음정을 평균율 음계와 나누어 상대 음정 주파수 표의 C음을 확인한다(S620).When the sound field recognition in step S600 is described in more detail with reference to FIG. 13, the
이후 S620 단계에서 확인된 C음의 주파수와 평균율 음계를 곱하여 상대 음정 주파수 표의 12 음계를 확인하고(S630), 이를 토대로 상대 음정 주파수 표를 재구성한다(S640).Subsequently, multiply the frequency of the C sound identified in step S620 by the average rate scale to check the 12th scale of the relative pitch frequency table (S630), and reconstruct the relative pitch frequency table based on this (S640).
그리고 음정 인식부(60)는 S640 단계에서 재구성된 상대 음정 주파수 표를 기준으로 S300 단계에서 분할된 음절의 대표 피치값을 매핑하고(S650), 각 음절별 매핑 결과를 토대로 음정 인식을 처리하여 그 결과를 악보 생성부(90)로 제공한다(S660).The
S500 단계와 S600 단계를 통해 음장 인식 및 음정 인식을 수행한 이후, 휴지기 추출부(70)는 S200 단계에서 추출된 피치 데이터에 임계값을 적용하여 임계값 이하의 비음성 구간인 휴지기를 추출하고, 마디 검출부(80)는 휴지기 추출부(70)에서 추출된 휴지기 정보를 이용하여 마디를 검출한 후 마디 검출 정보를 악보 생성부(90)로 출력한다(S700).After performing the sound field recognition and the pitch recognition through the steps S500 and S600, the
S700 단계의 마디 검출을 도 14를 참조하여 보다 상세하게 설명하면, 휴지기 추출부(70)는 S200 단계에서 추출된 피치 데이터에 적정한 임계값을 적용하여 음성 구간과 비음성 구간을 확인하고(S710), 임계값 이하의 비음성 구간인 휴지기를 추출한다(S720).If the node detection of the step S700 will be described in more detail with reference to FIG. 14, the
이후 마디 검출부(80)는 S720 단계에서 추출된 휴지기 정보 중 가장 긴 휴지기를 기준 마디 N=1로 정의하고(S730), 정의된 기준 마디에 일정 배수(0.25, 0.5, 0.75…)를 곱하는 연산을 수행하여 예측 마디를 생성한다(S740).Then, the
그리고 S740 단계에서 생성된 예측 마디와 음성신호의 총 시간을 비교하여 생성된 예측 마디가 음성신호의 총 시간보다 작은지를 판단하고(S750), 판단 결과 생성된 예측 마디가 음성신호의 총 시간보다 크면 마디 검출을 종료한 후 마디 검출 정보를 악보 생성부(90)로 출력한다.In operation S740, it is determined whether the generated prediction node is smaller than the total time of the voice signal by comparing the predicted node generated in step S740 with the total time of the voice signal (S750). After completing the node detection, the node detection information is output to the
그러나 S750 단계의 판단결과 생성된 예측 마디가 음성신호의 총 시간보다 작으면, 마디 검출부(80)는 예측 마디와 근접한 후보 휴지기를 검출하고(S770), 예측 마디와 근접한 후보 휴지기가 검출되면 N번째 마디의 검출을 완료하고, 다음 마디의 검출을 위하여 N=N+1 연산을 수행한 후 S740 단계 이후를 반복하여 수행한다(S780).However, if the predicted node generated as a result of the determination in step S750 is smaller than the total time of the speech signal, the
마지막으로 악보 생성부(90)는 S500, S600, S700 단계를 통해 수행된 음장 인식 정보, 음정 인식 정보, 마디 검출 정보를 토대로 악보 데이터를 생성한다(S800).Finally, the sheet
여기에서, 상술한 본 발명에서는 바람직한 실시예를 참조하여 설명하였지만, 해당 기술분야의 숙련된 당업자는 하기의 특허청구범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경할 수 있음을 이해할 수 있을 것이다.Herein, while the present invention has been described with reference to the preferred embodiments, those skilled in the art will variously modify the present invention without departing from the spirit and scope of the invention as set forth in the claims below. And can be changed.
도 1은 본 발명에 따른 자동 노래 채보방법이 적용된 구성을 개략적으로 나타낸 블록도,1 is a block diagram schematically showing a configuration to which the automatic song picking method according to the present invention is applied;
도 2는 입력된 음성신호에 자기상관함수를 적용하여 피치를 추출한 예를 나타낸 도면,2 is a diagram illustrating an example of extracting a pitch by applying an autocorrelation function to an input voice signal;
도 3은 안정화된 역확산 방정식을 사용하여 음절 분할을 수행한 결과의 예를 나타낸 도면,3 is a diagram showing an example of a result of performing syllable division using a stabilized despreading equation;
도 4는 본 발명의 전처리 과정의 지속시간, 휴지기 및 IOI의 개념을 설명하기 위한 도면,4 is a view for explaining the concept of the duration of the pretreatment process, the rest period and the IOI of the present invention,
도 5는 IOI로 변형된 음절 길이 정보의 예를 나타낸 도면,5 is a diagram illustrating an example of syllable length information transformed into an IOI;
도 6은 음정 결정시 사용하는 12 음계를 나타낸 도면,6 is a diagram showing 12 scales used when determining pitches;
도 7은 평균율 음계를 나타낸 도면,7 is a diagram illustrating an average rate scale;
도 8은 음정 인식에 사용되는 상대 음정 주파수 표의 일 예를 나타낸 도면,8 is a diagram illustrating an example of a relative pitch frequency table used for pitch recognition;
도 9는 기준마디를 이용하여 찾은 예측마디의 예를 나타낸 도면,9 is a view showing an example of prediction nodes found using reference nodes;
도 10은 본 발명에 따른 자동 노래 채보방법의 일 실시예의 동작과정을 나타낸 순서도,10 is a flowchart showing the operation of an embodiment of the automatic song picking method according to the present invention;
도 11 내지 도 14는 도 10의 각 서브루틴의 동작과정을 보다 상세하게 나타낸 순서도이다.11 to 14 are flowcharts illustrating the operation of each subroutine of FIG. 10 in more detail.
* 도면의 주요부분에 대한 부호의 설명 *Explanation of symbols on the main parts of the drawings
10 : 음성신호 입력부 20 : 피치 추출부10: voice signal input unit 20: pitch extraction unit
30 : 음절 분할부 40 : 전처리부30: syllable divider 40: preprocessor
50 : 음장 인식부 60 : 음정 인식부50: sound field recognition unit 60: pitch recognition unit
70 : 휴지기 추출부 80 : 마디 검출부70: pause extraction unit 80: node detection unit
90 : 악보 생성부90: music score generation unit
Claims (12)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090003118A KR100989867B1 (en) | 2009-01-14 | 2009-01-14 | An automatic song transcription method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090003118A KR100989867B1 (en) | 2009-01-14 | 2009-01-14 | An automatic song transcription method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020100078673A Division KR100991464B1 (en) | 2010-08-16 | 2010-08-16 | An automatic song transcription apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20100083637A KR20100083637A (en) | 2010-07-22 |
KR100989867B1 true KR100989867B1 (en) | 2010-10-29 |
Family
ID=42643348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090003118A KR100989867B1 (en) | 2009-01-14 | 2009-01-14 | An automatic song transcription method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100989867B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101325722B1 (en) * | 2012-02-16 | 2013-11-08 | 김태민 | Apparatus for generating musical note fit in user's song and method for the same |
KR101378454B1 (en) | 2012-09-27 | 2014-03-27 | (주)휴먼미디어테크 | Method and apparatus for transcription of music, and computer-readable recording medium |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101322693B1 (en) | 2010-08-27 | 2013-10-25 | 주식회사 엘지화학 | Cable-Type Secondary Battery |
KR101051803B1 (en) * | 2010-12-16 | 2011-07-25 | 전자부품연구원 | Method and system for searching audio source based humming or sing |
-
2009
- 2009-01-14 KR KR1020090003118A patent/KR100989867B1/en not_active IP Right Cessation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101325722B1 (en) * | 2012-02-16 | 2013-11-08 | 김태민 | Apparatus for generating musical note fit in user's song and method for the same |
KR101378454B1 (en) | 2012-09-27 | 2014-03-27 | (주)휴먼미디어테크 | Method and apparatus for transcription of music, and computer-readable recording medium |
Also Published As
Publication number | Publication date |
---|---|
KR20100083637A (en) | 2010-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Muda et al. | Voice recognition algorithms using mel frequency cepstral coefficient (MFCC) and dynamic time warping (DTW) techniques | |
Farrús et al. | Using jitter and shimmer in speaker verification | |
Bezoui et al. | Feature extraction of some Quranic recitation using mel-frequency cepstral coeficients (MFCC) | |
JPH0990974A (en) | Signal processor | |
Fan et al. | Singing voice separation and pitch extraction from monaural polyphonic audio music via DNN and adaptive pitch tracking | |
KR101325722B1 (en) | Apparatus for generating musical note fit in user's song and method for the same | |
Yang et al. | BaNa: A noise resilient fundamental frequency detection algorithm for speech and music | |
Mertens | Polytonia: a system for the automatic transcription of tonal aspects in speech corpora | |
JP2015068897A (en) | Evaluation method and device for utterance and computer program for evaluating utterance | |
Chelali et al. | Text dependant speaker recognition using MFCC, LPC and DWT | |
CN114093386A (en) | Education-oriented multi-dimensional singing evaluation method | |
KR100989867B1 (en) | An automatic song transcription method | |
Kumari et al. | An efficient adaptive artificial neural network based text to speech synthesizer for Hindi language | |
Chittaragi et al. | Dialect identification using chroma-spectral shape features with ensemble technique | |
KR100991464B1 (en) | An automatic song transcription apparatus | |
Pandey et al. | Multilingual speaker recognition using ANFIS | |
CN113782032A (en) | Voiceprint recognition method and related device | |
Cherif et al. | Pitch detection and formant analysis of Arabic speech processing | |
Zolnay et al. | Extraction methods of voicing feature for robust speech recognition. | |
JP5091202B2 (en) | Identification method that can identify any language without using samples | |
Waghmare et al. | Raga identification techniques for classifying indian classical music: A survey | |
Sridhar et al. | Music information retrieval of carnatic songs based on carnatic music singer identification | |
Zainal et al. | MFCCs and TEO-MFCCs for Stress Detection on Women Gender through Deep Learning Analysis | |
Bansod et al. | Speaker Recognition using Marathi (Varhadi) Language | |
CN112397048A (en) | Pronunciation stability evaluation method, device and system for speech synthesis and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
A107 | Divisional application of patent | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20131008 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20141008 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20151006 Year of fee payment: 6 |
|
LAPS | Lapse due to unpaid annual fee |