KR100655553B1 - Method of midi synthesizing based on wav table - Google Patents

Method of midi synthesizing based on wav table Download PDF

Info

Publication number
KR100655553B1
KR100655553B1 KR1020050000203A KR20050000203A KR100655553B1 KR 100655553 B1 KR100655553 B1 KR 100655553B1 KR 1020050000203 A KR1020050000203 A KR 1020050000203A KR 20050000203 A KR20050000203 A KR 20050000203A KR 100655553 B1 KR100655553 B1 KR 100655553B1
Authority
KR
South Korea
Prior art keywords
sound source
wave table
sample
midi
samples
Prior art date
Application number
KR1020050000203A
Other languages
Korean (ko)
Other versions
KR20060079865A (en
Inventor
이용희
박용철
이준엽
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020050000203A priority Critical patent/KR100655553B1/en
Publication of KR20060079865A publication Critical patent/KR20060079865A/en
Application granted granted Critical
Publication of KR100655553B1 publication Critical patent/KR100655553B1/en

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04GSCAFFOLDING; FORMS; SHUTTERING; BUILDING IMPLEMENTS OR AIDS, OR THEIR USE; HANDLING BUILDING MATERIALS ON THE SITE; REPAIRING, BREAKING-UP OR OTHER WORK ON EXISTING BUILDINGS
    • E04G17/00Connecting or other auxiliary members for forms, falsework structures, or shutterings
    • E04G17/06Tying means; Spacers ; Devices for extracting or inserting wall ties
    • E04G17/065Tying means, the tensional elements of which are threaded to enable their fastening or tensioning
    • E04G17/0655Tying means, the tensional elements of which are threaded to enable their fastening or tensioning the element consisting of several parts
    • E04G17/0657Tying means, the tensional elements of which are threaded to enable their fastening or tensioning the element consisting of several parts fully recoverable

Landscapes

  • Engineering & Computer Science (AREA)
  • Architecture (AREA)
  • Mechanical Engineering (AREA)
  • Civil Engineering (AREA)
  • Structural Engineering (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

본 발명은 웨이브 테이블 기반의 미디(MIDI) 합성에 관한 것으로서, 웨이브 테이블 기반의 미디 합성에 사용되는 음원 샘플에 대하여 임의의 음질에 맞게 압축하여 저장하고, 미디 합성시 상기 음원 샘플을 디코딩하여 합성함으로써 저장공간을 효율적으로 줄일 수 있도록 한 웨이브 테이블 기반 미디 합성방법에 관한 것이다.The present invention relates to a wave table-based MIDI (MIDI) synthesis, by compressing and storing the sound source samples used in the wave table-based MIDI synthesis to any sound quality, by decoding and synthesizing the sound source samples during MIDI synthesis The present invention relates to a wave table based MIDI synthesis method for efficiently reducing storage space.

본 발명은 웨이브 테이블 기반의 미디 합성방법에 있어서, 기존 웨이브 테이블의 음원 샘플에 대하여 음질에 따른 인코딩을 수행하는 인코딩단계; 상기 인코딩된 음원 샘플을 기반으로 웨이브 테이블을 재구성하여 저장하는 웨이브 테이블 재구성 단계; 상기 인코딩 저장된 웨이브 테이블의 음원 비트열을 디코딩하여 미디 합성을 수행하는 미디 합성단계; 를 포함하여 이루어지는 것을 특징으로 한다.The present invention provides a wave table based MIDI synthesis method comprising: an encoding step of performing encoding according to sound quality on a sound source sample of an existing wave table; A wave table reconstruction step of reconstructing and storing a wave table based on the encoded sound source sample; A MIDI synthesis step of decoding a sound source bit string of the encoded stored wave table and performing MIDI synthesis; Characterized in that comprises a.

미디(MIDI),미디합성,인코딩,디코딩MIDI, MIDI Synthesis, Encoding, Decoding

Description

웨이브 테이블 기반 미디 합성방법{METHOD OF MIDI SYNTHESIZING BASED ON WAV TABLE}Wave table-based MIDI synthesis {METHOD OF MIDI SYNTHESIZING BASED ON WAV TABLE}

도1은 기존 웨이브 테이블의 음원 샘플에 압축기법을 적용하여 새로운 인코딩 웨이브 테이블을 구성하는 과정을 나타낸 플로우차트1 is a flowchart illustrating a process of constructing a new encoded wave table by applying a compression method to sound source samples of an existing wave table.

도2는 본 발명에서 음원 샘플을 인코딩하는 방법의 플로우차트2 is a flowchart of a method for encoding a sound source sample in the present invention.

도3은 본 발명에서 연속된 음원 샘플의 편차 구간의 예를 나타낸 도면Figure 3 is a view showing an example of the deviation interval of the continuous sound source sample in the present invention

도4는 본 발명에서 생성된 비트열 구조의 예를 나타낸 도면4 illustrates an example of a bit string structure generated in the present invention.

도5는 본 발명에서 인코딩된 웨이브 테이블을 이용하여 미디 합성을 하는 과정을 나타낸 플로우차트5 is a flowchart illustrating a process of performing MIDI synthesis using an encoded wave table in the present invention.

도6은 본 발명에서 인코딩된 웨이브 테이블 디코딩 과정을 나타낸 플로우차트6 is a flowchart showing a wave table decoding process encoded in the present invention.

본 발명은 웨이브 테이블 기반의 미디(MIDI) 합성에 관한 것으로서, 웨이브 테이블 기반의 미디 합성에 사용되는 음원 샘플에 대하여 임의의 음질에 맞게 압축하여 저장하고, 미디 합성시 상기 음원 샘플을 디코딩하여 합성함으로써 저장공간 을 효율적으로 줄일 수 있도록 한 웨이브 테이블 기반 미디 합성방법에 관한 것이다.The present invention relates to a wave table-based MIDI (MIDI) synthesis, by compressing and storing the sound source samples used in the wave table-based MIDI synthesis to any sound quality, by decoding and synthesizing the sound source samples during MIDI synthesis Wave table based MIDI synthesis method to reduce storage space efficiently.

[미디 합성의 개요]Overview of MIDI Synthesis

미디(MIDI, Musical Instrument Digital Interface)는 음악을 합성해 낼 때 사용하는, 음악적인 정보를 묘사하는 표준이다. 미디에는 소리 내려고 하는 악기의 종류, 음 높이, 음 길이 등과 같은 기본적인 음악적 정보 이외에도 그 악기의 소리가 어떻게 표현되어야 하는지에 대한 정보가 함께 포함되어 있다. 이렇게 미디로 표현되어 있는 음악적인 정보를 바탕으로 실제로 소리를 합성해 내는 방법에는 크게 FM 방식과 웨이브 테이블 방식이 있다. FM 방식은 특정 악기가 나타내어야 하는 소리에 대한 주파수 정보를 악기마다 추출하여 소리를 합성할 때에 그 주파수에 대한 신호를 생성해 내는 방식이다. 웨이브 테이블 방식은 악기별로 실제로 연주된 음의 샘플을 미리 얻어내어 저장하고, 미디 파일에 기술된 음악적 정보에 따라 저장된 악기 샘플을 처리하여 소리를 합성하는 방식이다.MIDI (Musical Instrument Digital Interface) is a standard for describing musical information used to synthesize music. In addition to basic musical information such as the type, pitch, and length of the instrument you're trying to sound, MIDI includes information about how the instrument's sound should be represented. In this way, there are largely FM and wave table methods for synthesizing sounds based on musical information expressed in MIDI. The FM method is a method of generating a signal for a frequency when synthesizing sounds by extracting frequency information about sounds that a specific instrument should represent. The wave table method is a method of synthesizing sounds by acquiring and storing samples of actually played notes for each instrument in advance, and processing stored instrument samples according to the musical information described in the MIDI file.

[웨이브 테이블 방식의 미디 합성][Middle Synthesis of Wave Table Method]

웨이브 테이블 방식으로 미디를 합성할 때에는 전술한 것과 같이 악기별로 실제로 연주된 음의 샘플을 이용하게 되는데, 이 샘플을 이용하여 미디 파일에 기술되어 있는 음악적 정보인 음 높이, 음 길이, 음 표현 등의 정보를 기반으로 음 높이를 변조하고, 음 길이를 변경하며, 음의 표현을 적용하여 소리를 생성한다. 또한 웨이브 테이블에 악기 소리의 샘플을 획득하여 저장할 때에 부가적으로 샘플 소리 크기의 시간적인 변화, 주파수의 미세 변화 등의 발음 정보(articulation data), 루프 구간의 존재와 루프 구간의 시작과 길이에 대한 정보를 저장하는데, 소리의 합성 시에 이와 같은 정보도 함께 반영하여 소리를 생성한다.When synthesizing MIDI using the wave table method, as described above, a sample of a musical instrument actually played is used. This sample is used to describe the musical information described in the MIDI file, such as pitch, pitch, and musical expression. Based on the information, the sound height is modulated, the sound length is changed, and sound expression is applied. In addition, when acquiring and storing a sample of a musical instrument in a wave table, additionally, articulation data such as temporal change in sample volume and fine change in frequency, presence of a loop section, and the start and length of the loop section are described. Information is stored, and when the sound is synthesized, this information is also reflected to generate sound.

[웨이브 테이블 저장 방식 DLS][Wave table storage method DLS]

웨이브 테이블 기반의 미디 합성에 사용하는 웨이브 테이블은 여러 합성 장치간의 호환성을 유지하기 위해 특정한 방식을 가지게 되는데, 널리 알려진 방식은 DLS(DownLoadable Sound) 방식이다. DLS 방식의 웨이브 테이블 저장 포맷은 악기의 샘플 정보와 발음 정보 (articulation data)를 어떠한 형태로 저장할 지를 규정한다. 특히 악기의 샘플은 오디오 데이터 저장 포맷인 WAVE 포맷으로 저장하도록 규정하고 있다.The wave table, which is used for wave table-based MIDI synthesis, has a specific method for maintaining compatibility between various synthesis devices. A well-known method is a down loadable sound (DLS) method. The wave table storage format of the DLS method defines how to store the sample information and the articulation data of the instrument. In particular, the instrument samples are stored in the WAVE format, which is an audio data storage format.

[루프 구간][Loop section]

웨이브 테이블 방식으로 미디를 합성하는 과정은 전술과 같이 악기별로 실제로 연주된 음의 샘플과 이에 대한 미디 파일이나 웨이브 테이블의 부가정보를 통해서 그 소리를 재생하게 된다. 여기서 실제 연주된 음인 샘플을 모두 저장하게 되면 웨이브 테이블의 크기는 엄청나게 커질 것이다. 그러나 웨이브 테이블에서는 연주된 음이 어느 정도 시간 이후에 안정되어 반복적인 형태를 보이는 특징을 이용해 음원 저장 시 반복되는 구간까지의 신호에 대해서만 저장하게 되는데, 반복되는 부분은 루프 구간이라고 하며 부가적으로 그 시작 위치와 길이도 저장하게 된다. 실제 미디 파일 연주 시에는 이 루프 구간을 반복적으로 재생을 하게 된다. 악기의 특징에 따라 루프를 적용한 경우도 있고 원 샷 (one-shot)으로 끝나는 경우도 존재한다. 이렇게 루프 구간을 적용해 웨이브 테이블의 크기를 줄이게 된다.In the process of synthesizing the MIDI by the wave table method, the sound is reproduced through the sample of the sound actually played for each musical instrument and the additional information of the MIDI file or the wave table. If you store all the samples that are actually played, the size of the wave table will be huge. However, in the wave table, the played note is stable after a certain time and shows a repetitive shape, and it stores only the signal up to the repeated section when the sound source is stored. The repeated part is called a loop section. It will also store the start position and length. When playing an actual MIDI file, this loop section is played repeatedly. Depending on the characteristics of the instrument, there may be a loop applied, or a one-shot ending. This loop interval is applied to reduce the size of the wave table.

[악기별 음원 계층][Music source layer by instrument]

웨이브 테이블 방식으로 미디를 합성하는 과정은 전술과 같이 악기별로 실제로 연주된 음의 샘플과 미디 파일이나 웨이브 테이블의 부가정보를 통해서 소리를 생성한다. 미디 파일의 각 음에 대응하는 음을 웨이브 테이블에서 모두 가지고 있다면 좋겠지만, 현실적으로 그 크기가 커지기 때문에 일반적으로 각 악기별로 몇 개의 영역으로 나누어 그 영역에 해당하는 음을 미디 파일의 노트에 맞게 생성(oscillation) 시켜서 사용하게 된다.Synthesis of the MIDI using the wave table method generates a sound through the sample of the sound actually played for each instrument and additional information of the MIDI file or the wave table as described above. It would be nice to have all the notes in the wave table corresponding to each note in the MIDI file, but since the size is actually larger, it is generally divided into several areas for each instrument to create a note corresponding to the note in the MIDI file. oscillation).

이와 같이 웨이브 테이블 방식의 미디 합성 방법은 각 악기별로 실제로 연주된 음원 샘플을 펄스코드변조(PCM)의 형식으로 저장을 하게 된다. 따라서 실제로는 매우 큰 저장 공간(저장장치)을 필요로 하는 문제점이 있다.In this way, the wave table method of MIDI synthesis stores the sound samples actually played for each instrument in the form of pulse code modulation (PCM). Therefore, there is a problem in that a very large storage space (storage device) is actually required.

본 발명은 상기 문제점을 해결하기 위해서 루프 구간과 악기별 음원 계층을 나누는 방법들에 추가적으로, 웨이브 테이블 미디 합성 방법이 사용되는 환경이나 장치에 따라 요구되는 음원 샘플의 음질 정도의 차이가 있을 수 있다는 점을 고려해서 오디오 신호 처리 기법을 이용한 압축 기법으로 저장공간을 효과적으로 줄일 수 있는 웨이브 테이블 기반 미디 합성방법을 제공하는데 그 목적이 있다.The present invention, in addition to the method of dividing the loop section and the sound source layer for each instrument in order to solve the above problem, there may be a difference in the sound quality of the sound source sample required according to the environment or the device in which the wave table MIDI synthesis method is used. In view of this, it is an object of the present invention to provide a wave table based MIDI synthesis method that can effectively reduce the storage space by the compression method using the audio signal processing technique.

또한 본 발명은 웨이브 테이블 기반의 미디 합성에 사용되는 음원 샘플의 음질에 따른 압축방법으로써, 웨이브 테이블에 저장되어 있는 악기 샘플의 크기로 인한 구현상의 어려움과 환경이나 장치에 맞는 음질의 음원 샘플 적용을 위해 오디오 신호 처리 기술을 적용하여, 웨이브 테이블에 저장되는 음원 샘플을 압축하여 저장 하고, 미디 합성시 이를 디코딩하여 합성하는 방법을 제공하는데 그 목적이 있다.In addition, the present invention is a compression method according to the sound quality of the sound source sample used in the wave table-based MIDI synthesis, implementation difficulties due to the size of the instrument sample stored in the wave table, and the application of sound source samples of sound quality suitable for the environment or device It is an object of the present invention to provide a method of compressing and storing a sound source sample stored in a wave table by applying an audio signal processing technique, and decoding and synthesizing it during MIDI synthesis.

또한 본 발명은 웨이브 테이블 방식으로 미디 합성을 할 때, 웨이브 테이블에 저장되어 있는 악기 샘플을 임의의 음질에 맞게 압축하여 비트열을 만드는 방법과 미디 합성 시에 악기 샘플의 비트열을 다시 음원 샘플로 바꾸는 방법을 제공하는데 그 목적이 있다.The present invention also provides a method for creating a beat string by compressing an instrument sample stored in the wave table according to an arbitrary sound quality when performing MIDI synthesis using a wave table method, and converting the beat string of the instrument sample into a sound source sample during MIDI synthesis. The goal is to provide a way to change it.

상기 목적을 달성하기 위한 본 발명의 웨이브 테이블 기반 미디 합성방법은, 웨이브 테이블 기반의 미디 합성방법에 있어서, 기존 웨이브 테이블의 음원 샘플에 대하여 음질에 따른 인코딩을 수행하는 인코딩단계; 상기 인코딩된 음원 샘플을 기반으로 웨이브 테이블을 재구성하여 저장하는 웨이브 테이블 재구성 단계; 상기 인코딩 저장된 웨이브 테이블의 음원 비트열을 디코딩하여 미디 합성을 수행하는 미디 합성단계; 를 포함하여 이루어지는 것을 특징으로 한다.In accordance with another aspect of the present invention, there is provided a wave table based MIDI synthesis method comprising: an encoding step of performing encoding according to sound quality on a sound source sample of an existing wave table; A wave table reconstruction step of reconstructing and storing a wave table based on the encoded sound source sample; A MIDI synthesis step of decoding a sound source bit string of the encoded stored wave table and performing MIDI synthesis; Characterized in that comprises a.

또한 상기 본 발명에 따른 웨이브 테이블 기반 미디 합성방법에서, 상기 인코딩 단계에서 연속하는 음원 샘플간의 최대 편차값을 구하고, 그 최대 편차값에 따라 각각 다른 압축 과정을 적용하여 음원 샘플을 인코딩하는 것을 특징으로 한다.In the wave table-based MIDI synthesis method according to the present invention, the maximum deviation value between successive sound source samples in the encoding step is obtained, and the sound source samples are encoded by applying different compression processes according to the maximum deviation value. do.

또한 상기 본 발명에 따른 웨이브 테이블 기반 미디 합성방법에서, 상기 인코딩 단계에서, 연속하는 음원 샘플간의 최대 편차값을 구하고, 그 최대 편차값이 소정의 설정된 기준값보다 작은 경우에는 신호대 잡음비에 따라 압축하고 그 최대 편차값이 소정의 설정된 기준값 보다 큰 경우에는 단순 양자화를 수행하여 음원 샘 플을 인코딩하는 것을 특징으로 한다.In the wave table-based MIDI synthesis method according to the present invention, in the encoding step, the maximum deviation value between successive sound source samples is obtained. When the maximum deviation value is smaller than a predetermined reference value, the maximum deviation value is compressed according to the signal-to-noise ratio. When the maximum deviation value is larger than the predetermined reference value, the sound source sample may be encoded by performing simple quantization.

또한 상기 본 발명에 따른 웨이브 테이블 기반 미디 합성방법에서, 상기 인코딩 단계에서, 샘플 편차 값의 분포에 따라 복수 개의 영역으로 나누어 인코딩 처리함으로써 음질의 손실을 최소화하는 것을 특징으로 한다.In addition, in the wave table-based MIDI synthesis method according to the present invention, in the encoding step, it is characterized by minimizing the loss of sound quality by dividing into a plurality of areas according to the distribution of the sample deviation value.

또한 상기 본 발명에 따른 웨이브 테이블 기반 미디 합성방법에서, 상기 인코딩 단계에서, 양자화에 사용되는 샘플 편차 값은 입력 신호에서 이전에 양자화한 값을 다시 역 양자화를 통해 얻은 값과의 차로 하는 것을 특징으로 한다.In the wave table-based MIDI synthesis method according to the present invention, in the encoding step, a sample deviation value used for quantization is a difference between a value previously obtained by inverse quantization and a value previously quantized in the input signal. do.

또한 상기 본 발명에 따른 웨이브 테이블 기반 미디 합성방법에서, 상기 인코딩 단계에서, 입력 신호와 양자화 및 역양자화를 거친 신호와의 신호대 잡음비를 통해 임의의 임계 신호대 잡음비에 가장 근접한 양자화 비트 수를 찾는 것을 특징으로 한다.In the wave table-based MIDI synthesis method according to the present invention, in the encoding step, the number of quantization bits closest to an arbitrary threshold signal-to-noise ratio is found through a signal-to-noise ratio between the input signal and the quantized and dequantized signal. It is done.

또한 상기 본 발명에 따른 웨이브 테이블 기반 미디 합성방법에서, 상기 인코딩 단계에서, 음원 샘플을 비선형 양자화하는 것을 특징으로 한다.In the wave table-based MIDI synthesis method according to the present invention, the encoding step, characterized in that the nonlinear quantization of the sound source samples.

또한 상기 본 발명에 따른 웨이브 테이블 기반 미디 합성방법에서, 상기 인코딩 단계에서, 상기 인코딩된 음원 샘플의 특성을 표현하기 위한 부가 정보를 갖는 비트열을 생성하는 것을 특징으로 한다.In the wave table-based MIDI synthesis method according to the present invention, in the encoding step, a bit string having additional information for expressing characteristics of the encoded sound source sample is generated.

또한 상기 본 발명에 따른 웨이브 테이블 기반 미디 합성방법에서, 상기 인코딩 단계에서, 상기 인코딩된 음원 샘플의 특성을 표현하기 위한 부가정보로서, 인코딩 방법을 표현하는 정보, 음원 샘플간 편차값의 영역 분포를 표현하는 정보, 한 음원 샘플에 대한 비트 수를 표현하는 정보, 음원 샘플의 개수를 표현하는 정보 를 생성하는 것을 특징으로 한다.In addition, in the wave table-based MIDI synthesis method according to the present invention, in the encoding step, as an additional information for expressing the characteristics of the encoded sound source sample, information representing an encoding method and a region distribution of deviation values between sound source samples And generating information representing the number of bits for one sound source sample and information representing the number of sound source samples.

또한 상기 본 발명에 따른 웨이브 테이블 기반 미디 합성방법에서, 상기 미디 합성단계에서, 상기 인코딩된 웨이브 테이블의 비트열을 분석하여 인코딩된 음원 샘플의 특성을 표현하는 부가정보를 토대로 해당 비트열을 디코딩함으로써 음원 샘플을 얻는 것을 특징으로 한다.Further, in the wave table-based MIDI synthesis method according to the present invention, in the MIDI synthesis step, by analyzing the bit string of the encoded wave table by decoding the corresponding bit string on the basis of additional information representing the characteristics of the encoded sound source sample It is characterized by obtaining a sound source sample.

또한 상기 본 발명에 따른 웨이브 테이블 기반 미디 합성방법에서, 상기 미디 합성단계에서, 상기 인코딩된 웨이브 테이블의 음원 비트열을 디코딩할 때, 장치에 따른 연산량이나 메모리의 중요도에 따라 테이블이나 연산방법을 선택적으로 적용하여 음원 비트열을 디코딩하는 것을 특징으로 한다.Further, in the wave table-based MIDI synthesis method according to the present invention, in the MIDI synthesis step, when decoding the sound source bit string of the encoded wave table, a table or a calculation method is selected depending on the amount of operation or the importance of memory according to the device. It is characterized by decoding the sound source bit stream by applying a.

또한 상기 목적을 달성하기 위한 본 발명의 웨이브 테이블 기반 미디 합성방법은, In addition, the wave table based MIDI synthesis method of the present invention for achieving the above object,

웨이브 테이블 기반의 미디 합성방법에 있어서, 기존 웨이브 테이블의 음원 샘플에 대하여 연속하는 음원 샘플간의 최대 편차값을 구하여 그 값이 소정의 설정된 값보다 큰 경우 해당 음원 샘플을 양자화하여 압축하는 단계; 상기 음원 샘플간의 최대 편차값이 소정의 설정된 값보다 작은 경우 입력신호와 양자화 및 역양자화된 값 사이의 신호대 잡음비(SNR)를 산출하는 단계; 상기 신호대 잡음비(SNR)를 임계값과 비교하여 임의의 임계 신호대 잡음비에 가장 근접한 비트 수를 찾아 해당 음원 샘플을 양자화하여 압축하는 단계; 상기 압축된 음원 샘플에 그 데이터의 특성을 표현하기 위한 부가정보를 포함하는 비트열을 생성하여 웨이브 테이블을 재구성하는 단계; 상기 재구성된 웨이브 테이블에서 상기 부가정보를 토대로 웨이브 테 이블을 분석하여 해당 음원 샘플에 대한 디코딩을 수행하고 이를 미디 합성하는 단계; 를 포함하여 이루어지는 것을 특징으로 한다.A method for synthesizing a wave table based on a MIDI, the method comprising: obtaining a maximum deviation value between consecutive sound source samples with respect to a sound source sample of an existing wave table, and quantizing and compressing the sound source sample if the value is larger than a predetermined value; Calculating a signal-to-noise ratio (SNR) between the input signal and the quantized and dequantized values when the maximum deviation value between the sound source samples is smaller than a predetermined set value; Comparing the signal-to-noise ratio (SNR) with a threshold to find the number of bits closest to any threshold signal-to-noise ratio and quantizing and compressing the sound source samples; Reconstructing a wave table by generating a bit string including additional information for expressing characteristics of the data in the compressed sound source sample; Analyzing a wave table based on the additional information in the reconstructed wave table to perform decoding on a corresponding sound source sample, and to synthesize it by MIDI; Characterized in that comprises a.

상기한 바와 같이 이루어지는 본 발명의 웨이브 테이블 기반 미디 합성방법의 실시예를 첨부된 도면을 참조하여 설명한다.An embodiment of the wave table based MIDI synthesis method of the present invention made as described above will be described with reference to the accompanying drawings.

본 발명에 따른 웨이브 테이블 기반 미디 합성방법은 음원의 음질과 크기를 고려하여 웨이브 테이블을 인코딩하여 재구성하고, 상기 재구성된 웨이브 테이블의 음원 샘플 정보를 디코딩하여 미디 합성을 수행하는 것으로, 먼저 본 발명에 따른 미디 합성 방법의 개요를 설명하고, 이어서 음원 샘플을 인코딩하는 방법, 인코딩된 음원 샘플의 비트열을 생성하는 방법, 상기 생성된 비트열을 토대로 하여 인코딩된 웨이브 테이블을 재구성하는 방법, 그리고 상기 인코딩된 웨이브 테이블의 음원 샘플을 디코딩하고 이 것을 이용해서 미디 합성을 수행하는 방법으로 각각 나누어 설명한다.The wave table-based MIDI synthesis method according to the present invention encodes and reconstructs a wave table in consideration of sound quality and size of a sound source, and performs MIDI synthesis by decoding sound source sample information of the reconstructed wave table. An overview of the MIDI synthesis method according to the present invention will be described, followed by a method of encoding a sound source sample, a method of generating a bit string of encoded sound source samples, a method of reconstructing an encoded wave table based on the generated bit string, and the encoding. It will be divided into a method of decoding a sound source sample of a synthesized wave table and performing MIDI synthesis using the same.

[ 음원의 음질과 크기를 고려한 웨이브 테이블 인코딩 및 디코딩을 이용한 미디 합성 방법의 개요 ][Overview of MIDI Synthesis Method Using Wave Table Encoding and Decoding Considering Sound Quality and Size of Sound Source]

웨이브 테이블 방식의 미디 합성에서 음원 샘플의 큰 저장 공간 사용으로 인한 단점을 보완하기 위해서 본 발명에서는 웨이브 테이블의 악기 샘플을 미디 합성의 환경이나 장치에 따라 적절한 음질을 유지하는 압축방법 적용으로 음원 샘플의 크기를 줄이는 방법을 고안하였다. 일반적인 웨이브 테이블을 이용한 미디 합성 방법은 웨이브 테이블의 음원을 웨이브 테이블의 부가정보를 적용해 미디를 합성하게 된다. 앞서 말한 것과 같이 웨이브 테이블 방식의 미디 합성에서는 음원 샘플의 저 장 공간이 큰 단점이 있다. 그래서 본 발명에서는 오디오 신호 압축 방법을 이용하여 이를 보완 하였다. 이 방법은 우선 웨이브 테이블의 악기 샘플을 임의의 음질에 맞게 압축하는 과정과 미디 합성 시에 악기 샘플의 비트열을 다시 음원 샘플로 바꾸는 과정으로 나눌 수 있다. In order to compensate for the shortcomings of using a large storage space of sound source samples in the wave table-type MIDI synthesis, the present invention uses a compression method that maintains an appropriate sound quality according to the environment or device of MIDI synthesis. We devised a way to reduce the size. In a general MIDI synthesis method using a wave table, MIDI is synthesized by applying additional information of a wave table to a sound source of the wave table. As mentioned above, the wave table method of MIDI synthesis has a disadvantage in that the storage space of the sound source sample is large. Thus, the present invention compensates for this by using an audio signal compression method. This method can be divided into first, compressing a musical sample of a wave table to an arbitrary sound quality, and converting a beat sequence of the musical instrument sample into a sound source sample at the time of MIDI synthesis.

도1은 기존 웨이브 테이블의 음원 샘플에 압축 기법을 적용해 새로운 인코딩 웨이브 테이블을 구성하는 방법을 나타낸다. 1 shows a method of constructing a new encoded wave table by applying a compression technique to sound source samples of an existing wave table.

단계(S10)는 기존의 웨이브 테이블이 준비되는 단계이다. 기존의 웨이브 테이블은 앞서 설명한 바와 같이 악기별로 실제로 연주된 음의 샘플을 미리 얻어내어 저장하고, 미디 파일에 기술된 음악적 정보에 따라 저장된 악기 샘플을 처리하여 소리를 합성하기 위하여 필요한 부가정보들이 포함되어 있다.In step S10, an existing wave table is prepared. Existing wave table includes additional information necessary to synthesize the sound by acquiring and storing the sample of the actually played note for each instrument as described above, and processing the stored instrument sample according to the musical information described in the MIDI file. have.

다음 단계(S20)는 상기 기존의 웨이브 테이블을 분석하는 단계이다. 이 단계는 웨이브 테이블에서 음원 샘플을 추출하기 위한 데이터와 부가정보의 분석을 수행하는 단계이다.Next step (S20) is a step of analyzing the existing wave table. This step is to analyze data and additional information for extracting sound source samples from the wave table.

다음 단계(S30)는 상기 웨이브 테이블 분석의 결과로 음원 샘플을 구하는 단계이다. 이 음원 샘플은 악기별로 실제로 연주된 음의 샘플에 해당한다.The next step (S30) is to obtain a sound source sample as a result of the wave table analysis. This sound source sample corresponds to a sample of notes actually played for each instrument.

다음 단계(S40)는 상기 음원 샘플을 인코딩하는 단계이다. 여기서 인코딩은 음원 샘플을 음질에 따라 압축하는 과정을 의미한다. 즉, 장치나 환경에 따른 음질의 요구 수준의 차이를 고려하여 상기 웨이브 테이블의 음원 샘플을 오디오 처리 기법을 기반으로 압축하는 과정이다.The next step (S40) is the step of encoding the sound source sample. Here, encoding refers to a process of compressing a sound source sample according to sound quality. That is, the sound source sample of the wave table is compressed based on an audio processing technique in consideration of the difference in the required level of sound quality according to the device or the environment.

다음 단계(S50)는 상기 압축과정을 통해서 얻어진 인코딩된 음원 샘플을 이 용해서 웨이브 테이블을 재구성하여 저장하는 단계이다. 즉, 새롭게 압축 인코딩되어 생성된 음원 샘플에 더하여, 압축 인코딩과 관련된 필요한 정보를 부가하여 비트열을 생성하고 이 것을 이용해서 웨이브 테이블을 재구성하는 것이다. 여기서 필요한 부가정보는 어떤 인코딩 과정을 거쳤는가를 나타내는 정보와 음원 샘플의 편차의 분포 영역, 음원 비트열의 한 샘플에 대한 비트 수, 음원 샘플의 개수 등에 관련된 정보이다. 이는 후에 상세히 설명될 것이다.The next step (S50) is to reconstruct and store the wave table using the encoded sound source samples obtained through the compression process. In other words, in addition to the newly compressed and encoded sound source sample, the necessary information related to the compression encoding is added to generate a bit string, and the wave table is reconstructed using this. The additional information required here includes information indicating what encoding process has been performed, information related to the distribution region of the deviation of the sound source samples, the number of bits for one sample of the sound source bit string, the number of sound source samples, and the like. This will be explained later in detail.

다음 단계(S60)는 재구성된, 인코딩된 웨이브 테이블이 완성되어 준비되는 단계이다. 이 인코딩된 웨이브 테이블은 앞서 설명한 바와 같이 기존의 웨이브 테이블에서 추출한 음원 샘플을 압축하고 필요한 부가정보를 부가하여 재구성된 것으로, 미디 합성시에 이 재구성된 웨이브 테이블의 음원 샘플을 상기 부가정보를 토대로 디코딩하여 미디 합성에 사용하게 된다.Next step S60 is a step in which a reconstructed, encoded wave table is completed and prepared. The encoded wave table is reconstructed by compressing the sound source samples extracted from the existing wave table and adding the necessary additional information as described above, and decoding the sound source samples of the reconstructed wave table based on the additional information during MIDI synthesis. To be used for MIDI synthesis.

즉, 도1에 나타낸 바와 같이 본 발명에 따른 웨이브 테이블 기반 미디 합성방법에서는 기존의 웨이브 테이블의 정보를 분석하여 음원 샘플을 추출하고, 이 음원 샘플을 도2에 나타낸 방법으로 인코딩을 통해 압축하게 되며, 이 인코딩된 음원 샘플을 도4에 나타낸 형태의 비트열로 만들어 새로운 인코딩된 웨이브 테이블을 구성하게 된다. 이렇게 인코딩된 웨이브테이블을 이용해 도5와 같은 과정을 거쳐 최종적으로 미디 합성을 하게 되는데, 여기서 도5의 음원 샘플 디코딩 과정(S530)은 도6과 같이 이루어진다.That is, as shown in FIG. 1, in the wave table-based MIDI synthesis method according to the present invention, a sound sample is extracted by analyzing information of an existing wave table, and the sound source sample is compressed through encoding by the method shown in FIG. Then, this encoded sound source sample is formed into a bit string of the form shown in Fig. 4 to form a new encoded wave table. The MIDI wave is finally synthesized using the encoded wave table as shown in FIG. 5, where the sound source sample decoding process S530 of FIG. 5 is performed as shown in FIG. 6.

[음원 샘플 인코딩][Sound sample encoding]

상기 도1에서 웨이브 테이블에서 분리된 음원 샘플을 인코딩하는 방법(S40) 은 도2와 같은 과정을 거치게 된다.In FIG. 1, the method S40 for encoding the sound source sample separated from the wave table is performed as shown in FIG. 2.

첫 단계(S400)는 상기 기존의 웨이브 테이블로부터 N비트의 음원 샘플을 분리하는 단계이다. 이는 앞서 설명한 바와 같이 웨이브 테이블을 분석하고 그 결과를 바탕으로 하여 해당 음원 샘플을 분리함으로써 이루어진다.The first step S400 is to separate N-bit sound samples from the existing wave table. This is done by analyzing the wave table as described above and separating the sound source samples based on the results.

다음 단계(S410)는 상기 분리된 N비트 음원 샘플을 이용해서 연속된 샘플간의 편차값(차분값)을 구하는 단계이다. 즉, 연속된 음원 샘플을 비교하여 그 최대 편차값을 구하는 것이다. 연속된 음원 샘플의 비교를 통해 최대 편차값을 구한다는 것은 연속하는 음원 샘플들을 서로 비교하여 샘플들 간의 차분값(편차값)을 구하고 그 값 중에서 가장 큰 차분값을 최대 편차값으로 한다는 의미이다. 이와 같이 연속된 음원 샘플간의 편차값을 구하는 이유는 실제 N비트의 신호를 입력으로 받아서연속된 샘플간의 편차는 부호가 있는 신호의 경우 최대 N+1 비트의 저장공간이 필요하기 때문에 이런 부분에 대해서 제외를 하기 위해서 이 과정을 거치게 된다.Next step (S410) is a step of obtaining a deviation value (difference value) between consecutive samples using the separated N-bit sound source samples. That is, the maximum deviation value is obtained by comparing successive sound source samples. Obtaining the maximum deviation value by comparing successive sound source samples means comparing the successive sound source samples with each other to obtain a difference value (deviation value) between the samples, and using the largest difference value among them as the maximum deviation value. The reason for calculating the deviation value between consecutive sound source samples is to receive the actual N-bit signal as input, and the deviation between successive samples requires about N + 1 bits of storage space for signed signals. This is done to do the exclusion.

다음 단계(S420)는 상기 최대 편차값(차분값)을 설정된 임계치(여기서는 2N-1)과 비교하는 단계이다. 이 단계는 상기 최대 편차값에 따라 서로 다른 인코딩 과정을 수행하기 위한 것이다. 즉, 최대 편차가 입력 신호의 두 배보다 작은 경우와 큰 경우로 각각 나누어, 최대 편차가 입력 신호의 두 배보다 작은 경우는 신호대 잡음비(SNR)에 따른 인코딩 과정(S440)을 거치게 하고, 최대 편차가 입력 신호의 두 배보다 큰 경우는 단순히 입력 샘플신호 X(n)를 양자화하여 인코딩하는 과정(S450)을 거치도록 하기 위한 것이다.Next step S420 is a step of comparing the maximum deviation value (difference value) with a set threshold (here 2 N-1 ). This step is to perform different encoding processes according to the maximum deviation value. That is, the maximum deviation is divided into two cases where the maximum deviation is less than and twice the input signal, and when the maximum deviation is less than twice the input signal, the encoding process (S440) is performed according to the signal-to-noise ratio (SNR). Is larger than twice the input signal, it is to simply go through the step (S450) of quantizing and encoding the input sample signal X (n).

여기서 사용되는 양자화 기법은 크기가 작은 경우에는 신호를 자세하게 표현하고 크기가 큰 경우에 대해서는 듬성듬성 양자화를 하는 비선형 양자화 기법을 사 용하여 양자화 잡음을 줄인다.The quantization technique used here reduces quantization noise by using a nonlinear quantization technique that expresses the signal in detail when the size is small and performs sparse quantization for the case where the size is large.

먼저 단순 양자화의 경우, 즉 연속된 음원 샘플간 최대 편차값(차분값)이 입력 신호 크기의 두 배보다 큰 경우에는 단순히 음원 샘플 신호 X(n)을 양자화를 통해 N/2 비트 즉, 50%의 압축율로 압축을 하게 된다(단계 S451). 그리고 이어서 다음 단계(S460)에서와 같이 상기 양자화된 음원 샘플을 부가정보와 함께 비트열로 저장을 하게 된다. 부가 정보에 대해서는 후에 도4를 참조하여 상세히 설명한다.First, in the case of simple quantization, that is, when the maximum deviation value (difference value) between successive sound source samples is larger than twice the input signal size, the sound source sample signal X (n) is simply N / 2 bits or 50% through quantization. The compression is performed at a compression rate of (step S451). Subsequently, as shown in the next step S460, the quantized sound source samples are stored in a bit string together with additional information. The additional information will be described later in detail with reference to FIG.

한편, 연속된 음원 샘플간 최대 편차값(차분값)이 두 배보다 작은 경우에는 인코딩 과정(S440)을 수행하여 신호대 잡음비(SNR)의 임계값을 적용해서 음원 샘플에 대한 최적의 양자화 비트를 결정하는 인코딩을 수행한다.On the other hand, if the maximum deviation value (difference value) between consecutive sound source samples is less than twice, the encoding process (S440) is performed to determine an optimal quantization bit for the sound source samples by applying a threshold of the signal-to-noise ratio (SNR). Performs encoding.

먼저, 차분값 분포 확인단계(S430)에서 상기 연속된 음원 샘플의 편차 분포 영역을 확인한다. 이 작업은 양자화 하고자 하는 신호의 최대값이 어디에 있느냐에 따라 양자화 하고자 하는 신호의 구간을 줄여서 더 좋은 신호대 잡음비를 얻기 위한 것이다. 실제 도3과 같이 연속된 음원 샘플의 편차를 크게 1/8, 1/4, 1/2인 세 구간으로 나누어서 생각한다. 이어서 단계(S441)의 양자화와 단계(S442)의 역 양자화를 동시에 수행을 하는데, 이는 신호대 잡음비(SNR)를 구하기 위해서 이루어지는 것이다. 웨이브 테이블을 이용한 미디 합성에서 웨이브 테이블의 음원을 압축하는 인코딩은 연산량이 많아도 이는 실제로 고려대상이 아니다. 실제로는 디코딩 시에 실시간 구현이 필요하기 때문이다.First, in the difference value distribution checking step (S430), the deviation distribution region of the continuous sound source sample is checked. This task is to obtain a better signal-to-noise ratio by reducing the interval of the signal to be quantized depending on where the maximum value of the signal to be quantized is. In fact, as shown in Fig. 3, the deviation of the continuous sound source sample is considered to be divided into three intervals of 1/8, 1/4, and 1/2. Subsequently, the quantization of step S441 and the inverse quantization of step S442 are performed at the same time, which is performed to obtain a signal-to-noise ratio (SNR). In MIDI synthesis using a wave table, the encoding that compresses the sound source of the wave table is not really considered even if the amount of computation is large. This is because a real time implementation is required at the time of decoding.

도2의 양자화 단계(S441)에서 XDIFF(n)=X(n)-XREC(n-1)을 나타내고 X(n)은 현 재 입력 음원 샘플, XREC(n-1)는 한 샘플 전의 역 양자화를 통해서 얻은 음원 샘플을 각각 나타내고 있다. 여기서 주의할 점은 XREC(-1)=0 즉, XDIFF(0)=X(0)의 값으로 초기화를 하는 것이다. 도2의 역양자화 단계(S442)는 양자화한 신호를 다시 역 양자화를 하는 과정으로 이는 양자화 과정의 역순이다.In the quantization step S441 of FIG. 2, X DIFF (n) = X (n) -X REC (n-1), where X (n) is the current input source sample, and X REC (n-1) is one sample. Each of the sound source samples obtained through the previous inverse quantization is shown. Note that the initialization is done with X REC (-1) = 0, that is, X DIFF (0) = X (0). The inverse quantization step S442 of FIG. 2 is a process of inverse quantization of the quantized signal again, which is the reverse order of the quantization process.

다음 단계(S443)에서는 상기한 바와 같이 양자화 및 역 양자화를 통해 얻은 샘플을 원래의 음원 샘플과의 비교를 통해서 신호대 잡음비를 구한다. 그리고 다음 단계(S444)에서 상기 구해진 신호대 잡음비를 미리 설정된 소정의 임계값과 비교해서 신호대 잡음비(SNR)가 임계값 보다 큰 경우는 현재의 임계값을 만족하는 적절한 비트로 k를 결정하고 양자화한 음원 샘플의 값을 필요한 부가정보를 포함하는 음원 비트열로 만든다(단계 S460). 만약 상기 구해진 신호대 잡음비(SNR)가 임계값 조건(S444)을 만족하지 못 하는 경우에는 비트를 하나씩 증가(S446)시키면서 같은 과정을 반복하게 되는데, 최대 N/2까지 적용을 하고(단계 S445), 그래도 만족하는 경우가 없으면 N/2비트로 음원 샘플을 양자화하여 50% 이하의 압축율을 유지하여 부가 정보를 포함하는 비트열로 저장한다.In the next step S443, a signal-to-noise ratio is obtained by comparing a sample obtained through quantization and inverse quantization with the original sound source sample as described above. If the signal-to-noise ratio (SNR) is greater than the threshold, the obtained signal-to-noise ratio is compared with the predetermined threshold in the next step (S444), where k is determined as an appropriate bit that satisfies the current threshold and quantized. Is formed into a sound source bit string containing necessary additional information (step S460). If the obtained signal-to-noise ratio (SNR) does not satisfy the threshold condition (S444), the same process is repeated while increasing the bits one by one (S446), applying up to N / 2 (step S445), If it is still not satisfied, the sample of the sound source is quantized to N / 2 bits, and a compression rate of 50% or less is maintained and stored as a bit string including additional information.

[비트열 생성 방법][Beat string generation method]

상기 도2에 표현된 바와 같은 인코딩을 통해서 생성되는 음원 샘플을 실제 디코딩할 때에는 양자화 음원 데이터를 어떤 방법으로 역 양자화를 할 것인가에 대한 정보가 필요한데, 이를 위해서 음원 데이터와 함께 부가적인 정보를 함께 생성한다. 부가 정보의 구조는 도4에 표현된 바와 같다. 먼저 도2의 과정 중에서 인코 딩 과정 중에서 어떤 인코딩 과정(S440 또는 S450)을 거쳤는지를 표현하는 정보(401)가 필요하다. 그리고 앞서 설명한 음원 샘플의 편차의 분포 영역(S430 및 도3 참조)을 표현하는 정보(402)가 필요하다. 또한 인코딩된 음원 비트열의 한 샘플에 대한 비트 수를 표현하는 정보(403)가 필요하며, 음원 샘플의 개수 즉, 길이를 표현하는 정보(404)가 필요하고, 마지막으로 해당 음원 샘플에 대한 양자화 데이타(405)가 필요하다. 이와 같이 인코딩 과정, 영역 분포, 비트 수, 샘플의 길이에 관련된 부가정보와 함께 해당 음원 양자화 데이터를 이용해서 비트 열을 생성하는 것이다.When actually decoding a sound source sample generated through the encoding as shown in FIG. 2, information on how to inverse quantize the quantized sound source data is required. For this purpose, additional information is generated together with the sound source data. do. The structure of the additional information is as shown in FIG. First, information 401 representing what encoding process (S440 or S450) of the encoding process in FIG. 2 has been required. In addition, information 402 representing the distribution area (see S430 and FIG. 3) of the deviation of the sound source sample described above is required. In addition, information 403 representing the number of bits for one sample of the encoded sound source bit string is required, information 404 representing the number of sound source samples, that is, length, and finally quantization data for the corresponding sound source sample. 405 is required. As described above, a bit string is generated by using corresponding sound source quantization data together with additional information related to an encoding process, an area distribution, a number of bits, and a length of a sample.

이와 같이 생성된 비트열은 다음의 웨이브 테이블 재구성에 사용된다.The bit string thus generated is used for the next wave table reconstruction.

[인코딩된 웨이브 테이블 구성(웨이브 테이블 재구성)][Encoded Wave Table Configuration (Wave Table Reconstruction)]

상기 인코딩된 이후 생성된 비트열(도4 참조)을 웨이브 테이블에 저장하는 과정이다. 기존의 웨이브 테이블에는 압축되지 않은 원래의 악기 샘플이 포함되어 있는데, 이를 대신하여 인코딩하여 생성된 비트열을 저장한다. 이와 같이 하면, 기존의 웨이브 테이블 대신 본 발명에 따라 압축된 음원 샘플 데이터가 저장된 새로운 웨이브 테이블이 구성된다. 이 웨이브 테이블에는 앞서 설명한 바와 같이 환경이나 장치에 따라 요구되는 음질을 고려하여 오디오 처리기법을 토대로 압축된, 인코딩된 음원 데이터가 구성되며, 이 재구성된 웨이브 테이블에는 상기 도4에 표현한 바와 같이 인코딩 과정을 표현하는 정보와 음원 샘플 편차값의 영역분포 정보(도3 참조), 그리고 음원 비트열의 한 샘플에 대한 비트 수 및 음원 샘플의 개수를 표현하는 정보를 부가 정보로 가지고 음원 양자화 데이터가 저장되는 것이다.The process of storing the encoded bit stream (see FIG. 4) in the wave table after the encoding is performed. Existing wave tables contain the original uncompressed instrument samples, which instead store the strings generated by encoding. In this way, a new wave table in which sound sample data compressed in accordance with the present invention is stored instead of the existing wave table is constructed. As described above, the wave table is composed of encoded sound source data compressed based on an audio processing technique in consideration of sound quality required by an environment or a device, and the reconstructed wave table includes an encoding process as shown in FIG. The sound source quantization data is stored as additional information including the information representing the information, the region distribution information of the sound source sample deviation value (see FIG. 3), and the information representing the number of bits for one sample of the sound source bit string and the number of sound source samples. .

이와 같이 본 발명에 따라 재구성된 웨이브 테이블은 다음에 설명할 미디 합성 과정에서 유용하게 사용된다.Thus, the wave table reconstructed according to the present invention is usefully used in the MIDI synthesis process to be described later.

[인코딩된 웨이브 테이블 디코딩과 미디 합성][Encoded Wave Table Decoding and MIDI Synthesis]

인코딩된 웨이브 테이블을 이용하여 미디를 합성할 때에는 도5와 같은 과정을 거친다. 첫 번째 단계(S500)는 상기 인코딩된 웨이브 테이블을 참조하는 단계이다. 즉, 미디 합성을 위하여 상기 도2 내지 도4를 참조하여 설명한 웨이브 테이블의 데이터를 읽어내는 단계이다.When synthesizing a MIDI using the encoded wave table, the process is as shown in FIG. The first step S500 refers to the encoded wave table. That is, the step of reading the data of the wave table described with reference to Figures 2 to 4 for MIDI synthesis.

상기 인코딩된 웨이브 테이블에는 기존의 웨이브 테이블의 악기 샘플 대신에 인코딩된 비트열이 포함되어 있으므로, 다음 단계(S510)에서는 이를 분석하여 인코딩 과정은 어떤 과정(S440, S450)을 거쳤는지, 음원 샘플간의 편차값 분포는 어떤지, 음원 비트열의 한 샘플에 대한 비트 수는 얼마인지, 그 음원 샘플의 개수(길이)는 어떤지를 분석한다.Since the encoded wave table includes encoded bit strings instead of the instrument samples of the existing wave table, in the next step S510, the encoded wave table is analyzed to determine what process (S440, S450) the encoding process has performed. It analyzes what the deviation value distribution is, how many bits are included in one sample of the sound source bit string, and how many (length) of the sound source samples are.

다음 단계(S520)은 웨이브 테이블 분석을 통하여 해당 비트열을 구하는 단계이고, 다음 단계(S530)는 샘플 인코딩을 여러 가지 압축 기법을 혼합하여 사용하는 경우에 상기 부가 정보에 그 비트열에 어떠한 압축 방법이 사용되어 있는지 기술되어 있으므로 그 압축 기법에 부가되어 저장되어 있는 코딩 매개 변수와 함께 디코딩하여 악기 샘플을 디코딩하는 단계이며, 다음 단계(S530)은 디코딩된 악기 샘플 데이터를 이용해서 해당 악기음을 합성하는 단계이다.The next step (S520) is a step of obtaining a corresponding bit string through wave table analysis, and the next step (S530) is a method of compressing a bit string with the additional information when the sample encoding is mixed with various compression schemes. Decoded instrument samples are decoded together with the coding parameters stored in addition to the compression scheme because they are described, and the next step (S530) is to synthesize the instrument sounds using the decoded instrument sample data. Step.

여기서 자세한 디코딩 과정은 도6에 나타낸 바와 같다. 먼저 인코딩된 웨이브 테이블에서 비트열을 얻는다(단계 S531). 다음 단계(S532)에서는 이렇게 얻은 비트열을 분석해서 어떤 방법(S440 또는 S450)의 인코딩 과정을 거쳤는지에 대해서 파악을 하게 된다. 이어서 장치나 환경에 따라 연산량이나 저장공간 둘 중에 어떤 것을 중요하게 고려하느냐에 따라 테이블을 통한 매핑을 할 것인지 아니면 연산을 하는 방법으로 복원할 것인지를 판별한다(단계 S532).The detailed decoding process is as shown in FIG. First, a bit string is obtained from the encoded wave table (step S531). In the next step S532, the obtained bit string is analyzed to determine which method (S440 or S450) has been encoded. Subsequently, it is determined whether to restore the mapping through the table or the calculation method according to whether the calculation amount or the storage space is considered important depending on the device or the environment (step S532).

만약, 상기 도2에 나타낸 인코딩 과정(S440 또는 S450) 중에서 단순 양자화 과정(S450)을 거쳤다면 단계(S533)로 이행하여 해당 데이터 Y(n)를 역양자화하여 디코딩하고, 신호대 잡음비(SNR)에 따른 인코딩 과정(S440)을 거쳤다면 단계(S534)로 이행하여 테이블 맵핑 T(Y(n))을 통해서 해당 데이터를 디코딩한다.If the simple quantization process S450 is performed among the encoding processes S440 or S450 shown in FIG. 2, the process proceeds to step S533 to dequantize and decode the corresponding data Y (n), and to decode the signal-to-noise ratio SNR. After the encoding process S440 is performed, the process proceeds to a step S534 where the corresponding data is decoded through the table mapping T (Y (n)).

이와 같이 디코딩하여 원래의 음원 샘플을 얻게 된다(단계 S535). 구해진 음원 샘플을 이용해서 앞서 설명한 바와 같이 미디 합성과정(S540)을 수행함으로써 해당 악기음 신호를 생성할 수 있게 되는 것이다.By decoding as described above, an original sound source sample is obtained (step S535). By using the obtained sound source sample as described above by performing the MIDI synthesis process (S540) it is possible to generate the instrument sound signal.

본 발명의 웨이브 테이블 기반 미디 합성방법에 따르면 미디 합성에 사용되는 음원 샘플을 음질에 따라 압축하여 웨이브 테이블을 재구성하고 이 것을 토대로 하여 미디 합성을 수행하므로 저장공간의 필요량을 현저하게 줄일 수 있는 장점이 있다.According to the wave table-based MIDI synthesis method of the present invention, since the sound source samples used for MIDI synthesis are compressed according to sound quality, the wave table is reconstructed and the MIDI synthesis is performed based on this, which significantly reduces the amount of storage space required. have.

특히, 본 발명의 웨이브 테이블 기반 미디 합성방법에 따르면 웨이브 테이블에 저장되어 있는 악기 샘플의 크기로 인한 구현상의 어려움과 환경이나 장치에 맞는 음질의 음원 샘플 적용이 가능하게 되므로 실제 큰 저장공간을 필요로 하지 않고도 충실한 수준의 미디 합성을 구현할 수 있게 된다.Particularly, according to the wave table-based MIDI synthesis method of the present invention, it is possible to apply a sound source sample having a sound quality suitable for an environment or an apparatus due to the difficulty of implementation due to the size of the instrument sample stored in the wave table, and thus requires a large storage space. You'll be able to achieve a high level of MIDI synthesis without having to.

Claims (13)

웨이브 테이블 기반의 미디 합성방법에 있어서, 기존 웨이브 테이블의 음원 샘플에 대하여 웨이브 테이블 미디 합성방법이 사용되는 장치에 따라 요구되는 음원 샘플의 음질에 따른 인코딩을 수행하는 인코딩단계; 상기 인코딩된 음원 샘플을 기반으로 웨이브 테이블을 재구성하여 저장하는 웨이브 테이블 재구성 단계; 상기 인코딩 저장된 웨이브 테이블의 음원 비트열을 디코딩하여 미디 합성을 수행하는 미디 합성단계; 를 포함하여 이루어지는 것을 특징으로 하는 웨이브 테이블 기반 미디 합성방법.A wave table based MIDI synthesis method, comprising: an encoding step of encoding sound source samples of an existing wave table according to sound quality of a sound source sample required by a device using a wave table MIDI synthesis method; A wave table reconstruction step of reconstructing and storing a wave table based on the encoded sound source sample; A MIDI synthesis step of decoding a sound source bit string of the encoded stored wave table and performing MIDI synthesis; Wave table based MIDI synthesis method characterized in that comprises a. 제 1 항에 있어서, 상기 인코딩 단계에서, 연속하는 음원 샘플들을 비교하여 샘플들 간의 차분값(편차값)을 구하고 그 값 중에서 가장 큰 차분값인 최대 편차값을 구하고, 상기 최대 편차값에 따라 신호대 잡음비(SNR)에 따른 압축이나 입력 샘플 양자화 중의 어느 하나를 수행하여 음원 샘플을 인코딩하는 것을 특징으로 하는 웨이브 테이블 기반 미디 합성방법.The method of claim 1, wherein in the encoding step, successive sound source samples are compared to obtain a difference value (difference value) between the samples, and a maximum deviation value, which is the largest difference value among the values, is obtained, and according to the maximum deviation value. Wave table-based MIDI synthesis method characterized in that the encoding of the sound source samples by performing either compression or quantization of the input sample according to the noise ratio (SNR). 제 1 항에 있어서, 상기 인코딩 단계에서, 연속하는 음원 샘플들을 비교하여 샘플들 간의 차분값(편차값)을 구하고 그 값 중에서 가장 큰 차분값인 최대 편차값을 구하고, 상기 최대 편차값이 설정된 기준값보다 작은 경우에는 신호대 잡음비에 따라 압축하고 상기 최대 편차값이 설정된 기준값 보다 큰 경우에는 입력 샘플 양자화를 수행하여 음원 샘플을 인코딩하는 것을 특징으로 하는 웨이브 테이블 기반 미디 합성방법.The method of claim 1, wherein in the encoding step, a difference value (deviation value) between samples is obtained by comparing successive sound source samples, a maximum deviation value that is the largest difference value among the values is obtained, and the maximum deviation value is a reference value. If smaller, compress according to the signal-to-noise ratio, and if the maximum deviation value is larger than the set reference value, input sample quantization is performed to encode a sound source sample. 제 1 항에 있어서, 상기 인코딩 단계에서, 샘플 편차 값의 분포에 따라 복 수 개의 영역으로 나누어 인코딩 처리함으로써 음질의 손실을 최소화하는 것을 특징으로 하는 웨이브 테이블 기반 미디 합성방법. The wave table-based MIDI synthesis method according to claim 1, wherein in the encoding step, loss of sound quality is minimized by encoding and dividing the data into a plurality of regions according to a distribution of sample deviation values. 제 1 항에 있어서, 상기 인코딩 단계에서, 양자화에 사용되는 샘플 편차 값은 입력 신호에서 이전에 양자화한 값을 다시 역 양자화를 통해 얻은 값과의 차로 하는 것을 특징으로 하는 웨이브 테이블 기반 미디 합성방법. The method of claim 1, wherein in the encoding step, a sample deviation value used for quantization is a difference from a value obtained through inverse quantization of a value previously quantized in an input signal again. 제 1 항에 있어서, 상기 인코딩 단계에서, 입력 신호와 양자화 및 역양자화를 거친 신호와의 신호대 잡음비를 통해 임의의 임계 신호대 잡음비에 가장 근접한 양자화 비트 수를 찾는 것을 특징으로 하는 웨이브 테이블 기반 미디 합성방법.2. The wave table-based MIDI synthesis method of claim 1, wherein in the encoding step, the number of quantized bits closest to an arbitrary threshold signal-to-noise ratio is found through a signal-to-noise ratio between the input signal and the quantized and dequantized signal. . 제 1 항에 있어서, 상기 인코딩 단계에서, 음원 샘플을 비선형 양자화하는 것을 특징으로 하는 웨이브 테이블 기반 미디 합성방법.The method of claim 1, wherein in the encoding step, non-linear quantization of a sound source sample. 제 1 항에 있어서, 상기 인코딩 단계에서, 상기 인코딩된 음원 샘플의 특성을 표현하기 위한 부가 정보를 갖는 비트열을 생성하는 것을 특징으로 하는 웨이브 테이블 기반 미디 합성방법.The wave table-based MIDI synthesis method of claim 1, wherein in the encoding step, a bit string having additional information for expressing a characteristic of the encoded sound source sample is generated. 제 1 항에 있어서, 상기 인코딩 단계에서, 상기 인코딩된 음원 샘플의 특성을 표현하기 위한 부가정보로서, 인코딩 방법을 표현하는 정보, 음원 샘플간 편차 값의 영역 분포를 표현하는 정보, 한 음원 샘플에 대한 비트 수를 표현하는 정보, 음원 샘플의 개수를 표현하는 정보를 생성하는 것을 특징으로 하는 웨이브 테이블 기반 미디 합성방법.The method according to claim 1, wherein in the encoding step, information representing an encoding method, information representing an encoding method, information representing an area distribution of deviation values between sound source samples, and a single sound source sample are additional information for representing characteristics of the encoded sound source sample. Wave table-based MIDI synthesis method characterized in that for generating information representing the number of bits, information representing the number of sound source samples. 제 1 항에 있어서, 상기 미디 합성단계에서, 상기 인코딩된 웨이브 테이블의 비트열을 분석하여 인코딩된 음원 샘플의 특성을 표현하는 부가정보를 토대로 해당 비트열을 디코딩함으로써 음원 샘플을 얻는 것을 특징으로 하는 웨이브 테이블 기반 미디 합성방법.The method of claim 1, wherein in the MIDI synthesis step, a sound source sample is obtained by analyzing a bit string of the encoded wave table and decoding the corresponding bit string based on additional information representing characteristics of an encoded sound source sample. Wave table based MIDI synthesis method. 제 1 항에 있어서, 상기 미디 합성단계에서, 상기 인코딩된 웨이브 테이블의 음원 비트열을 디코딩할 때, 신호대 잡음비(SNR)에 따라 인코딩된 비트열은 테이블 맵핑에 기반하여 해당 음원 비트열을 디코딩하고, 단순 양자화를 통해 인코딩된 비트열은 역양자화에 기반하여 해당 음원 비트열을 디코딩하는 것을 특징으로 하는 웨이브 테이블 기반 미디 합성방법.The method of claim 1, wherein in the MIDI synthesis step, when decoding the sound source bit stream of the encoded wave table, the bit stream encoded according to the signal-to-noise ratio (SNR) is decoded according to the table mapping. And decoding the sound source bit stream based on inverse quantization of the bit stream encoded through simple quantization. 웨이브 테이블 기반의 미디 합성방법에 있어서, 기존 웨이브 테이블의 음원 샘플에 대하여 연속하는 음원 샘플들을 비교하여 샘플들 간의 차분값(편차값)을 구하고 그 값 중에서 가장 큰 차분값인 최대 편차값을 구하는 단계; 상기 최대 편차값이 설정된 값보다 큰 경우 해당 음원 샘플을 양자화하여 압축하는 단계; 상기 음원 샘플간의 최대 편차값이 설정된 값보다 작은 경우 입력신호와 양자화 및 역양자화된 값 사이의 신호대 잡음비(SNR)를 산출하는 단계; 상기 신호대 잡음비(SNR)를 임계값과 비교하여 임의의 임계 신호대 잡음비에 가장 근접한 비트 수를 찾아 해당 음원 샘플을 양자화하여 압축하는 단계; 상기 압축된 음원 샘플에 그 데이터의 특성을 표현하기 위한 부가정보를 포함하는 비트열을 생성하여 웨이브 테이블을 재구성하는 단계; 상기 재구성된 웨이브 테이블에서 상기 부가정보를 토대로 웨이브 테이블을 분석하여 해당 음원 샘플에 대한 디코딩을 수행하고 이를 미디 합성하는 단계; 를 포함하여 이루어지는 것을 특징으로 하는 웨이브 테이블 기반 미디 합성방법.In a wave table-based MIDI synthesis method, comparing continuous sound source samples with respect to sound source samples of an existing wave table, obtaining a difference value (difference value) between samples, and obtaining a maximum deviation value which is the largest difference value among the values. ; Quantizing and compressing a sound source sample when the maximum deviation value is larger than a set value; Calculating a signal-to-noise ratio (SNR) between an input signal and a quantized and dequantized value when the maximum deviation value between the sound source samples is smaller than a set value; Comparing the signal-to-noise ratio (SNR) with a threshold to find the number of bits closest to any threshold signal-to-noise ratio and quantizing and compressing the sound source samples; Reconstructing a wave table by generating a bit string including additional information for expressing characteristics of the data in the compressed sound source sample; Analyzing the wave table based on the additional information in the reconstructed wave table to perform decoding on a corresponding sound source sample, and to synthesize them; Wave table based MIDI synthesis method characterized in that comprises a. 제 12 항에 있어서, 상기 인코딩된 음원 샘플의 특성을 표현하기 위한 부가정보는, 인코딩 방법을 표현하는 정보, 음원 샘플간 편차값의 영역 분포를 표현하는 정보, 한 음원 샘플에 대한 비트 수를 표현하는 정보, 음원 샘플의 개수를 표현하는 정보인 것을 특징으로 하는 웨이브 테이블 기반 미디 합성방법.The method of claim 12, wherein the additional information for expressing the characteristics of the encoded sound source sample includes information representing an encoding method, information representing an area distribution of deviation values between sound source samples, and number of bits for one sound source sample. And information representing the number of sound source samples.
KR1020050000203A 2005-01-03 2005-01-03 Method of midi synthesizing based on wav table KR100655553B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050000203A KR100655553B1 (en) 2005-01-03 2005-01-03 Method of midi synthesizing based on wav table

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050000203A KR100655553B1 (en) 2005-01-03 2005-01-03 Method of midi synthesizing based on wav table

Publications (2)

Publication Number Publication Date
KR20060079865A KR20060079865A (en) 2006-07-07
KR100655553B1 true KR100655553B1 (en) 2006-12-08

Family

ID=37171387

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050000203A KR100655553B1 (en) 2005-01-03 2005-01-03 Method of midi synthesizing based on wav table

Country Status (1)

Country Link
KR (1) KR100655553B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5054360A (en) * 1990-11-01 1991-10-08 International Business Machines Corporation Method and apparatus for simultaneous output of digital audio and midi synthesized music
KR20000042559A (en) * 1998-12-26 2000-07-15 전주범 Device for editing audio
JP2003233379A (en) * 2002-02-13 2003-08-22 Matsushita Electric Ind Co Ltd Device and method for waveform synthesis
KR20050011362A (en) * 2003-07-23 2005-01-29 (주)엠씨에스로직 Stereophonic effect generating method in digital compression audio
KR20050074935A (en) * 2005-05-20 2005-07-19 주식회사 엔터기술 A digital audio player and the playing method thereof
KR20050088567A (en) * 2004-03-02 2005-09-07 엘지전자 주식회사 Midi synthesis method of wave table base
KR20060030348A (en) * 2004-10-05 2006-04-10 권종현 Functional music file generation method and apparatus for and method of playing the file

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5054360A (en) * 1990-11-01 1991-10-08 International Business Machines Corporation Method and apparatus for simultaneous output of digital audio and midi synthesized music
KR20000042559A (en) * 1998-12-26 2000-07-15 전주범 Device for editing audio
JP2003233379A (en) * 2002-02-13 2003-08-22 Matsushita Electric Ind Co Ltd Device and method for waveform synthesis
KR20050011362A (en) * 2003-07-23 2005-01-29 (주)엠씨에스로직 Stereophonic effect generating method in digital compression audio
KR20050088567A (en) * 2004-03-02 2005-09-07 엘지전자 주식회사 Midi synthesis method of wave table base
KR20060030348A (en) * 2004-10-05 2006-04-10 권종현 Functional music file generation method and apparatus for and method of playing the file
KR20050074935A (en) * 2005-05-20 2005-07-19 주식회사 엔터기술 A digital audio player and the playing method thereof

Also Published As

Publication number Publication date
KR20060079865A (en) 2006-07-07

Similar Documents

Publication Publication Date Title
KR100571824B1 (en) Method for encoding/decoding of embedding the ancillary data in MPEG-4 BSAC audio bitstream and apparatus using thereof
JP3354863B2 (en) Audio data encoding / decoding method and apparatus with adjustable bit rate
AU2002318813B2 (en) Audio signal decoding device and audio signal encoding device
KR101171098B1 (en) Scalable speech coding/decoding methods and apparatus using mixed structure
USRE46082E1 (en) Method and apparatus for low bit rate encoding and decoding
KR100634506B1 (en) Low bitrate decoding/encoding method and apparatus
US8457958B2 (en) Audio transcoder using encoder-generated side information to transcode to target bit-rate
US20030215013A1 (en) Audio encoder with adaptive short window grouping
KR19980079475A (en) Audio encoding / decoding method and device with adjustable bit rate
KR20110021803A (en) Factorization of overlapping transforms into two block transforms
KR20070037945A (en) Audio encoding/decoding method and apparatus
CN101162584A (en) Method and apparatus to encode and decode audio signal by using bandwidth extension technique
KR20100089772A (en) Method of coding/decoding audio signal and apparatus for enabling the method
JP3765171B2 (en) Speech encoding / decoding system
JP2003108197A (en) Audio signal decoding device and audio signal encoding device
US20040107090A1 (en) Audio decoding method and apparatus for reconstructing high frequency components with less computation
JP2001044847A (en) Reversible coding method, reversible decoding method, system adopting the methods and each program recording medium
KR100694395B1 (en) MIDI synthesis method of wave table base
US7020603B2 (en) Audio coding and transcoding using perceptual distortion templates
US20040083094A1 (en) Wavelet-based compression and decompression of audio sample sets
KR100655553B1 (en) Method of midi synthesizing based on wav table
US20060009967A1 (en) Sinusoidal audio coding with phase updates
JP2796408B2 (en) Audio information compression device
KR100338801B1 (en) digital data encoder/decoder method and apparatus
JP2004246038A (en) Speech or musical sound signal encoding method, decoding method, encoding device, decoding device, encoding program, and decoding program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee