JPH01219627A - Automatic score taking method and apparatus - Google Patents

Automatic score taking method and apparatus

Info

Publication number
JPH01219627A
JPH01219627A JP4611788A JP4611788A JPH01219627A JP H01219627 A JPH01219627 A JP H01219627A JP 4611788 A JP4611788 A JP 4611788A JP 4611788 A JP4611788 A JP 4611788A JP H01219627 A JPH01219627 A JP H01219627A
Authority
JP
Japan
Prior art keywords
pitch
acoustic signal
length
section
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4611788A
Other languages
Japanese (ja)
Other versions
JP2604404B2 (en
Inventor
Shichiro Tsuruta
鶴田 七郎
Hironori Takashima
洋典 高島
Masaki Fujimoto
正樹 藤本
Masanori Mizuno
水野 正典
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NIPPON DENKI GIJUTSU JOHO SYST KAIHATSU KK
NEC Home Electronics Ltd
NEC Corp
Original Assignee
NIPPON DENKI GIJUTSU JOHO SYST KAIHATSU KK
NEC Home Electronics Ltd
NEC Corp
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NIPPON DENKI GIJUTSU JOHO SYST KAIHATSU KK, NEC Home Electronics Ltd, NEC Corp, Nippon Electric Co Ltd filed Critical NIPPON DENKI GIJUTSU JOHO SYST KAIHATSU KK
Priority to JP63046117A priority Critical patent/JP2604404B2/en
Priority to US07/315,761 priority patent/US5038658A/en
Priority to CA000592347A priority patent/CA1337728C/en
Publication of JPH01219627A publication Critical patent/JPH01219627A/en
Application granted granted Critical
Publication of JP2604404B2 publication Critical patent/JP2604404B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)

Abstract

PURPOSE:To enhance the accuracy of segmentation, by performing segmentation processing for classifying an input acoustic signal into a section regarded as the same sound and finely dividing a section having a length equal to or more than the reference length extracted from the length of the section. CONSTITUTION:The digital acoustic signal such as singing passing through an acoustic signal input apparatus 8 and an A/D converter 8 by a CPU 1 corresponding to the order from a keyboard 4 is stored in the auxiliary memory device 6 of a working memory and the program from a main memory device 3 is executed. The pitch data of the acoustic signal is extracted to perform segmentation processing for dividing the acoustic signal into a section regarding the acoustic signal as the same sound. Subsequently, a reference length is extracted on the basis of the length of the section and the section of the reference length or more is subjected to finely dividing segmentation processing based on the reference length to exclude a section containing two or more sounds caused by the fluctuation of power data and the accuracy of segmentation is enhanced to perform highly accurate score taking processing.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、歌唱音声やハミング音声や楽器音等の音響信
号から楽譜データを作成する自動採譜方法及び装置に関
し、特に音響信号を同一音程とみなせる区間に区分する
セグメンテーション処理に関するものである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to an automatic musical notation method and apparatus for creating musical score data from acoustic signals such as singing voices, humming voices, musical instrument sounds, etc. This relates to segmentation processing that divides into segments that can be considered.

[従来の技術] 歌唱音声やハミング音声や楽器音等の音響信号を楽譜デ
ータに変換する自動採譜方式においては、音響信号から
楽譜としての基本的な情報である音長、音程、調、拍子
及びテンポを検出することを有する。
[Prior Art] In an automatic score transcription system that converts acoustic signals such as singing voices, humming voices, and musical instrument sounds into musical score data, the basic information of musical scores such as length, pitch, key, meter, and so on are extracted from the acoustic signals. It has to detect the tempo.

ところで、音響信号は基本波形の繰返し波形を連続的に
含む信号であるだけであり、上述した各情報を直ちに得
ることはできない。
By the way, the acoustic signal is only a signal that continuously includes a repeating waveform of the basic waveform, and the above-mentioned information cannot be obtained immediately.

そこで、従来の自動採譜方式においては、まず、音響信
号の基本波形の繰返し情報(以下、ピッチ情報と呼ぶ)
及びパワー情報を分析周期毎に抽出し、その後、少なく
とも抽出されたパワー情報から音響信号を同一音程とみ
なせる区間(セグメント)に区分しくかかる処理をセグ
メンテーションと呼ぶ)、次いで、セグメントのピッチ
情報がら各セグメントの音響信号の音程として絶対音程
軸にそっな音程に同定し、ピッチ情報の分布に基づいて
音響信号の調を決定し、さらに、セグメントに基づいて
音響信号の拍子及びテンポを決定するという順序で各情
報を得ていた。
Therefore, in the conventional automatic score transcription method, first, the repetition information (hereinafter referred to as pitch information) of the basic waveform of the acoustic signal is
and power information are extracted for each analysis cycle, and then the acoustic signal is divided into sections (segments) that can be considered to have the same pitch based on at least the extracted power information (segmentation). The sequence of identifying the pitch of the acoustic signal of a segment as a pitch along the absolute pitch axis, determining the key of the acoustic signal based on the distribution of pitch information, and further determining the time signature and tempo of the acoustic signal based on the segment. I was getting all the information.

従って、音程、拍子、テンポ等は、セグメント(音長)
に基づき決定されるので、セグメンテーション結果は、
特に楽譜データを作成する上で重要なものとなっている
Therefore, pitch, time signature, tempo, etc. are determined by segments (note lengths).
The segmentation result is determined based on
This is especially important when creating musical score data.

[発明が解決しようとする課題] しかしながら、セグメンテーションを実行する上での情
報たるパワー情報及び又はピッチ情報は、揺らぎを有す
るため、2音以上を1つのセグメントにする場合もあっ
た。
[Problems to be Solved by the Invention] However, since the power information and/or pitch information, which is information used to perform segmentation, has fluctuations, two or more notes may be combined into one segment.

上述のように、セグメンテーションは楽譜データを作成
する上で重要な要素であり、セグメンテーションの精度
が低いと、同定された音程も誤ったものとなる可能性が
多く、最終的に得られる楽譜データの精度も著しく低く
なるので、ピッチ情報に基づくセグメンテーション結果
及びパワー情報に基づくセグメンテーション結果の両者
から最終的にセグメンテーションを行なう場合、または
パワー情報から最終的なセグメンテーションを行なう場
合共に、セグメンテーション処理自体の精度も向上する
ことが望まれる。
As mentioned above, segmentation is an important element in creating musical score data, and if the accuracy of segmentation is low, the identified pitches are likely to be incorrect, and the final score data The accuracy will also be significantly lower, so when final segmentation is performed from both the segmentation results based on pitch information and the segmentation results based on power information, or when the final segmentation is performed from power information, the accuracy of the segmentation process itself will also be lowered. It is hoped that this will improve.

本発明は、以上の点を考慮してなされたもので、セグメ
ンテーションの精度を向上させることができ、最終的な
楽譜データの精度を一段と向上させることのできる自動
採譜方法及び装置を提供しようとするものである。
The present invention has been made in consideration of the above points, and aims to provide an automatic score transcription method and device that can improve the accuracy of segmentation and further improve the accuracy of final musical score data. It is something.

[課題を解決するための手段] かかる課題を解決するため、第1の本発明においては、
入力された音響信号波形の繰返し周期であり、音高を表
すピッチ情報及び音響信号のパワー情報を抽出する処理
と、ピッチ情報及び又はパワー情報に基づいて音響信号
を同一音程とみなせる区間に区分する第1のセグメンテ
ーション処理と、ピッチ情報に基づいてこの区分された
区間の音程として絶対音程軸上の音程に同定する音程同
定処理と、同定された音程及びパワー情報に基づいて同
一音が複数の区間に分割されている場合を検出してその
連続区間をつなげて一つの区間とする第2のセグメンテ
ーション処理とを少なくとも含み、音響信号を楽譜デー
タに変換する自動採譜方法において、第1のセグメンテ
ーション処理によって区分された各区間の長さに基づい
て所定の音符の時間長に相当する基準長を抽出する基準
長抽出処理と、抽出された基準長に基づいて区分された
区間のうち所定の長さ以上のものを細区分する区間細区
分処理とを、音程同定処理の前処理として設けた。
[Means for solving the problem] In order to solve the problem, in the first invention,
It is the repetition period of the input acoustic signal waveform, and includes processing to extract pitch information representing the pitch and power information of the acoustic signal, and dividing the acoustic signal into sections that can be considered to have the same pitch based on the pitch information and/or power information. a first segmentation process, an interval identification process that identifies the interval on the absolute pitch axis as the interval of the segmented interval based on the pitch information, and an interval identification process that identifies the interval on the absolute interval axis based on the identified interval and power information, and the same note is divided into multiple intervals based on the identified interval and power information. In an automatic music score method for converting an acoustic signal into musical score data, the method includes at least a second segmentation process that detects cases where the continuous sections are divided into one section and connects the continuous sections to form one section. A standard length extraction process that extracts a standard length corresponding to the time length of a predetermined note based on the length of each divided section, and a standard length extraction process that extracts a standard length corresponding to the time length of a predetermined note based on the length of each divided section, and extracts a standard length that is longer than a predetermined length among the divided sections based on the extracted standard length. An interval subdivision process for subdividing something is provided as a preprocessing for the pitch identification process.

また、第2の本発明においては、入力された音響信号波
形の繰返し周期であり、音高を表すピッチ情報及び音響
信号のパワー情報を抽出する手段と、ピッチ情報及び又
はパワー情報に基づいて音響信号を同一音程とみなせる
区間に区分する第1のセグメンテーション手段と、ピッ
チ情報に基づいてこの区分された区間の音程として絶対
音程軸上の音程に同定する音程同定手段と、同定された
音程及びパワー情報に基づいて同一音が複数の区間に分
割されている場合を検出してその連続区間をつなげて一
つの区間とする第2のセグメンテーション手段とを一部
に備えて音響信号を楽譜データに変換する自動採譜装置
において、第1のセグメンテーション手段によって区分
された各区間の長さに基づいて所定の音符の時間長に相
当する基準長を抽出する基準長抽出手段と、抽出された
基準長に基づいて区分された区間のうち所定の長さ以上
のものを細区分する区間細区分手段とを、音程同定手段
の前段に設けた。
Further, in the second aspect of the present invention, there is provided a means for extracting pitch information and power information of the acoustic signal, which is the repetition period of the input acoustic signal waveform and represents the pitch, and an acoustic signal based on the pitch information and/or the power information. a first segmentation means that divides the signal into intervals that can be considered to be the same pitch; a pitch identification means that identifies the interval on the absolute pitch axis as the pitch of the divided interval based on pitch information; and the identified pitch and power. A second segmentation means detects when the same sound is divided into a plurality of sections based on the information and connects the continuous sections to form one section, and converts the acoustic signal into musical score data. In the automatic score transcription apparatus, a reference length extraction means extracts a reference length corresponding to the time length of a predetermined note based on the length of each section divided by the first segmentation means; A section subdivision means for subdividing the sections having a predetermined length or more among the sections divided by the pitch identification means is provided at a stage preceding the pitch identification means.

[作用] 第1の本発明においては、第1のセグメンテーション処
理で区分して同一音と考えられる区間に切り分けてもセ
グメンテーションの元となるピッチ情報及び又はパワー
情報が揺らぎを有しているので2音以上を一つの区間と
することもあることに鑑み、各区間の長さに基づいて所
定の音符の時間長に相当する基準長を抽出し、その基準
長に基づいて所定の長さ以上の長さを有する区間を細区
分するようにした。これにより、2音以上を含む区間を
排除するようにした。なお、第2のセグメンテーション
処理により1音を意図しているにも拘らず、2以上の区
間に分けられた区間はつなげられる。
[Operation] In the first aspect of the present invention, even if the first segmentation process divides the sound into sections that are considered to be the same sound, the pitch information and/or power information that is the source of segmentation has fluctuations. Considering that more than one note may be considered as one section, a standard length corresponding to the time length of a predetermined note is extracted based on the length of each section, and based on that standard length, a period longer than the predetermined length is Sections with length are subdivided. As a result, sections containing two or more tones are excluded. Note that the second segmentation process connects the sections divided into two or more sections even though one note is intended.

また、第2の本発明においても、同様な点に着目し、基
準長抽出手段によって基準長を抽出し、細区分手段によ
ってその基準長に基づいて所定の長さ以上の区間を細区
分するようにした。
Also, in the second invention, focusing on the same point, the reference length is extracted by the reference length extraction means, and the section having a predetermined length or more is subdivided based on the reference length by the subdivision means. I made it.

し実施例] 以下、本発明の一実施例を図面を参照しながら詳述する
Embodiment] Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings.

且勉採証方式 まず、本発明が適用される自動採譜方式について説明す
る。
First, an automatic score transcription method to which the present invention is applied will be explained.

第3図において、中央処理ユニット(CPU)1は、当
該装置の全体を制御するものであり、バス2を介して接
続されている主記憶装置3に格納されている第4図に示
す採譜処理プログラムを実行するものである。バス2に
は、CPUI及び主記憶装置3に加えて、入力装置とし
てのキーボード4、出力装置としての表示装置5、ワー
キングメモリとして用いられる補助記憶装置6及びアナ
ログ/デジタル変換器7が接続されている。
In FIG. 3, a central processing unit (CPU) 1 controls the entire device, and performs the music transcription process shown in FIG. 4 stored in a main storage device 3 connected via a bus 2. It executes the program. Connected to the bus 2 are a keyboard 4 as an input device, a display device 5 as an output device, an auxiliary storage device 6 used as a working memory, and an analog/digital converter 7, in addition to the CPUI and main storage device 3. There is.

アナログ/デジタル変換器7には、例えば、マイクロフ
ォンでなる音響信号入力装置8が接続されている。この
音響信号入力装置8は、ユーザによって発声された歌唱
やハミングや、楽器から発生された楽音等の音響信号を
捕捉して電気信号に変換するものであり、その電気信号
をアナログ/デジタル変換器7に出力するものである。
Connected to the analog/digital converter 7 is an acoustic signal input device 8 consisting of, for example, a microphone. This acoustic signal input device 8 captures acoustic signals such as singing or humming vocalized by a user, or musical sounds generated from musical instruments, and converts them into electrical signals, and converts the electrical signals into electrical signals. 7.

CPUIは、キーボード入力装置4によって処理が指令
されたとき、当該採譜処理を開始し、主記憶装置3に格
納されているプログラムを実行してアナログ/デジタル
変換器7によってデジタル信号に変換された音響信号を
一旦補助記憶装置6に格納し、その後、これら音響信号
を上述のプログラムを実行して楽譜データに変換して必
要に応じて表示装置5に出力するようになされている。
When the processing is instructed by the keyboard input device 4, the CPU starts the music transcription processing, executes the program stored in the main storage device 3, and converts the sound converted into a digital signal by the analog/digital converter 7. The signals are temporarily stored in the auxiliary storage device 6, and then the above-mentioned program is executed to convert these acoustic signals into musical score data, which is output to the display device 5 as necessary.

次に、CPUIが実行する音響信号を収り込んだ後の採
譜処理を第4図の機能レベルで示すフローチャートに従
って詳述する。
Next, the score transcription process performed by the CPU after capturing the audio signal will be described in detail according to the flowchart shown at the functional level in FIG. 4.

まず、CPUIは、音響信号を自己相関分析して分析周
期毎に音響信号のピッチ情報を抽出し、また2乗和処理
して分析周期毎にパワー情報を抽出し、その後ノイズ除
去や平滑化処理等の後処理を実行する(ステップSPI
、5P2)。その後、CPUIは、ピッチ情報について
は、その分布状況に基づいて絶対音程軸に対する音響信
号の音程軸のずれ量を算出し、得られたピッチ情報をそ
のずれ量に応じてシフトさせるチューニング処理を実行
する(ステップ5P3)。すなわち、音響信号を発生し
た歌唱者または楽器の音程軸と絶対音程軸との差が小さ
くなるようにピッチ情報を修正する。
First, the CPU performs autocorrelation analysis on the acoustic signal to extract pitch information of the acoustic signal for each analysis period, performs sum-of-squares processing to extract power information for each analysis period, and then performs noise removal and smoothing processing. Execute post-processing such as (step SPI
, 5P2). After that, the CPU calculates the amount of deviation of the pitch axis of the acoustic signal from the absolute pitch axis based on the distribution status of the pitch information, and executes tuning processing to shift the obtained pitch information according to the amount of deviation. (Step 5P3). That is, the pitch information is corrected so that the difference between the pitch axis of the singer or musical instrument that generated the acoustic signal and the absolute pitch axis becomes small.

次いで、CPUIは、得られたピッチ情報が同一音程を
指示するものと考えられるピッチ情報の連続期間を得て
、音響信号を1音ごとのセグメントに切り分けるセグメ
ンテーションを実行し、また、得られたパワー情報の変
化に基づいてセグメンテーションを実行する(ステップ
SP4.5P5)。これら得られた両者のセグメント情
報に基づいて、CPUIは、4分音符や8分音符等の時
間長に相当する基準長を算出してこの基準長に基づいて
より詳細にセグメンテーションを実行する(ステップ5
P6)。
Next, the CPU obtains continuous periods of pitch information in which the obtained pitch information is considered to indicate the same pitch, performs segmentation to cut the acoustic signal into segments for each note, and also calculates the obtained power. Segmentation is performed based on changes in information (step SP4.5P5). Based on the obtained segment information, the CPU calculates a reference length corresponding to the time length of a quarter note, an eighth note, etc., and executes segmentation in more detail based on this reference length (step 5
P6).

CPUIは、このようにしてセグメンテーションされた
セグメントのピッチ情報に基づきそのピッチ情報が最も
近いと判断できる絶対音程軸上の音程にそのセグメント
の音程を同定し、さらに、同定された連続するセグメン
トの音程が同一か否かに基づいてセグメンテーションの
見直しを実行する(ステップSP7.5P8)。
Based on the pitch information of the segments segmented in this way, the CPUI identifies the pitch of the segment to the pitch on the absolute pitch axis that can be determined to be closest to the pitch information, and further identifies the pitch of the identified continuous segment. The segmentation is reviewed based on whether or not they are the same (step SP7.5P8).

その後、CPUIは、チューニング処理後のピッチ情報
を集計して得た音程の出現頻度と、調に応じて定まる所
定の重み付は係数との積和を求めてこの積和の最大情報
に基づいて、例えば、ハ長調やイ短調というように入力
音響信号の楽曲の調を決定し、決定された調における音
階の所定の音程についてその音程をピッチ情報について
見直して音程を確認、修正する(ステップSP9.5P
10)。次いで、CPUIは、最終的に決定された音程
から連続するセグメントについて同一なものがあるか否
か、また連続するセグメント間でパワーの変化があるか
否かに基づいてセグメンテーションの見直しを実行し、
必要ならばセグメントをつなげて最終的なセグメンテー
ションを行なう(ステップ5PII)。
After that, the CPU calculates the product sum of the appearance frequency of the pitch obtained by summing up the pitch information after the tuning process and the predetermined weighting coefficient determined according to the key, and calculates the product sum based on the maximum information of this product sum. For example, the key of the music of the input acoustic signal is determined, such as C major or A minor, and the pitch information is reviewed for a predetermined interval of the scale in the determined key to confirm and correct the interval (step SP9 .5P
10). Then, the CPUI performs a segmentation review based on whether consecutive segments from the finally determined pitch are the same and whether there is a change in power between consecutive segments;
If necessary, connect the segments for final segmentation (step 5PII).

このようにして音程及びセグメントが決定されると、C
PUIは、楽曲は1拍目から始まる、フレーズの最後の
音は次の小節にまたがらない、小節ごとに切れ目がある
等の観点から小節を抽出し、この小節情報及びセグメン
テーション情報から拍子を決定し、この決定された拍子
情報及び小節の長さからテンポを決定する(ステップ5
P12.5P13)。
Once the pitch and segment are determined in this way, C
PUI extracts measures from the viewpoints of whether a song starts from the first beat, the last note of a phrase does not span the next measure, or there is a break between each measure, and determines the time signature from this measure information and segmentation information. Then, the tempo is determined from this determined time signature information and measure length (step 5).
P12.5P13).

そして、CPUIは決定された音程、音長、調、拍子及
びテンポの情報を整理して最終的に楽譜データを作成す
る(ステップ5P14>。
The CPU then organizes the determined pitch, length, key, time signature, and tempo information and finally creates musical score data (Step 5P14>).

セ メンテーシ ンの 育  1 次に、このような自動採譜方式におけるセグメンテーシ
ョンの見直し処理(ステップSP6参照)について、第
1図のフローチャートを用いて詳述する。
Developing Cementation 1 Next, the segmentation review process (see step SP6) in such an automatic music transcription method will be described in detail using the flowchart in FIG.

なお、このような見直し処理は、セグメントが誤って2
音以上含むように区分された場合には、その同定音程も
誤ったものとなる可能性が強く楽譜データの精度を低下
させるので、音程同定処理前において予めセグメントを
細分しておき、そのセグメントで音程同定を実行させて
音程同定処理の精度を向上させようにするために設けら
れた。
Note that such a review process may result in segments being incorrectly
If the segment is segmented to include more than one note, there is a strong possibility that the identified pitch will be incorrect, reducing the accuracy of the score data. Therefore, before the pitch identification process, subdivide the segment in advance and It is provided to execute pitch identification and improve the accuracy of pitch identification processing.

この場合、1音を2以上のセグメントに区分することも
考えられるが、上述したステップ5PIIのセグメンテ
ーション処理で同定音程及びパワー情報に基づいて1音
と考えられるセグメントをつなげるので問題となること
はない。
In this case, it is conceivable to divide one note into two or more segments, but this does not pose a problem because segments considered to be one note are connected based on the identified pitch and power information in the segmentation process in Step 5 PII described above. .

CPUIは、かかるセグメンテーションの見直し処理に
おいては、まず、処理対象のセグメントが最後のセグメ
ントでないことを確認して当該セグメントの長さと全体
のセグメンテーション結果とのマツチングを実行する(
ステップ5P20.21)。
In the segmentation review process, the CPU first checks that the segment to be processed is not the last segment, and then matches the length of the segment with the overall segmentation result (
Step 5P20.21).

ここで、マツチングとは、当該セグメントの長さの整数
分の1または整数倍の値と他のセグメントの長さとの差
の絶対値の総和、及び、当該セグメントの長さの整数分
の1または整数倍の値と他のセグメントの長さが一致し
ない回数(ミスマッ千回数)を求めることをいう。なお
、この実施例の場合、マツチングの相手となる他のセグ
メントは、ピッチ情報に基づいて得られたセグメント及
びパワー情報に基づいて得られたセグメントの両者にな
る。
Here, matching refers to the sum of the absolute values of the differences between an integral fraction or multiple of the length of the segment and the length of another segment, and This means finding the number of times the length of an integer multiple does not match the length of another segment (1,000 mismatches). In this embodiment, the other segments to be matched are both the segment obtained based on the pitch information and the segment obtained based on the power information.

例えば、前段のセグメンテーション処理(ステップSP
4.5)で第2図に示すような10個のセグメントに区
分された場合であって第1のセグメントS1が処理対象
の場合、このマツチング処理によって差の総和情報とし
ては、rl+3+1−ト1+5+O+0+1+9=21
Jが得られ、ミスマツチ回数としては7回が得られる。
For example, the previous segmentation process (step SP
4.5), when the first segment S1 is divided into 10 segments as shown in FIG. =21
J is obtained, and the number of mismatches is 7.

CPUIは、このようにして処理対象のセグメントにつ
いてミスマツチ回数及びその程度(差の総和情報)が得
られると、補助記憶装置6に格納した後、処理対象セグ
メントを次のセグメントとして上述のステップ5P20
に戻る(ステップ5P22)。
When the CPUI obtains the number of mismatches and its degree (total difference information) for the segment to be processed in this way, the CPU stores it in the auxiliary storage device 6 and then sets the segment to be processed as the next segment to step 5P20 described above.
Return to step 5P22.

かかるステップ5P20〜22でなる処理ループを繰り
返すことにより、全てのセグメントについてミスマツチ
回数及びその程度の情報が得られ、やがて、ステップ5
P20において肯定結果が得られる。このとき、CPU
Iは、補助記憶装置6に格納されている全てのミスマツ
チ回数及びその程度の情報から、これらが最も小さいセ
グメント長に基づいて基準長を決定する(ステップ5P
24)。ここで、基準長とは、4分音符(または8分音
符)に相当する時間長をいう。
By repeating the processing loop consisting of Steps 5P20 to 22, information on the number of mismatches and its degree can be obtained for all segments, and eventually Step 5P20-22 is repeated.
A positive result is obtained at P20. At this time, the CPU
I determines a reference length based on the segment length with the smallest mismatch count and degree information stored in the auxiliary storage device 6 (step 5P).
24). Here, the reference length refers to a time length corresponding to a quarter note (or eighth note).

第2図の例の場合、ミスマツチ回数及びその程度が最も
小さいセグメント長として「60」が抽出され、この長
さ「60」の2倍のr120Jが基準長として選定され
る。実際上、4分音符に対する時間長が取り得る長さは
、所定範囲の値であり、かかる観点から「60」ではな
く、r120Jが基準長として抽出される。
In the case of the example shown in FIG. 2, "60" is extracted as the segment length with the smallest number of mismatches and its degree, and r120J, which is twice this length "60", is selected as the reference length. In reality, the length that the time length for a quarter note can take is a value within a predetermined range, and from this point of view, r120J is extracted as the reference length instead of "60".

基準長を抽出すると、CPUIは概ね基準長より長いセ
グメントを基準長の半分の植菌後でそのセグメントを細
区分し、かかるセグメンテーションの見直し処理を終了
する(ステップ5P25)。
After extracting the reference length, the CPUI subdivides the segment approximately longer than the reference length after inoculating half of the reference length, and ends the segmentation review process (step 5P25).

第2図の例の場合、第5のセグメントS5を「61」と
「60」に細区分し、第6のセグメントS6を「63」
と「62」に細区分し、第9のセグメントS9を「60
」と「59」に細区分し、第10のセグメントSIOを
「58」、「58」、「58」、「57」に細区分する
In the example of FIG. 2, the fifth segment S5 is subdivided into "61" and "60", and the sixth segment S6 is divided into "63".
and “62”, and the ninth segment S9 is divided into “60” and “62”.
” and “59”, and the tenth segment SIO is subdivided into “58”, “58”, “58”, and “57”.

従って、上述の実施例によれば、2音以上を一つのセグ
メントとしてセグメンテーションされた場合にも、細区
分することができ、音程の同定処理や音程の修正処理等
の処理を正確に実行させることができる。
Therefore, according to the above-described embodiment, even when two or more tones are segmented as one segment, it is possible to subdivide them, and it is possible to accurately perform processes such as pitch identification processing and pitch correction processing. Can be done.

かくするにつき、同一音と考えられるセグメントをつな
げる処理が後処理として設けられているので、1音が誤
って2以上のセグメントに区分されたままとなることは
ない。
In this case, since post-processing is provided to connect segments considered to be the same sound, one sound will not remain erroneously divided into two or more segments.

卸ム実施馴 なお、上述の実施例においては、基準長をミスマツチ回
数及びその程度に基づいて抽出するものを示したが、セ
グメント長の発生頻度に基づいて抽出するようにしても
良い。
In addition, in the above-described embodiment, the reference length is extracted based on the number of mismatches and the degree thereof, but the reference length may be extracted based on the frequency of occurrence of segment lengths.

また、上述の実施例においては、4分音符に対応する時
間長を基準長としたものを示したが、8分音符に対応す
る時間長を基準長とするようにしても良い。この場合に
は、基準長の半分の長さで細区分するのではなく、基準
長自体で細区分することになる。
Further, in the above-described embodiment, the time length corresponding to a quarter note is used as the reference length, but the time length corresponding to an eighth note may be used as the reference length. In this case, instead of subdividing by half the standard length, subdivision is performed by the standard length itself.

さらに、上述の実施例においては、ピッチ情報及びパワ
ー情報に基づくセグメンテーションの両者を有するもの
に適用したものを示したが、少なくともパワー情報に基
づくセグメンテーション処理を有する自動採譜方式に対
して本発明を適用することができる。
Furthermore, although the above-described embodiments have been applied to a method having segmentation based on both pitch information and power information, the present invention is applicable to at least an automatic music transcription method having segmentation processing based on power information. can do.

さらにまた、上述の実施例においては、第4図に示す全
ての処理をCPUIが主記憶装置3に格納されているプ
ログラムに従って実行するものを示したが、その一部ま
たは全部の処理をハードウェア構成で実行するようにし
ても良い。例えば、第3図との対応部分に同一符号を付
した第5図に示すように、音響信号入力装置8からの音
響信号を増幅回路10を介して増幅した後、さらに前置
フィルタ11を介してアナログ/デジタル変換器12に
与えてデジタル信号に変換し、このデジタル信号に変換
された音響信号を信号処理プロセッサ13が自己相関分
析してピッチ情報を抽出し、また2乗和処理してパワー
情報を抽出してCPU1によるソフトウェア処理系に与
えるようにしても良い。このようなハードウェア構成(
10〜13)に用いられる信号処理プロセッサ13とし
ては、音声帯域の信号をリアルタイム処理し得ると共に
、ホストのCPUIとのインタフェース信号が用意され
ているプロセッサ(例えば、日本電気株式会社製μP 
D 7720)を適用し得る。
Furthermore, in the above-described embodiment, all the processes shown in FIG. It may also be executed in the configuration. For example, as shown in FIG. 5, in which parts corresponding to those in FIG. The signal processing processor 13 performs autocorrelation analysis on the acoustic signal converted to the digital signal to extract pitch information, and performs sum-of-squares processing to obtain power. The information may be extracted and provided to a software processing system by the CPU 1. Hardware configuration like this (
As the signal processing processor 13 used in 10 to 13), a processor that can process audio band signals in real time and has an interface signal with the host CPU (for example, NEC Corporation's μP
D 7720) may be applied.

[発明の効果] 以上のように、本発明によれば、4分音符または8分音
符に相当する基準長を抽出してこの基準長に基づいて既
に得られたヤグメントを細区分するようにしなので、音
程同定処理等の後処理の精度を一段と向上させることが
でき、最終的な楽譜データの精度を向上させることがで
きる。
[Effects of the Invention] As described above, according to the present invention, a reference length corresponding to a quarter note or an eighth note is extracted and an already obtained segment is subdivided based on this reference length. , the accuracy of post-processing such as pitch identification processing can be further improved, and the accuracy of final musical score data can be improved.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例にかかるセグメンテーション
の見直し処理を示すフローチャート、第2図はその見直
し処理の説明に供する路線図、第3図は本発明を適用す
る自動採譜方式の構成を示すブロック図、第4図はその
自動採譜処理手順を示すフローチャート、第5図は自動
採譜方式の他の構成を示すブロック図である。 1・・・CPU、3・・・主記憶装置、6・・・補助記
憶装置、7・・・アナロタ/デジタル変換器、8・・・
音響信号入力装置。
FIG. 1 is a flowchart showing a segmentation review process according to an embodiment of the present invention, FIG. 2 is a route map for explaining the review process, and FIG. 3 is a diagram showing the configuration of an automatic music transcription system to which the present invention is applied. FIG. 4 is a flowchart showing the automatic music transcription processing procedure, and FIG. 5 is a block diagram showing another configuration of the automatic music transcription method. 1... CPU, 3... Main storage device, 6... Auxiliary storage device, 7... Analog/digital converter, 8...
Acoustic signal input device.

Claims (2)

【特許請求の範囲】[Claims] (1)入力された音響信号波形の繰返し周期であり、音
高を表すピッチ情報及び上記音響信号のパワー情報を抽
出する処理と、上記ピッチ情報及び又は上記パワー情報
に基づいて上記音響信号を同一音程とみなせる区間に区
分する第1のセグメンテーション処理と、上記ピッチ情
報に基づいてこの区分された区間の音程として絶対音程
軸上の音程に同定する音程同定処理と、同定された音程
及び上記パワー情報に基づいて同一音が複数の上記区間
に分割されている場合を検出してその連続区間をつなげ
て一つの区間とする第2のセグメンテーション処理とを
少なくとも含み、上記音響信号を楽譜データに変換する
自動採譜方法において、上記第1のセグメンテーション
処理によって区分された各区間の長さに基づいて所定の
音符の時間長に相当する基準長を抽出する基準長抽出処
理と、抽出された基準長に基づいて区分された上記区間
のうち所定の長さ以上のものを細区分する区間細区分処
理とを、上記音程同定処理の前処理として設けたことを
特徴とする自動採譜方法。
(1) Process of extracting pitch information representing the pitch and power information of the acoustic signal, which is the repetition period of the input acoustic signal waveform, and matching the acoustic signal based on the pitch information and/or the power information. A first segmentation process that divides into intervals that can be regarded as intervals; an interval identification process that identifies intervals on the absolute pitch axis as intervals in this divided interval based on the pitch information; and the identified interval and the power information. converting the acoustic signal into musical score data, including at least a second segmentation process that detects when the same sound is divided into a plurality of sections based on the above, and connects the continuous sections to form one section; In the automatic music transcription method, a standard length extraction process that extracts a standard length corresponding to the time length of a predetermined note based on the length of each section divided by the first segmentation process; An automatic musical notation method characterized in that a section subdivision process for subdividing sections having a predetermined length or more out of the sections divided by the interval is provided as a preprocessing of the pitch identification process.
(2)入力された音響信号波形の繰返し周期であり、音
高を表すピッチ情報及び上記音響信号のパワー情報を抽
出する手段と、上記ピッチ情報及び又は上記パワー情報
に基づいて上記音響信号を同一音程とみなせる区間に区
分する第1のセグメンテーション手段と、上記ピッチ情
報に基づいてこの区分された区間の音程として絶対音程
軸上の音程に同定する音程同定手段と、同定された音程
及び上記パワー情報に基づいて同一音が複数の上記区間
に分割されている場合を検出してその連続区間をつなげ
て一つの区間とする第2のセグメンテーション手段とを
一部に備えて上記音響信号を楽譜データに変換する自動
採譜装置において、 上記第1のセグメンテーション手段によつて区分された
各区間の長さに基づいて所定の音符の時間長に相当する
基準長を抽出する基準長抽出手段と、抽出された基準長
に基づいて区分された上記区間のうち所定の長さ以上の
ものを細区分する区間細区分手段とを、上記音程同定手
段の前段に設けたことを特徴とする自動採譜装置。
(2) means for extracting pitch information representing the pitch and power information of the acoustic signal, which is a repetition period of the input acoustic signal waveform; and a means for extracting the pitch information indicating the pitch and the power information of the acoustic signal; a first segmentation means for dividing into intervals that can be regarded as intervals; an interval identification means for identifying intervals on the absolute interval axis as intervals in the divided intervals based on the pitch information; and information on the identified intervals and the power. and a second segmentation means that detects when the same sound is divided into a plurality of sections based on the above-mentioned section and connects the continuous sections to form one section, and converts the acoustic signal into musical score data. In the automatic score transcription apparatus for converting, a reference length extraction means extracts a reference length corresponding to the time length of a predetermined note based on the length of each section divided by the first segmentation means; An automatic score transcription apparatus characterized in that a section subdivision means for subdividing sections having a predetermined length or more among the sections divided based on a reference length is provided at a stage upstream of the pitch identification means.
JP63046117A 1988-02-29 1988-02-29 Automatic music transcription method and device Expired - Lifetime JP2604404B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP63046117A JP2604404B2 (en) 1988-02-29 1988-02-29 Automatic music transcription method and device
US07/315,761 US5038658A (en) 1988-02-29 1989-02-27 Method for automatically transcribing music and apparatus therefore
CA000592347A CA1337728C (en) 1988-02-29 1989-02-28 Method for automatically transcribing music and apparatus therefore

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63046117A JP2604404B2 (en) 1988-02-29 1988-02-29 Automatic music transcription method and device

Publications (2)

Publication Number Publication Date
JPH01219627A true JPH01219627A (en) 1989-09-01
JP2604404B2 JP2604404B2 (en) 1997-04-30

Family

ID=12738051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63046117A Expired - Lifetime JP2604404B2 (en) 1988-02-29 1988-02-29 Automatic music transcription method and device

Country Status (1)

Country Link
JP (1) JP2604404B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207455A (en) * 1996-11-20 1998-08-07 Yamaha Corp Sound signal analyzing device and its method
JP2004334240A (en) * 1996-11-20 2004-11-25 Yamaha Corp Sound signal analysis device and method
JP2004334238A (en) * 1996-11-20 2004-11-25 Yamaha Corp Sound signal analyzing device and method
JP2006227429A (en) * 2005-02-18 2006-08-31 Doshisha Method and device for extracting musical score information

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10207455A (en) * 1996-11-20 1998-08-07 Yamaha Corp Sound signal analyzing device and its method
JP2004334240A (en) * 1996-11-20 2004-11-25 Yamaha Corp Sound signal analysis device and method
JP2004334238A (en) * 1996-11-20 2004-11-25 Yamaha Corp Sound signal analyzing device and method
JP2006227429A (en) * 2005-02-18 2006-08-31 Doshisha Method and device for extracting musical score information

Also Published As

Publication number Publication date
JP2604404B2 (en) 1997-04-30

Similar Documents

Publication Publication Date Title
JP2004538525A (en) Pitch determination method and apparatus by frequency analysis
WO2006132599A1 (en) Segmenting a humming signal into musical notes
JP2604410B2 (en) Automatic music transcription method and device
JPH01219627A (en) Automatic score taking method and apparatus
JP5153517B2 (en) Code name detection device and computer program for code name detection
JP3001353B2 (en) Automatic transcription device
EP0367191B1 (en) Automatic music transcription method and system
US20040158437A1 (en) Method and device for extracting a signal identifier, method and device for creating a database from signal identifiers and method and device for referencing a search time signal
JPH01219636A (en) Automatic score taking method and apparatus
JP2653456B2 (en) Automatic music transcription method and device
JP2604405B2 (en) Automatic music transcription method and device
JP2604411B2 (en) Automatic music transcription method and device
JP2604409B2 (en) Automatic music transcription method and device
JP2604406B2 (en) Automatic music transcription method and device
JPH01219638A (en) Automatic score taking method and apparatus
JP2614631B2 (en) Automatic music transcription method and device
JP2604408B2 (en) Automatic music transcription method and device
JP2604400B2 (en) Pitch extraction method and extraction device
JP2604413B2 (en) Automatic music transcription method and device
JPH01219622A (en) Automatic score taking method and apparatus
JP2003216156A (en) Chord detector and program
JP2604407B2 (en) Automatic music transcription method and device
JPH01219625A (en) Automatic score taking method and apparatus
JPH01219626A (en) Automatic score taking method and apparatus
JPH01219889A (en) Method and device for pitch extraction

Legal Events

Date Code Title Description
S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080129

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090129

Year of fee payment: 12

EXPY Cancellation because of completion of term
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090129

Year of fee payment: 12