JPH01219888A - Method and device for automatic sampling - Google Patents

Method and device for automatic sampling

Info

Publication number
JPH01219888A
JPH01219888A JP63046121A JP4612188A JPH01219888A JP H01219888 A JPH01219888 A JP H01219888A JP 63046121 A JP63046121 A JP 63046121A JP 4612188 A JP4612188 A JP 4612188A JP H01219888 A JPH01219888 A JP H01219888A
Authority
JP
Japan
Prior art keywords
pitch
information
acoustic signal
interval
peak point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63046121A
Other languages
Japanese (ja)
Other versions
JP2653456B2 (en
Inventor
Shichiro Tsuruta
鶴田 七郎
Hironori Takashima
洋典 高島
Masaki Fujimoto
正樹 藤本
Masanori Mizuno
水野 正典
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NIPPON DENKI GIJUTSU JOHO SYST KAIHATSU KK
NEC Home Electronics Ltd
NEC Corp
Original Assignee
NIPPON DENKI GIJUTSU JOHO SYST KAIHATSU KK
NEC Home Electronics Ltd
NEC Corp
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NIPPON DENKI GIJUTSU JOHO SYST KAIHATSU KK, NEC Home Electronics Ltd, NEC Corp, Nippon Electric Co Ltd filed Critical NIPPON DENKI GIJUTSU JOHO SYST KAIHATSU KK
Priority to JP63046121A priority Critical patent/JP2653456B2/en
Priority to US07/315,761 priority patent/US5038658A/en
Priority to CA000592347A priority patent/CA1337728C/en
Publication of JPH01219888A publication Critical patent/JPH01219888A/en
Application granted granted Critical
Publication of JP2653456B2 publication Critical patent/JP2653456B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

PURPOSE:To accurately identify a musical interval by composing musical interval identification processing of processing for extracting the peak point of power information in each section and processing for determining a musical interval in the section as a musical interval on the absolute interval base where the pitch information on the extracted peak point is closest. CONSTITUTION:A 1st dotted-line PIT indicates pitch information on an acoustic signal and a 2nd dotted curve POW indicates power information, and a longitudinal solid line VR indicates breaks of segments. Pitch information for the rise peak point of the power information has small deviation in musical interval on the absolute interval base and a musical interval is identified excellently. For the purpose, the pitch information on the rise peak point of the power information in each segment is extracted and the musical interval of the segment is identified as the musical interval on the absolute interval base where the pitch information is closest, so the musical interval is determined with high accuracy. Thus, the musical interval of each segment is identified according to the pitch information on a sampling point where the power information of the segment is given the peak value, so the musical interval can be determined excellently and the accuracy of score data is improved more.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、歌唱音声やハミング音声や楽器音等の音響信
号から楽譜データを作成する自動採譜方法及び装置に関
し、特に、音響信号の所定区間の音程として絶対音程軸
上の音程に同定する音程同定処理に関するものである。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to an automatic musical notation method and apparatus for creating musical score data from acoustic signals such as singing voices, humming voices, musical instrument sounds, etc. The present invention relates to an interval identification process for identifying an interval on the absolute interval axis as an interval of .

[従来の技術] 歌唱音声やハミング音声や楽器音等の音響信号を楽譜デ
ータに変換する自動採譜方式においては、音響信号から
楽譜としての基本的な情報である音長、音程、調、拍子
及びテンポを検出することを有する。
[Prior Art] In an automatic score transcription system that converts acoustic signals such as singing voices, humming voices, and musical instrument sounds into musical score data, the basic information of musical scores such as length, pitch, key, meter, and so on are extracted from the acoustic signals. It has to detect the tempo.

ところで、音響信号は基本波形の繰返し波形を連続的に
含む信号であるだけであり、上述した各情報を直ちに得
ることはできない。
By the way, the acoustic signal is only a signal that continuously includes a repeating waveform of the basic waveform, and the above-mentioned information cannot be obtained immediately.

そこで、従来の自動採譜方式においては、まず、音響信
号の音高を表す基本波形の繰返し周波数情報(以下、ピ
ッチ情報と呼ぶ)及びパワー情報を分析周期毎に抽出し
、その後、抽出されたピッチ情報及び又はパワー情報か
ら音響信号を同一音程とみなせる区間(セグメント)に
区分しくかかる処理をセグメンテーションと呼ぶ)、次
いで、セグメン■・のピッチ情報から各セグメントの音
響信号の音程として絶対音程軸にそった音程を同定し、
ピッチ情報の音程軸周りの分布情報に基づいて音響信号
の調を決定し、さらに、セグメントに基づいて音響信号
の拍子及びテンポを決定するという順序で各情報を得て
いた。
Therefore, in the conventional automatic score transcription method, first, repetition frequency information (hereinafter referred to as pitch information) and power information of the basic waveform representing the pitch of the acoustic signal are extracted for each analysis period, and then the extracted pitch The process of dividing the acoustic signal into sections (segments) that can be considered to have the same pitch from the information and/or power information is called segmentation), and then calculates the pitch of the acoustic signal of each segment along the absolute pitch axis from the pitch information of the segments. identify the pitch,
Each piece of information was obtained in the following order: the key of the acoustic signal was determined based on the distribution information around the pitch axis of the pitch information, and the time signature and tempo of the acoustic signal were further determined based on the segment.

[発明が解決しようとする課題] ところで、音響信号のあるセグメントを絶対音程軸上の
音程として同定しようとしても、音響信号、特に人によ
って発声された音響信号は音程が安定しておらず、同一
音程を意図している場合であっても音程の揺らぎが多い
。そのため、音程同定処理を非常に難しいものとしてい
た。
[Problems to be Solved by the Invention] By the way, even if an attempt is made to identify a certain segment of an acoustic signal as a pitch on the absolute pitch axis, the pitch of an acoustic signal, especially an acoustic signal uttered by a person, is not stable and cannot be the same. Even when the pitch is intended, the pitch often fluctuates. This made pitch identification processing extremely difficult.

音程は、音長と共に楽譜データの基本的な要素であるの
で、正確に同定することが必要であり、正確に同定する
ことができない場合には、楽譜データの精度を低いもの
とする。
Since pitch is a basic element of musical score data along with note length, it is necessary to identify it accurately, and if it cannot be accurately identified, the accuracy of the musical score data is reduced.

本発明は、以上の点を考慮してなされたもので、音程を
正確に同定することのできる新規な音程同定方法を提案
し、最終的な楽譜データの精度を一段と向上させること
のできる自動採譜方法及び装置を提供しようとするもの
である。
The present invention has been made in consideration of the above points, and proposes a new pitch identification method that can accurately identify pitches, and an automatic transcription method that can further improve the accuracy of final musical score data. The present invention seeks to provide methods and apparatus.

[課題を解決するための手段] かかる課題を解決するため、第1の本発明においては、
入力された音響信号波形の繰返し周期であり、音高を表
すピッチ情報及び音響信号のパワー情報を抽出する処理
と、ピッチ情報及び又はパワー情報に基づいて音響信号
を同一音程とみなせる区間に区分するセグメンテーショ
ン処理と、この区分された区間について音響信号の絶対
音程軸上の音程を決定する音程同定処理とを少なくとも
含み、音響信号を楽譜データに変換する自動採譜方法に
おいて、音程同定処理が、区分された各区間についてそ
のパワー情報のピーク点を抽出する処理と、抽出された
ピーク点のピッチ情報が最も近い絶対音程軸上の音程に
その区間の音程を決定する処理とからなるようにした。
[Means for solving the problem] In order to solve the problem, in the first invention,
It is the repetition period of the input acoustic signal waveform, and includes processing to extract pitch information representing the pitch and power information of the acoustic signal, and dividing the acoustic signal into sections that can be considered to have the same pitch based on the pitch information and/or power information. In an automatic notation method that converts an acoustic signal into musical score data, the pitch identification process includes at least segmentation processing and interval identification processing that determines the pitch on the absolute pitch axis of the acoustic signal for the segmented section. The process consists of a process of extracting the peak point of the power information for each section, and a process of determining the pitch of that section to the pitch on the absolute pitch axis to which the pitch information of the extracted peak point is closest.

また、第2の本発明においては、入力された音響信号波
形の繰返し周期であり、音高を表すピ・ノチ情報及び音
響信号のパワー情報を抽出すると・ンチ・パワー抽出手
段と、ピッチ情報及び又はパワー情報に基づいて音響信
号を同一音程とみなせる区間に区分するセグメンテーシ
ョン手段と、この区分された区間について音響信号の絶
対音程軸上の音程を決定する音程同定手段とを一部に備
えて音響信号を楽譜データに変換する自動採譜装置にお
いて、音程同定手段を、セグメンテーション手段によっ
て区分された各区間についてパワー情報のピーク点を抽
出するピーク点抽出部と、抽出されたピーク点のピッチ
情報が最も近い絶対音程軸上の音程にその区間の音程を
決定する音程決定部とで構成した。
Further, in the second aspect of the present invention, when extracting the pitch information and the power information of the acoustic signal, which is the repetition period of the input acoustic signal waveform and representing the pitch, the pitch information and the power information are extracted. Alternatively, an acoustic system comprising, in part, a segmentation means for dividing an acoustic signal into sections that can be considered to have the same pitch based on power information, and a pitch identification means for determining the pitch on the absolute pitch axis of the acoustic signal for the divided sections. In an automatic notation device that converts a signal into musical score data, the pitch identification means includes a peak point extraction section that extracts the peak point of power information for each section divided by the segmentation means, and a peak point extraction section that extracts the peak point of power information for each section divided by the segmentation means, and a peak point extraction section that extracts the peak point of power information for each section divided by the segmentation means. It consists of a pitch determining section that determines the pitch of a section close to the pitch on the absolute pitch axis.

[作用] 第1の本発明においては、各区間の音程を絶対音程軸上
の音程に同定するにつき、音響信号が揺らぐとしても音
響信号の発生源が意図する音程は音量(パワー情報)が
最大のときには正確であることに着目し、各区間のパワ
ー情報のピーク点を抽出してそのピーク点のピッチ情報
が最も近い絶対音程軸上の音程に同定するようにした。
[Operation] In the first aspect of the present invention, since the pitch of each section is identified as a pitch on the absolute pitch axis, even if the acoustic signal fluctuates, the pitch intended by the source of the acoustic signal has the maximum volume (power information). Focusing on the fact that it is accurate when , we extracted the peak point of the power information in each section and identified the pitch information at that peak point to the closest pitch on the absolute pitch axis.

また、第2の本発明は、同様にパワー情報のピーク点に
おけるピッチ情報、が音響信号の意図する音程に近いこ
とに基づいて、セグメンテーションされた各区間のパワ
ー情報のピーク点をピーク点抽出部によって抽出し、音
程決定部によってその抽出されたピーク点のピッチ情報
が最も近い絶対音程軸上の音程にその区間の音程を同定
するようにした。
Further, the second invention similarly provides a peak point extraction unit that extracts the peak point of the power information in each segmented section based on the fact that the pitch information at the peak point of the power information is close to the intended pitch of the acoustic signal. and the pitch determining section identifies the pitch of that section to the pitch on the absolute pitch axis to which the pitch information of the extracted peak point is closest.

[実施例] 以下、本発明の一実施例を図面を参照しながら詳述する
[Example] Hereinafter, an example of the present invention will be described in detail with reference to the drawings.

且丑五譜方式 まず、本発明が適用される自動採譜方式について説明す
る。
Ushigoku notation system First, the automatic notation system to which the present invention is applied will be explained.

第3図において、中央処理ユニット(CPU)1は、当
該装置の全体を制御するものであり、バス2を介して接
続されている主記憶装置3に格納されている第4図に示
す採譜処理プログラムを実行するものである。バス2に
は、CPUI及び主記憶装置3に加えて、入力装置とし
てのキーボード4、出力装置としての表示装置5、ワー
キングメモリとして用いられる補助記憶装置6及びアナ
ログ/デジタル変換器7が接続されている。
In FIG. 3, a central processing unit (CPU) 1 controls the entire device, and performs the music transcription process shown in FIG. 4 stored in a main storage device 3 connected via a bus 2. It executes the program. Connected to the bus 2 are a keyboard 4 as an input device, a display device 5 as an output device, an auxiliary storage device 6 used as a working memory, and an analog/digital converter 7, in addition to the CPUI and main storage device 3. There is.

アナログ/デジタル変換器7には、例えば、マイクロフ
ォンでなる音響信号入力装置8が接続されている。この
音響信号入力装置8は、ユーザによって発声された歌唱
やハミングや、楽器から発生された楽音等の音響信号を
捕捉して電気信号に変換するものであり、その電気信号
をアナログ/デジタル変換器7に出力するものである。
Connected to the analog/digital converter 7 is an acoustic signal input device 8 consisting of, for example, a microphone. This acoustic signal input device 8 captures acoustic signals such as singing or humming vocalized by a user, or musical sounds generated from musical instruments, and converts them into electrical signals, and converts the electrical signals into electrical signals. 7.

CPUIは、キーボード入力装置4によって処理が指令
されたとき、当該採譜処理を開始し、主記憶装置3に格
納されているプログラムを実行してアナログ/デジタル
変換器7によってデジタル信号に変換された音響信号を
一旦補助記憶装置6に格納し、その後、これら音響信号
を上述のプログラムを実行して楽譜データに変換して必
要に応じて表示装置5に出力するようになされている。
When the processing is instructed by the keyboard input device 4, the CPU starts the music transcription processing, executes the program stored in the main storage device 3, and converts the sound converted into a digital signal by the analog/digital converter 7. The signals are temporarily stored in the auxiliary storage device 6, and then the above-mentioned program is executed to convert these acoustic signals into musical score data, which is output to the display device 5 as necessary.

次に、CPUIが実行する音響信号を収り込んだ後の採
譜処理を第4図の機能レベルで示すフローチャートに従
って詳述する。
Next, the score transcription process performed by the CPU after capturing the audio signal will be described in detail according to the flowchart shown at the functional level in FIG. 4.

まず、CPUIは、音響信号を自己相関分析して分析周
期毎に音響信号のピッチ情報を抽出し、また2乗和処理
して分析周期毎にパワー情報を抽出し、その後ノイズ除
去や平滑化処理等の後処理を実行する(ステップSPI
、SP2>。その後、CPUIは、ピッチ情報について
は、その分布状況に基づいて絶対音程軸に対する音響信
号が有する音程軸のずれ量を算出し、得られたピッチ情
報をそのずれ量に応じてシフトさせるチューニング処理
を実行する(ステップ5P3)。すなわち、音響信号を
発生した歌唱者または楽器が有する音程軸と絶対音程軸
との差が小さくなるようにピッチ情報を修正する。
First, the CPU performs autocorrelation analysis on the acoustic signal to extract pitch information of the acoustic signal for each analysis period, performs sum-of-squares processing to extract power information for each analysis period, and then performs noise removal and smoothing processing. Execute post-processing such as (step SPI
, SP2>. After that, the CPU calculates the amount of deviation of the pitch axis of the acoustic signal from the absolute pitch axis based on the distribution status of the pitch information, and performs tuning processing to shift the obtained pitch information according to the amount of deviation. Execute (Step 5P3). That is, the pitch information is corrected so that the difference between the pitch axis of the singer or musical instrument that generated the acoustic signal and the absolute pitch axis is reduced.

次いで、CPUIは、得られたピッチ情報が同一音程を
指示するものと考えられるピッチ情報の連続期間を得て
、音響信号を1音ごとのセグメントに切り分けるセグメ
ンテーションを実行し、また、得られたパワー情報の変
化に基づいてセグメンテーションを実行する(ステップ
SP4.525)。これら得られた両者のセグメント情
報に基づいて、CPUIは、4分音符や8分音符等の時
間長に相半する基準長を算出してこの基準長に基づいて
再度セグメンテーションを実行する(ステップ5P6)
Next, the CPU obtains continuous periods of pitch information in which the obtained pitch information is considered to indicate the same pitch, performs segmentation to cut the acoustic signal into segments for each note, and also calculates the obtained power. Segmentation is performed based on changes in information (step SP4.525). Based on the obtained segment information, the CPU calculates a reference length that is half the time length of a quarter note or an eighth note, and executes segmentation again based on this reference length (step 5P6). )
.

CPUIは、このようにしてセグメンテーションされた
セグメントのピッチ情報に基づきそのピッチ情報が最も
近いと判断できる絶対音程軸上の音程にそのセグメント
の音程を同定し、さらに、同定された連続するセグメン
トの音程が同一が否かに基づいて再度セグメンテーショ
ンを実行する(ステップSP7.5P8)。
Based on the pitch information of the segments segmented in this way, the CPUI identifies the pitch of the segment to the pitch on the absolute pitch axis that can be determined to be closest to the pitch information, and further identifies the pitch of the identified continuous segment. Segmentation is performed again based on whether they are the same (step SP7.5P8).

その後、CPUIは、チューニング後のピッチ情報を集
計して得た音程の出現頻度と、調に応じて定まる所定の
重み付は係数との積和を求めてこの積和の最大情報に基
づいて、例えば、ハ長調やイ短調というように入力音響
信号の楽曲の調を決定し、決定された調における音階上
の所定の音程についてその音程をピッチ情報について見
直して音程を確認、修正する(ステップSP9.5PI
O)。次いで、CPUIは、最終的に決定された音程か
ら連続するセグメントについて同一なものがあるか否か
、また連続するセグメント間でパワーの変化があるが否
かに基づいてセグメンテーションの見直しを実行し、最
終的なセグメンテーションを行なう(ステップ5PII
)。
After that, the CPU calculates the product sum of the appearance frequency of the pitch obtained by summing up the pitch information after tuning and the predetermined weighting coefficient determined according to the key, and based on the maximum information of this product sum, For example, the key of the music of the input acoustic signal is determined, such as C major or A minor, and the pitch information is reviewed for a predetermined interval on the scale in the determined key to confirm and correct the interval (step SP9 .5PI
O). Next, the CPUI performs a segmentation review based on whether or not there are any consecutive segments from the finally determined pitch, and whether or not there is a change in power between consecutive segments; Perform final segmentation (Step 5 PII
).

このようにして音程及びセグメントが決定されると、C
P[Jlは、楽曲は1拍目から始まる、フレーズの最後
の音は次の小節にまたがらない、小節ごとに切れ目があ
る等の観点から小節を抽出し、この小節情報及びセグメ
ンテニション情報から拍子を決定し、この決定された拍
子情報及び小節の長さからテンポを決定する(ステップ
5P12.5P13)。
Once the pitch and segment are determined in this way, C
P[Jl extracts measures from the viewpoints that the song starts from the first beat, the last note of the phrase does not span the next measure, there is a break in each measure, etc., and extracts this measure information and segment tenition information. The time signature is determined from the above, and the tempo is determined from the determined time signature information and the length of the bar (steps 5P12 and 5P13).

そして、CPUIは決定された音程、音長、調、拍子及
びテンポの情報を整理して最終的に楽譜データを作成す
る(ステップ5P14)。
The CPU then organizes the information on the determined pitch, length, key, time signature, and tempo, and finally creates musical score data (step 5P14).

l丘皿定処」 次に、このような自動採譜方式における音程同定処理(
ステップSP7参照)につぃそ、第1図のフローチャー
トを用いて詳述する。
Next, we will discuss the pitch identification process (
(see step SP7) will now be described in detail using the flowchart of FIG.

CPUIは、まずセグメンテーションによって得られた
セグメントのうち最初のセグメントを収り出し、次いで
、そのセグメントのパワー情報の変化からパワー情報の
最初の極大値(立上りピーク)を与えるサンプリング点
を取り出すくステップ5P20.21)。
The CPU first extracts the first segment among the segments obtained by the segmentation, and then extracts the sampling point that gives the first maximum value (rising peak) of the power information from the change in the power information of that segment. Step 5P20 .21).

その後、CPUIはその立上りピークを与えるサンプリ
ング点のピッチ情報が最も近い絶対音程軸上の音程を当
該セグメントの音程として同定する(ステップ5P22
>。なお、音響信号の各セグメントの音程は、絶対音程
軸上の半音ずつ異なるいずれかの音程に同定される。C
PUIは、かかる処理がなされて音程が同定されたセグ
メントが最後のセグメントが否かを判別する(ステップ
5P23)。その結果、処理が終了していると、当該処
理プログラムを終了し、処理が終了していないと、次の
セグメントを処理対象として上述のステップ21に戻る
(ステップ5P24)。
After that, the CPUI identifies the pitch on the absolute pitch axis that is closest to the pitch information of the sampling point giving the rising peak as the pitch of the segment (step 5P22).
>. Note that the pitch of each segment of the acoustic signal is identified as a pitch that differs by a semitone on the absolute pitch axis. C
The PUI determines whether or not the segment whose pitch has been identified through such processing is the last segment (step 5P23). As a result, if the processing has been completed, the processing program is ended, and if the processing is not completed, the process returns to step 21 described above with the next segment as the processing target (step 5P24).

このようなステップ5P21〜24でなる処理ループを
繰り返すことにより、全てのセグメントについてそのセ
グメント内のパワー情報の立上りピーク点のピッチ情報
による音程同定が実行される。
By repeating the processing loop consisting of steps 5P21 to 5P24, pitch identification is performed for all segments based on pitch information at the rising peak point of the power information in the segment.

ここで、音程同定処理にパワー情報の立上りピークを利
用するようにしたのは、音響信号が揺らぎを有するとは
いえ、歌唱者等は新たな音に音程を移すとき、音量を増
大させ、そのピークのときにその音程がくるように音量
を調節するようにすると考えられるためであり、事実、
パワー情報の立上りピーク点と音程とは相関が非常に高
いことが確認されている。
Here, the reason for using the rising peak of power information for pitch identification processing is that even though the acoustic signal has fluctuations, singers increase the volume when changing the pitch to a new sound. This is because the volume is thought to be adjusted so that the pitch is at the peak, and in fact,
It has been confirmed that there is a very high correlation between the rising peak point of power information and the pitch.

第2図は、かかる処理による音程同定の一例を示すもの
であり、第1の点線曲線PITは音響信号のピッチ情報
を、また第2の点線曲線POWはパワー情報を示し、縦
方向の実線VRはセグメントのきれ目を示している。こ
の例による各セグメントの立上りピーク点のピッチ情報
は横方向の実線HRで示しており、また、同定された音
程は横方向の点線HPで示している。この第2図より明
らかなように、パワー情報の立上りピーク点に対するピ
ッチ情報は絶対音程軸上の音程に対する偏差が少なく、
良好に音程を同定できることが分かる。
FIG. 2 shows an example of pitch identification through such processing, where the first dotted curve PIT indicates the pitch information of the acoustic signal, the second dotted curve POW indicates the power information, and the vertical solid line VR indicates the end of the segment. The pitch information at the rising peak point of each segment in this example is shown by a horizontal solid line HR, and the identified pitch is shown by a horizontal dotted line HP. As is clear from Fig. 2, the pitch information for the rising peak point of the power information has little deviation from the pitch on the absolute pitch axis;
It can be seen that pitches can be identified well.

従って、上述の実施例によれば、各セグメントのパワー
情報の立上りピーク点のピッチ情報を抽出し、このピッ
チ情報が最も近い絶対音程軸上の音程にそのセグメント
の音程を同定したので、音程を高精度に決定することが
できる。なお、音程同定に先立ち、音響信号をチューニ
ング処理しているので、パワー情報の立上りピーク点に
対するピッチ情報は絶対音程軸上の音程に近い値をとり
、同定が非常にし易くなっている。
Therefore, according to the above embodiment, the pitch information of the rising peak point of the power information of each segment is extracted, and the pitch of that segment is identified to the pitch on the absolute pitch axis to which this pitch information is closest. It can be determined with high precision. Note that since the acoustic signal is subjected to tuning processing prior to pitch identification, the pitch information for the rising peak point of the power information takes a value close to the pitch on the absolute pitch axis, making identification very easy.

また、パワー情報の立上りピーク点を利用しているので
、セグメント内のピッチ情報を統計処理して音程同定す
る場合に比べてセグメントが短くてサンプリング数が少
なくても良好に音程を同定でき、音程同定がセグメント
の長さの影響を受けることが少ない。
In addition, since the rising peak point of power information is used, pitches can be identified better even if the segments are shorter and the number of samples is smaller than when pitch identification is performed by statistical processing of pitch information within a segment. Identification is less affected by segment length.

應Ω叉施測 なお、音程同定処理に用いるピッチ情報は、周波数単位
のHzで表わされているものであっても良く、また、音
楽分野で良く用いられているセント単位で表わされてい
るものであっても良い。
Note that the pitch information used in the pitch identification process may be expressed in Hz, which is a frequency unit, or may be expressed in cents, which is often used in the music field. It may be something that exists.

また、上述の実施例においては、パワー情報の立上りピ
ーク点に対するピッチ情報に基づいて同定処理するもの
を示したが、このセグメントのパワー情報の最大値を与
えるサンプリング点のピッチ情報に基づいて音程同定を
実行するようにしても良い。
In addition, in the above embodiment, identification processing is performed based on pitch information for the rising peak point of power information, but pitch identification is performed based on pitch information of a sampling point that gives the maximum value of power information of this segment. You may also execute the following.

さらに、上述の実施例に5いては、第4図に示す全ての
処理をCPUIが主記憶装置3に格納されているプログ
ラムに従って実行するものを示したが、その一部または
全部の処理をハードウェア構成で実行するようにしても
良い。例えば、第3図と、の対応部分に同一符号を付し
た第5図に示すように、音響信号入力装置8がらの音響
信号を増幅回路10を介して増幅した後、さらに前置フ
ィルタ11を介してアナログ/デジタル変換器12に与
えてデジタル信号に変換し、このデジタル信号に変換さ
れた音響信号を信号処理プロセッサ13が自己相関分析
してピッチ情報を抽出し、また2東和処理してパワー情
報を抽出してCPUIによるソフトウェア処理系に与え
るようにしても良い。このようなハードウェア構成(1
0〜13)に用いられる信号処理プロセッサ13として
は、音声帯域の信号をリアルタイム処理し得ると共に、
ホストのCPUIとのインタフェース信号が用意されて
いるプロセッサ(例えば、日本電気株式会社製μP D
 7720)を適用し得る。
Furthermore, in the fifth embodiment described above, all the processes shown in FIG. It may also be executed using a software configuration. For example, as shown in FIG. 5, in which parts corresponding to those in FIG. The signal processing processor 13 performs an autocorrelation analysis on the acoustic signal converted to the digital signal to extract pitch information, and performs 2-Towa processing to output the power. The information may be extracted and provided to a software processing system using the CPUI. This kind of hardware configuration (1
The signal processing processor 13 used in 0 to 13) is capable of real-time processing of audio band signals, and
A processor that has an interface signal with the host CPU (for example, NEC μP D
7720) may be applied.

[発明の効果] 以上のように、本発明によれば、各セグメントの音程を
、セグメントのパワー情報のピーク値を与えるサンプリ
ング点のピッチ情報に基づいて同定するようにしたので
、良好に音程を決定でき、楽譜データの精度を一段と高
めることができる。
[Effects of the Invention] As described above, according to the present invention, the pitch of each segment is identified based on the pitch information of the sampling point that gives the peak value of the power information of the segment, so that the pitch can be determined well. The accuracy of musical score data can be further improved.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例にかかる音程同定処理を示す
フローチャ=1・、第2図はかかる音程同定処理による
一例を示す路線図、第3図は本発明を適用する自動採譜
方式の構成を示すブロック図、第4図はその自動採譜処
理手順を示すフローチャート、第5図は自動採譜方式の
他の構成を示すブロック図である。 1・・・CPU、3・・・主記憶装置、6・・・補助記
憶装置、7・・・アナログ/デジタル変換器、8・・・
音響信号入力装置。
FIG. 1 is a flowchart showing an interval identification process according to an embodiment of the present invention, FIG. 2 is a route map showing an example of such an interval identification process, and FIG. FIG. 4 is a block diagram showing the configuration, FIG. 4 is a flowchart showing the automatic score processing procedure, and FIG. 5 is a block diagram showing another configuration of the automatic score transcription method. 1... CPU, 3... Main storage device, 6... Auxiliary storage device, 7... Analog/digital converter, 8...
Acoustic signal input device.

Claims (2)

【特許請求の範囲】[Claims] (1)入力された音響信号波形の繰返し周期であり、音
高を表すピッチ情報及び上記音響信号のパワー情報を抽
出する処理と、上記ピッチ情報及び又は上記パワー情報
に基づいて上記音響信号を同一音程とみなせる区間に区
分するセグメンテーション処理と、この区分された区間
について上記音響信号の絶対音程軸上の音程を決定する
音程同定処理とを少なくとも含み、上記音響信号を楽譜
データに変換する自動採譜方法において、 上記音程同定処理が、 区分された上記各区間についてそのパワー情報のピーク
点を抽出する処理と、抽出されたピーク点のピッチ情報
が最も近い絶対音程軸上の音程にその区間の音程を決定
する処理とからなることを特徴とする自動採譜方法。
(1) Process of extracting pitch information representing the pitch and power information of the acoustic signal, which is the repetition period of the input acoustic signal waveform, and matching the acoustic signal based on the pitch information and/or the power information. An automatic score transcription method that converts the acoustic signal into musical score data, including at least a segmentation process that divides the acoustic signal into intervals that can be regarded as musical intervals, and an interval identification process that determines the interval on the absolute pitch axis of the acoustic signal for the segmented interval. In the above, the pitch identification process includes a process of extracting the peak point of power information for each of the divided sections, and assigning the pitch of that section to the pitch on the absolute pitch axis to which the pitch information of the extracted peak point is closest. An automatic music transcription method characterized by comprising a process of determining.
(2)入力された音響信号波形の繰返し周期であり、音
高を表すピッチ情報及び上記音響信号のパワー情報を抽
出するピッチ・パワー抽出手段と、上記ピッチ情報及び
又は上記パワー情報に基づいて上記音響信号を同一音程
とみなせる区間に区分するセグメンテーション手段と、
この区分された区間について上記音響信号の絶対音程軸
上の音程を決定する音程同定手段とを一部に備えて上記
音響信号を楽譜データに変換する自動採譜装置において
、上記音程同定手段を、 上記セグメンテーション手段によって区分された上記各
区間についてパワー情報のピーク点を抽出するピーク点
抽出部と、抽出されたピーク点のピッチ情報が最も近い
絶対音程軸上の音程にその区間の音程を決定する音程決
定部とで構成したことを特徴とする自動採譜装置。
(2) pitch/power extraction means for extracting pitch information, which is the repetition period of the input acoustic signal waveform and represents the pitch, and power information of the acoustic signal; Segmentation means for dividing the acoustic signal into sections that can be considered to have the same pitch;
In an automatic score transcription apparatus that converts the acoustic signal into musical score data, the automatic music transcription apparatus includes, as a part, an interval identification means for determining the interval on the absolute pitch axis of the acoustic signal for the divided section, and the interval identification means is configured as described above. a peak point extraction unit that extracts the peak point of power information for each of the sections divided by the segmentation means; and an interval that determines the pitch of the section to the pitch on the absolute pitch axis to which the pitch information of the extracted peak point is closest. An automatic score transcription device comprising: a determination section;
JP63046121A 1988-02-29 1988-02-29 Automatic music transcription method and device Expired - Lifetime JP2653456B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP63046121A JP2653456B2 (en) 1988-02-29 1988-02-29 Automatic music transcription method and device
US07/315,761 US5038658A (en) 1988-02-29 1989-02-27 Method for automatically transcribing music and apparatus therefore
CA000592347A CA1337728C (en) 1988-02-29 1989-02-28 Method for automatically transcribing music and apparatus therefore

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63046121A JP2653456B2 (en) 1988-02-29 1988-02-29 Automatic music transcription method and device

Publications (2)

Publication Number Publication Date
JPH01219888A true JPH01219888A (en) 1989-09-01
JP2653456B2 JP2653456B2 (en) 1997-09-17

Family

ID=12738159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63046121A Expired - Lifetime JP2653456B2 (en) 1988-02-29 1988-02-29 Automatic music transcription method and device

Country Status (1)

Country Link
JP (1) JP2653456B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000066667A (en) * 1998-08-25 2000-03-03 Korg Inc Tuning instrument
JP2004334240A (en) * 1996-11-20 2004-11-25 Yamaha Corp Sound signal analysis device and method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004334240A (en) * 1996-11-20 2004-11-25 Yamaha Corp Sound signal analysis device and method
JP2000066667A (en) * 1998-08-25 2000-03-03 Korg Inc Tuning instrument

Also Published As

Publication number Publication date
JP2653456B2 (en) 1997-09-17

Similar Documents

Publication Publication Date Title
CN109979488B (en) System for converting human voice into music score based on stress analysis
CN107210029B (en) Method and apparatus for processing a series of signals for polyphonic note recognition
JPH0736455A (en) Music event index generating device
JP2604410B2 (en) Automatic music transcription method and device
Verfaille et al. Adaptive digital audio effects
JPH01219888A (en) Method and device for automatic sampling
JP2604404B2 (en) Automatic music transcription method and device
JP3001353B2 (en) Automatic transcription device
EP0367191B1 (en) Automatic music transcription method and system
US20040158437A1 (en) Method and device for extracting a signal identifier, method and device for creating a database from signal identifiers and method and device for referencing a search time signal
JP2604414B2 (en) Automatic music transcription method and device
JP2604413B2 (en) Automatic music transcription method and device
JP2010054535A (en) Chord name detector and computer program for chord name detection
JP2614631B2 (en) Automatic music transcription method and device
JP2604406B2 (en) Automatic music transcription method and device
JP2604411B2 (en) Automatic music transcription method and device
JP2604405B2 (en) Automatic music transcription method and device
JPH01219636A (en) Automatic score taking method and apparatus
JP2604409B2 (en) Automatic music transcription method and device
JP2604400B2 (en) Pitch extraction method and extraction device
JPH01219622A (en) Automatic score taking method and apparatus
JP2604407B2 (en) Automatic music transcription method and device
JPH01219624A (en) Automatic score taking method and apparatus
JP2604408B2 (en) Automatic music transcription method and device
JPH0567956B2 (en)