JPH01288900A - Singing voice accompanying device - Google Patents

Singing voice accompanying device

Info

Publication number
JPH01288900A
JPH01288900A JP63119837A JP11983788A JPH01288900A JP H01288900 A JPH01288900 A JP H01288900A JP 63119837 A JP63119837 A JP 63119837A JP 11983788 A JP11983788 A JP 11983788A JP H01288900 A JPH01288900 A JP H01288900A
Authority
JP
Japan
Prior art keywords
melody
accompaniment data
key
accompaniment
singer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63119837A
Other languages
Japanese (ja)
Inventor
Hiromi Fujii
藤井 浩美
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP63119837A priority Critical patent/JPH01288900A/en
Publication of JPH01288900A publication Critical patent/JPH01288900A/en
Pending legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PURPOSE:To accompany a singer with a tone which he desires by providing a melody storage part where melody is preliminarily held and a tone determining part which analyzes the singing voice to obtain a transposition width in accordance with the interval difference between results and the fundamental melody in the melody storage part. CONSTITUTION:Melody information of music which the singer will sing is preliminarily stored in a melody storage part 2 as a time series of intervals and lengths of respective notes of melody. Accompaniment data for the melody is stored in a fundamental accompaniment data storage part 4 in the same manner as melody information and is converted to a form of automatic playing by the control of a plying control part 6. The singer sings several measures in an interval, where he can easily sing them, at a microphone 1 to input his singing voice to a tone determining part before formal singing, and the transposition width is determined. An accompaniment data generating part 5 transposes l intervals of accompaniment data in the fundamental accompaniment data storage part 4 in accordance with said transposition width, and the playing control part 6 accompanies the singer with the tone which he desires.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は、歌い手の歌い易い調やテンポで伴奏を演奏す
ることのできる歌声伴奏装置に関する。
DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to a singing accompaniment device that can play accompaniment in a key and tempo that is easy for a singer to sing.

(従来の技術) 歌声の伴奏には、従来より、実際に人間が演奏する方式
(方式1)や、カラオケと呼ばれるテープやコンパクト
ディスクなどに録音された演奏を再生する方式(方式2
)が−膜内に用いられている。また、近年では、コンピ
ュータによる自動演奏(方式3)も用いられている。
(Conventional technology) Traditionally, there have been two methods for accompaniment to singing: a method in which a person actually performs (Method 1), and a method in which a performance recorded on a tape or compact disc called karaoke is played back (Method 2).
) is used within the membrane. Furthermore, in recent years, automatic performance by computer (Method 3) has also been used.

これら従来方式により歌伴奏が演奏される場合、曲の調
やテンポはあらかじめ定められている場合がほとんどで
ある。しかし、特定の歌い手用に調やテンポが設定され
ている場合は除いて、カラオケのように歌い手が不定で
ある場合には、設定されている調やテンポが歌い手にと
って歌いやすいとは限らない。調やテンポが適切でなけ
れば、歌いづらい、または、歌えない、など歌を楽しむ
ことができない。このような場合、歌い手の歌いやすい
調やテンポに変更することができれば、どのような歌い
手でも歌を楽しむことができる。
When singing accompaniment is played using these conventional methods, the key and tempo of the song are often predetermined. However, except when the key and tempo are set for a specific singer, when the singer is undefined, such as in karaoke, the set key and tempo are not necessarily easy for the singer to sing. If the key or tempo is not appropriate, it will be difficult or impossible to sing, or you will not be able to enjoy the song. In such a case, any singer can enjoy the song if the key or tempo can be changed to a tune that is easier for the singer to sing.

従来方式において、調やテンポを変更する場合、方式1
では、実際の歌唱の前に伴奏演奏者に調やテンポを指示
することによって変更が可能である。指示の仕方は、歌
い手が実際に歌いやすい調、テンポで曲の一部を歌えば
よい。伴奏演奏者は、歌い手の歌声から調とテンポを聞
き取り、演奏を行う。
In the conventional method, when changing the key or tempo, method 1
In this case, it is possible to change the key and tempo by instructing the accompaniment performer before the actual singing. Instructions can be given by simply singing a part of the song in a key and tempo that the singer is comfortable with. The accompaniment performer listens to the key and tempo from the singer's voice and performs.

方式2では、録音された演奏を再生するだけなので、基
本的に調やテンポを自由を変化させることはできない。
In method 2, the recorded performance is simply played back, so basically the key and tempo cannot be changed freely.

一部、テープの走行速度を変化させることにより調やテ
ンポを標準値より高めたり低めたりできるものがあった
。この場合、テープの走行速度を早めると調もテンポも
上がり、また、逆に遅めると調もテンポも下がる、とい
う具合いに両者を独立に変更することはできなかった。
In some cases, the key or tempo could be made higher or lower than the standard value by changing the running speed of the tape. In this case, increasing the speed of the tape would increase the key and tempo, and conversely, decreasing the speed of the tape would decrease the key and tempo, making it impossible to change both independently.

方式3は、近年の電子機器の発達や低価格化により用い
られるようになった方式であり、コンピュータが演奏デ
ータに従って自動演奏を行なうものである。コンピュー
タ制御による自動演奏は、ヤマハ製のQX3などの自動
演奏専用の製品や、日本電気製のPC9801なとの汎
用コンピュータと市販の自動演奏用ソフトウェアを用い
て行うことができる。この方式3の場合、調やテンポの
変更は自動演奏の制御プログラムにそのような機能があ
れば可能であり、市販のプログラムには基本機能として
備わっている。自動演奏の制御プログラムとしては、例
えば、′カモンミューンソク社”の“RCX−PC98
”という市販のソフトウェアがある。このソフトウェア
では、コンピュータの英数キーボードより調やテンポを
入力することによりそれらの変更が可能である。調の変
更は、現在の伴奏データの調からの移調幅を指定する。
Method 3 is a method that has come into use due to the recent development and price reduction of electronic equipment, and is a method in which a computer performs automatic performance according to performance data. Automatic performance under computer control can be performed using a product dedicated to automatic performance such as Yamaha's QX3, a general-purpose computer such as NEC's PC9801, and commercially available automatic performance software. In the case of method 3, changing the key or tempo is possible if the automatic performance control program has such a function, and commercially available programs have this function as a basic function. As an automatic performance control program, for example, ``RCX-PC98'' by ``Kamon Myunsoku Co.''
There is commercially available software called ``.With this software, you can change the key and tempo by inputting them from the alphanumeric keyboard of your computer.To change the key, change the transposition range from the key of the current accompaniment data. specify.

移調幅は移調の度合であり、音程の度数で指定する。例
えば、もとの伴奏データの音程を2度上げる場合には、
伴奏データの音程全体に対して、+2のトランスポーズ
を行う。また、テンポは、−分間当りの四分音符の数を
入力する。
The transposition width is the degree of transposition, and is specified in degrees of pitch. For example, if you want to raise the pitch of the original accompaniment data by two degrees,
Transpose +2 to the entire pitch of the accompaniment data. For the tempo, enter the number of quarter notes per minute.

(発明が解決しようとする課題) 従来技術の方式1は、歌い手が機器を操作する必要はな
いが、常に演奏者が必要であり、また、演奏者もあらゆ
る調や速度で演奏することができる能力を必要とする。
(Problem to be Solved by the Invention) Prior art Method 1 does not require a singer to operate the equipment, but always requires a performer, and the performer can also perform in any key or speed. requires ability.

そのため、手軽に歌声伴奏の演奏ができなかった。Therefore, it was not possible to easily perform vocal accompaniment.

また、方式2では、手軽に歌声の伴奏をさせることがで
きる。しかし、録音された演奏を再生するだけなので、
調やテンポは、前述のようにテープの走行速度により多
少の変更ができるにすぎない。その場合も、調が上がれ
ばテンポも上がり、逆に、調が下がれば速度が下がる、
という具合いに両者を独立に変化させることはできない
。また、テープの走行速度を変えすぎると演奏が聴きず
らくなるという欠点があった。
Furthermore, in method 2, it is possible to easily provide accompaniment to a singing voice. However, since it only plays back recorded performances,
As mentioned above, the key and tempo can only be changed slightly by changing the tape running speed. In that case, if the key goes up, the tempo goes up, and conversely, if the key goes down, the speed goes down.
As such, it is not possible to change the two independently. Another drawback was that if the tape running speed was changed too much, the performance became difficult to listen to.

方式3では、調やテンポを自由に変更できるが、変更す
るには自動演奏装置の操作を知っているオペレータがい
るか、または、歌い手が操作を知らなくてはならない。
In method 3, the key and tempo can be changed freely, but in order to do so, either there must be an operator who knows how to operate the automatic performance device, or the singer must know how to operate it.

さらに、歌い手がどの程度移調するかや、テンポの値を
い(つにするかを知っている必要があり、歌い手が音楽
の専門家でなければ、実際にいろいろな調や速度で演奏
させてみて試行錯誤的に調や速度を決定する必要がある
。また楽器やメトロノームなどの望む調やテンポを知る
機器が必要である。以上のように、方式3による調やテ
ンポの変更は、歌い手がその場で簡単に変更できるもの
ではなく、手間がかかることが問題であった。
Additionally, the singer needs to know how much to transpose and what tempo values to set, and unless the singer is a musical expert, you can actually have them play in different keys and speeds. It is necessary to determine the key and speed by trial and error by looking at the song.Also, a device such as a musical instrument or metronome that knows the desired key and tempo is required.As mentioned above, changing the key and tempo using method 3 is possible when the singer The problem was that it was not something that could be easily changed on the spot, and it took time and effort.

本発明の目的は、以上の問題点を解決し、歌い手が歌い
やすい調やテンポをオペレータの手Uけなく、歌唱の直
前に簡単に設定することのできる歌声伴奏装置を提供す
ることにある。
SUMMARY OF THE INVENTION An object of the present invention is to solve the above-mentioned problems and provide a singing accompaniment device that allows a singer to easily set the key and tempo that the singer is comfortable singing immediately before singing without the operator's help.

(課題を解決するための手段) 本発明におけ4第一の発明による歌声伴奏装置は、曲の
一部を歌った声を入力する手段と、メロディ情報を音程
や音長の情報として格納するメロディ格納部と、入力さ
れた歌声を分析し前記メロディ格納部のメロディ情報を
用いて移調幅を決定する調決定部と、演奏に必要な音楽
情報を基本伴奏データとして格納する基本伴奏データ格
納部と、基本伴奏データ格納部の基本伴奏データを前記
調決定部において決定された移調幅で移調して伴奏デー
タを作成する伴奏データ作成部と、作成された伴奏デー
タに従って演奏を行う演奏制御部を有することを特徴と
する。
(Means for Solving the Problems) A singing voice accompaniment device according to the fourth aspect of the present invention includes means for inputting a voice singing a part of a song, and storing melody information as pitch and length information. a melody storage section, a key determination section that analyzes the input singing voice and determines a transposition range using the melody information in the melody storage section, and a basic accompaniment data storage section that stores musical information necessary for performance as basic accompaniment data. an accompaniment data creation section that creates accompaniment data by transposing the basic accompaniment data in the basic accompaniment data storage section by the transposition width determined by the key determination section; and a performance control section that performs a performance according to the created accompaniment data. It is characterized by having.

本発明における第2の発明による歌声伴奏装置は、曲の
一部を歌った声を入力する手段と、メロディ情報を音程
や音長の情報として格納するメロディ格納部と、入力さ
れた歌声を分析し前記メロディ格納部のメロディ情報を
用いて移調幅とテンポを決定する調テンポ決定部と、演
奏に必要な音楽情報を基本伴奏データとして格納する基
本伴奏データ格納部と、基本伴奏データ格納部の基本伴
奏データを前記調テンポ決定部において決定された移調
幅で移調し同じく決定されたテンポを設定した伴奏デー
タを作成する伴奏データ作成部と、作成された伴奏デー
タに従って演奏を行う演奏制御部を有することを特徴と
する。
A singing voice accompaniment device according to a second aspect of the present invention includes a means for inputting a voice singing a part of a song, a melody storage section for storing melody information as pitch and length information, and an analysis of the input singing voice. a key tempo determination section that determines the transposition range and tempo using the melody information in the melody storage section; a basic accompaniment data storage section that stores musical information necessary for performance as basic accompaniment data; and a basic accompaniment data storage section. an accompaniment data creation section that transposes the basic accompaniment data by the transposition range determined by the key tempo determination section and creates accompaniment data set at the same determined tempo; and a performance control section that performs a performance according to the created accompaniment data. It is characterized by having.

(作用) 本発明における第一の発明は、歌い手の歌声を分析して
調を求め、求められた調で伴奏データを作成し、コンピ
ュータによる自動演奏をさせて歌声伴奏とするものであ
る。そのため、本発明の歌声伴奏装置では、あらかじめ
メロディを保持したメロディ格納部と、歌い手の歌声を
分析してメロディ格納部の基本メロディとの音程差から
移調幅を求める調決定部を設けている。本発明によると
、歌い手は、歌だけで、しかも、オペレータの必要なく
望む調の指定が可能となる。以下に、本発明の動作原理
を説明する。
(Function) The first aspect of the present invention is to analyze a singer's singing voice to determine the key, create accompaniment data in the determined key, and have the data automatically played by a computer as a singing accompaniment. Therefore, the singing accompaniment device of the present invention is provided with a melody storage section that holds melodies in advance, and a key determination section that analyzes the singer's singing voice and determines the transposition range from the pitch difference between the basic melody and the melody storage section. According to the present invention, a singer can specify a desired key just by singing and without the need for an operator. The operating principle of the present invention will be explained below.

ます、メロディ格納部にはあらかじめ定められた曲のメ
ロディが音程と音長の情報として格納されている。ここ
でメロディ格納部に格納されているメロディを基本メロ
ディと呼ぶことにする。また、歌い手が歌う曲はあらか
じめ分かっているとする。
First, the melody of a predetermined song is stored in the melody storage section as pitch and length information. Here, the melody stored in the melody storage section will be referred to as a basic melody. It is also assumed that the song that the singer will sing is known in advance.

歌い手は、正式な歌唱の前に、自分の歌いやすい音程で
歌の冒頭の一部を歌う。歌声は、順次A/D変換され波
形データとして取り込まれる。波形データは分析され、
時系列のパワーデータとピッチデータに変換される。パ
ワーデータとピッチデータを得るには、例えば、一般に
良く知られている自己相関関数による方式を用いること
ができる。ピッチの抽出法には、東海大学出版の「ディ
ジタル音声処理」 (古井貞懸、著)の57頁から59
頁に述べられているように、さまざまな方式が知られて
おりそれらの方式を用いることができる。
Before the formal singing, the singer sings part of the beginning of the song at a pitch that is comfortable for him or her. The singing voice is sequentially A/D converted and captured as waveform data. The waveform data is analyzed and
Converted into time series power data and pitch data. To obtain the power data and pitch data, for example, a generally well-known method using an autocorrelation function can be used. The pitch extraction method is described in "Digital Speech Processing" (written by Sadakake Furui) published by Tokai University Publishing, pages 57 to 59.
A variety of schemes are known and can be used, as described on page 1.

次に、パワーデータからメロディの音符各−音ごとの区
間を求めるセグメンテーションが行われる。セグメンテ
ーション法としては、パワーデータの時間軸の変化量を
調べる方式がある。あらかじめパワー変化量のしきい値
THI、TH2を定めておき、パワー変化量がしきい値
THIを越えた時点を音の開始時刻、マイナスの変化量
がしきい値TH2を越えた時点を音の終了時刻とするも
のである。
Next, segmentation is performed to obtain intervals for each note of the melody from the power data. As a segmentation method, there is a method of examining the amount of change in power data over time. Thresholds THI and TH2 of the amount of power change are determined in advance, and the time when the amount of power change exceeds the threshold THI is the start time of the sound, and the time when the amount of negative change exceeds the threshold TH2 is the time when the sound starts. This is the end time.

音区間が求められたら、各−音区間の平均ピッチから各
音の音程が求められる。ここで、歌い手により入力され
た曲と基本メロディは同じ曲なので、歌い手のメロディ
の音程間の相対値は基本メロディのそれと同じはずであ
る。このことを利用して、歌い手のメロディと基本メロ
ディの音符の対応付けが行なわれる。すなわち、基本メ
ロディの各音が歌い手のメロディのどの音に対応するか
が求められる。この処理は、雑音などを除(ために行わ
れる。
Once the tone intervals are determined, the pitch of each note is determined from the average pitch of each -note interval. Here, since the song input by the singer and the basic melody are the same song, the relative value between the pitches of the singer's melody should be the same as that of the basic melody. This fact is used to associate the singer's melody with the notes of the basic melody. That is, it is determined which note of the singer's melody each note of the basic melody corresponds to. This process is performed to remove noise and the like.

音符間の対応付けが求められると、両メロディの音程差
を移調幅として求めることができる。移調幅が求められ
ると、あらかじめ保持されている基本伴奏データを移調
幅だけ移調した伴奏データは、容易に作成することがで
きる。
Once the correspondence between notes is determined, the pitch difference between both melodies can be determined as the transposition width. Once the transposition range is determined, accompaniment data can be easily created by transposing the previously stored basic accompaniment data by the transposition range.

以上のように、歌声を分析し、メロディとその音程を検
出し移調幅を求める調決定部を設けることにより、手軽
に歌い手の意図する調で歌声伴奏を行うことのできる歌
声伴奏装置を実現できることになる。
As described above, by providing a key determining section that analyzes the singing voice, detects the melody and its pitch, and determines the transposition range, it is possible to realize a singing voice accompaniment device that can easily perform singing accompaniment in the key intended by the singer. become.

次に本発明における第2の発明による歌声伴奏装置の原
理を説明する。本発明では、第1の発明による歌声から
の調の決定を加えて、テンポの決定を行なう調テンポ決
定部を設けている。テンポの決定は以下のように行なわ
れる。
Next, the principle of the singing accompaniment device according to the second aspect of the present invention will be explained. In the present invention, a key tempo determination section is provided which determines the tempo in addition to determining the key from the singing voice according to the first invention. The tempo is determined as follows.

ます、第1の発明と同様に、歌い手が曲の冒頭の一部を
歌う。この時、歌は、音程だけでな(テンポも歌い手の
歌いやすいものとする。歌声は、前述のように順次A/
D変換、分析され、時系列のパワーデータとピッチデー
タに変換される。
First, similar to the first invention, the singer sings the beginning part of the song. At this time, the singing should be done not only in pitch but also in a tempo that is easy for the singer to sing.
It is D-converted, analyzed, and converted into time-series power data and pitch data.

第一の発明と同様にして、パワーデータからメロディの
セグメンテーションが行われ、各−昔区間の平均ピッチ
から音程が求められ、歌い手のメロディと基本メロディ
の音符の対応付けが行なわれる。音符の対応付けが求め
られると、歌い手のメロディの時間長からテンポを計算
することができる。これは、歌い手が歌った基本メロデ
ィの音数とそれを歌った時間長が求められるからである
。これより、4分音符の平均時間長を求め、テンポを得
ることができる。
Similar to the first invention, melody segmentation is performed from the power data, pitches are determined from the average pitch of each interval, and the notes of the singer's melody and the basic melody are correlated. Once the notes are mapped, the tempo can be calculated from the duration of the singer's melody. This is because the number of notes of the basic melody sung by the singer and the length of time the singer sang it are required. From this, the average time length of quarter notes can be determined and the tempo can be obtained.

移調幅は、第1の発明と同様の方法でメロディの音程差
から求めることができる。
The transposition range can be determined from the pitch difference of the melody using the same method as in the first invention.

以上のように、歌声を分析、メロディとその音程と音長
を求め、移調幅とテンポを求める調テンポ決定部を設け
ることにより、手軽に歌い手の意図する調、およびテン
ポで歌声伴奏を行うことのできる歌声伴奏装置を実現で
きることになる。
As described above, by providing a key tempo determining section that analyzes the singing voice, determines the melody, its pitch, and length, and determines the transposition range and tempo, it is possible to easily provide singing accompaniment in the key and tempo that the singer intends. This means that it is possible to realize a singing voice accompaniment device that can perform the following functions.

(実施例) 以下に、本発明の実施例について図面を参照しながら詳
細に説明する。第1図は、本発明における第1の発明に
よる歌声伴奏装置の一実施例を示すブロック図である。
(Example) Examples of the present invention will be described in detail below with reference to the drawings. FIG. 1 is a block diagram showing an embodiment of a singing accompaniment device according to a first aspect of the present invention.

メロディ格納部2にはあらかじめ歌い手が歌う曲のメロ
ディ情報が格納されている。メロディ情報は、メロディ
の各音の音程と音長を時系列に表現したものである。歌
い手の歌う曲のメロディを、例えば第3図の5線譜に示
したものとすると、メロディ情報は第4図のように表現
できる。ここでは、音の長さを8分音符の長さを1とし
た場合の数値で示した。
Melody information of a song sung by a singer is stored in the melody storage section 2 in advance. The melody information represents the pitch and length of each note of the melody in chronological order. If the melody of a song sung by a singer is shown, for example, on the five-line notation shown in FIG. 3, the melody information can be expressed as shown in FIG. Here, the length of a note is expressed as a numerical value when the length of an eighth note is set as 1.

また、基本伴奏データ格納部4には、メロディ格納部2
のメロディに対する伴奏データが格納されている。伴奏
データは、メロディ情報と同様に、音のシリアル番号、
音程、音長などの情報として表されたものであり、演奏
制御部6の制御にって自動演奏できる形式に変換されて
いる。
The basic accompaniment data storage section 4 also includes a melody storage section 2.
Accompaniment data for the melody is stored. Accompaniment data includes note serial numbers, as well as melody information.
It is expressed as information such as pitch and length, and is converted into a format that can be played automatically under the control of the performance control section 6.

さて、歌い手は、正式な歌唱の前に、曲の冒頭から数小
節を自分の歌いやすい音程で歌う。歌声はマイク1から
調決定部に入力される。
Now, before the formal singing, the singer sings a few measures from the beginning of the song at a pitch that is comfortable for him or her. A singing voice is input from microphone 1 to the key determining section.

第5図は調決定部における処理を示すブロック図である
。入力された歌声はA/D変換部31にて順次波形デー
タに変換される。パワーピンチ抽出部32では例えば自
己相関法による分析が行われ、波形データが時系列のパ
ワーデータとピッチデータに変換される。
FIG. 5 is a block diagram showing the processing in the key determining section. The input singing voice is sequentially converted into waveform data by the A/D converter 31. The power pinch extraction unit 32 performs analysis using, for example, an autocorrelation method, and converts the waveform data into time-series power data and pitch data.

セグメンテーション部33では、得られたパワーの変化
量からメロディの各音の開始時刻と終了時刻を求めるセ
グメンテーションが行なわれる。
The segmentation unit 33 performs segmentation to determine the start time and end time of each note of the melody from the obtained amount of change in power.

ここで、パワーの変化量のしきい値をTHl、TH2と
してあらかじめ定めてお(。THIは開始時刻を求める
しきい値、TH2は終了時刻を求めるしきい値である。
Here, the threshold values for the amount of power change are predetermined as THl and TH2 (THI is the threshold value for determining the start time, and TH2 is the threshold value for determining the end time.

第6図は、セグメンテーションの様子を示している。5
ttx(xは音番号)は開始時刻、entxは終了時刻
である。
FIG. 6 shows the state of segmentation. 5
ttx (x is the note number) is the start time, and entx is the end time.

次に、音程決定部34では、求められた各音の開始時刻
から終了時刻の間のピッチの平均値より音程が決定され
る。第7図は、縦軸をピッチ、横軸を時間としてピッチ
データ、音区間のピッチデータの平均値、求められた音
程を示したものである。音程はC(ド)D(し)E(ミ
)F(ファ)G(ソ)A(う)B(シ)とそのオクター
ブ単位の高さを表す番号で示されている。図に示すよう
に、メロディの各音はピッチデータの平均値に最も近い
音程に定められる。
Next, the pitch determining section 34 determines the pitch based on the average value of the pitches between the start time and end time of each note. FIG. 7 shows pitch data, the average value of the pitch data of a tone interval, and the determined pitch, with the vertical axis representing pitch and the horizontal axis representing time. The pitch is indicated by C (do), D (shi), E (mi), F (fa), G (so), A (u), B (shi), and a number representing the height in octave units. As shown in the figure, each note of the melody is set to the pitch closest to the average value of the pitch data.

メロディ対応付は部35では、メロディ格納部の基本メ
ロディと上記のようにして求められた歌い手のメロディ
との音間の対応付けが行われる。
In the melody correspondence section 35, correspondence between notes is performed between the basic melody in the melody storage section and the singer's melody obtained as described above.

すなわち、基本メロディの音のシリアル番号が、歌い手
のメロディのどの音に対応するかが決定される。この処
理は、メロディの第1音から順に、音程の相対値を確認
しなから行われる。ここで、歌い手のメロディ中のある
一部、A音と基本メロディのB音が対応している時、A
音の後続音をA′音、B音の後続音をB°音と呼ぶこと
にする。対応付けの確認は、A音とA’Wの音程相対値
が基本メロディのB音、B′音のそれと同じかどうかで
行われる。同じならばA′音とB′音が対応するとみな
されA′音をA音、Bl音をB音となおし、以後の音に
対して同様の操作が行われる。異なる場合には、歌い手
のメロディのA′音が雑音とみなされスキップされ、次
の音をA′音として同様の操作が行われる。第8図は処
理の様子を示している。第8図では、歌い手のメロディ
の第3音目が雑音と見なされスキップされる。
That is, it is determined which note of the singer's melody the serial number of the note of the basic melody corresponds to. This process is performed sequentially from the first note of the melody, while checking the relative values of the pitches. Here, when a certain part of the singer's melody, A note corresponds to B note of the basic melody, A
The sound following the sound will be called the A' sound, and the sound following the B sound will be called the B° sound. The correspondence is confirmed by checking whether the relative pitch values of note A and A'W are the same as those of note B and B' of the basic melody. If they are the same, the A' and B' sounds are considered to correspond, and the A' sound is changed to the A sound, the Bl sound to the B sound, and the same operation is performed for subsequent sounds. If they are different, the A' note of the singer's melody is regarded as noise and is skipped, and the same operation is performed with the next note as the A' note. FIG. 8 shows the process. In FIG. 8, the third note of the singer's melody is considered noise and is skipped.

なお、対応付けの判定は、音程にある程度の幅をもたせ
、例えば、音程差が+1度の範囲ならば対応するとみな
すなどの方法を用いることもできる。
It should be noted that the determination of correspondence may be performed by allowing a certain range of pitches, for example, by determining that the pitches correspond if the pitch difference is within +1 degree.

移調幅決定部36では、対応付けされた音間の背幅が求
められ、それが移調幅として出力される。第8図の例で
は+2度が移調幅となる。
The transposition width determination unit 36 determines the pitch width between the associated notes, and outputs it as the transposition width. In the example of FIG. 8, the transposition width is +2 degrees.

以上のようにして移調幅が求められると、伴奏データ作
成部5では、基本伴奏データ格納部4のリズムバートを
除いた伴奏データの全ての音程を2度上げた伴奏データ
が作成される。
When the transposition width is determined as described above, the accompaniment data creation section 5 creates accompaniment data in which all pitches of the accompaniment data except for the rhythm bart in the basic accompaniment data storage section 4 are raised by two degrees.

最後に、演奏制御部6では、歌い手の歌唱の際、作成さ
れた伴奏データに従って歌声伴奏が演奏される。
Finally, in the performance control section 6, when the singer sings, the singing accompaniment is played according to the created accompaniment data.

次に、本発明における第2の発明について説明する。第
2図は、第2の発明による歌声伴奏装置の実施例を示す
ブロック図である。第2の発明では、歌声から、調の他
に、テンポを抽出する調テンポ決定部7を設け、歌い手
の望む調とテンポを持つ伴奏演奏を実現する。
Next, the second aspect of the present invention will be explained. FIG. 2 is a block diagram showing an embodiment of the singing accompaniment device according to the second invention. In the second invention, a key tempo determining section 7 is provided which extracts the tempo in addition to the key from the singing voice, thereby realizing an accompaniment performance having the key and tempo desired by the singer.

第9図は、第2図における調テンポ決定部の処理を示す
ブロック図である。第1の発明と同様に、A/D変換部
31において歌声からA/D変換後、パワーピッチ抽出
部32にて波形が分析されパワーとピッチが求められ、
セグメンテーション部33にてパワーの変化量を用いた
セグメンテーションが行われる。次に、音程決定部34
において第1の発明と同様に音程が決定され、メロディ
対応付は部35ではメロディ格納部2のメロディと歌い
手のメロディの対応付けが行われる。
FIG. 9 is a block diagram showing the processing of the key tempo determining section in FIG. 2. Similar to the first invention, after A/D conversion from the singing voice in the A/D conversion section 31, the waveform is analyzed in the power pitch extraction section 32 to obtain power and pitch,
A segmentation unit 33 performs segmentation using the amount of change in power. Next, the pitch determining section 34
The pitch is determined in the same manner as in the first invention, and in the melody mapping section 35, the melody in the melody storage section 2 and the melody of the singer are correlated.

次に、テンポ決定部71においてテンポが求められる。Next, the tempo determination section 71 determines the tempo.

メロディ対応付けによって、歌い手が歌ったメロディの
音数がわかるので、それとメロディ時間長からテンポを
計算する。すなわち、歌い手の歌った音数が4分音符何
拍分であるかを求めることで、メロディ時間長から一分
間当たりの4分音符数であるテンポを得ることができる
。例えば、4分の4拍子の曲の2小説、すなわち4分音
符8拍分を5秒で歌ったとすると、テンポは、8拍*8
0s15s=96、という具合いに求めることができる
Since the number of notes of the melody sung by the singer can be determined by melody mapping, the tempo is calculated from this and the melody duration. That is, by determining the number of beats of quarter notes sung by the singer, the tempo, which is the number of quarter notes per minute, can be obtained from the melody duration. For example, if you sing two songs in 4/4 time, that is, 8 beats of quarter notes in 5 seconds, the tempo will be 8 beats * 8.
It can be determined as follows: 0s15s=96.

一移調幅決定WJ36では、第1の発明と同様にして移
調幅が求められる。
In the first transposition width determination WJ36, the transposition width is determined in the same manner as in the first invention.

以上のように、テンポと移調幅が求められると、伴奏デ
ータ作成部5では、基本伴奏データ格納部4の伴奏デー
タにテンポを設定し、リズムパートを除いた伴奏データ
の全ての音程を2度上げた伴奏データが作成される。
As described above, when the tempo and transposition range are determined, the accompaniment data creation unit 5 sets the tempo to the accompaniment data in the basic accompaniment data storage unit 4, and changes all intervals of the accompaniment data except the rhythm part twice. The accompaniment data that has been raised is created.

最後に、伴奏制御部6では、歌い手の歌唱の際、作成さ
れた伴奏データに従って歌声伴奏が演奏される。
Finally, when the singer sings, the accompaniment control section 6 plays vocal accompaniment according to the created accompaniment data.

(発明の効果) 以上説明した本発明の第1の発明による歌声伴奏装置で
は、歌い手が事前に曲の一部を歌うだけで、オペレータ
や複雑な操作を必要とせずに、歌い手の望む調で伴奏を
演奏することができる。また、従来のカラオケテープな
どに見られた調の変更幅の制限や、テープ走行速度の変
化による演奏の聞き苦しさはなく、どのような調でも演
奏の質を低下させることがない。
(Effects of the Invention) With the singing accompaniment device according to the first aspect of the present invention described above, the singer can simply sing a part of the song in advance, without the need for an operator or complicated operations, and in the key the singer desires. Can play accompaniment. In addition, there is no restriction on the range of key changes found in conventional karaoke tapes, and there is no difficulty in hearing the performance due to changes in tape running speed, and the quality of the performance does not deteriorate in any key.

さらに、本発明の第2の発明による歌声伴奏装置では、
調だけでなく、テンポも自由に設定できるため、より快
適な歌声伴奏を楽しむことができる。
Furthermore, in the singing accompaniment device according to the second invention of the present invention,
Since you can freely set not only the key but also the tempo, you can enjoy more comfortable singing accompaniment.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は、本発明の第1の発明の一実施例を示すブロッ
ク図。第2図は、本発明の第2の発明の一実施例を示す
ブロック図。第3図は、第1図、第2図におけるメロデ
ィ格納部2に格納されたメロディの例を示す五線譜。第
4図は、第3図のメロディを音程と音長のメロディ情報
として表現した例を示す図。第5図は第1図における調
決定部3における処理の様子を示す図。第6図は、第5
図におけるセグメンテーション部33の処理を説明する
ための図。第7図は、第5図における音程決定部34に
おける処理を説明するための図。第8図は、第5図にお
けるメロディ対応付は部35における処理を説明するた
めの図。第9図は、第2図における調テンポ決定部7に
おける処理の様子を示す図である。 図において、 1・・・マイク、2・・・メロディ格納部、3・・・調
決定部、4・・・基本伴奏データ格納部、5・・・伴奏
データ作成部、6・・・演奏制御部、7・・・調テンポ
決定部、31・・・A/D変換部、32・・・パワーピ
ッチ抽出部、33・・・セグメンテーション部、34・
・・音程決定部、35・・・メロディ対応付は部、36
・・・移調幅決定部、71・・・テンポ決定部。
FIG. 1 is a block diagram showing an embodiment of the first aspect of the present invention. FIG. 2 is a block diagram showing an embodiment of the second invention of the present invention. FIG. 3 is a staff score showing an example of a melody stored in the melody storage unit 2 in FIGS. 1 and 2. FIG. 4 is a diagram showing an example in which the melody shown in FIG. 3 is expressed as melody information of pitch and length. FIG. 5 is a diagram showing the state of processing in the key determining section 3 in FIG. 1. Figure 6 shows the fifth
FIG. 3 is a diagram for explaining the processing of the segmentation unit 33 in the diagram. FIG. 7 is a diagram for explaining the processing in the pitch determining section 34 in FIG. 5. FIG. 8 is a diagram for explaining the processing in the melody mapping section 35 in FIG. 5. FIG. 9 is a diagram showing the state of processing in the key tempo determining section 7 in FIG. 2. In the figure, 1...Microphone, 2...Melody storage section, 3...Key determining section, 4...Basic accompaniment data storage section, 5...Accompaniment data creation section, 6...Performance control Section 7... Key tempo determination section, 31... A/D conversion section, 32... Power pitch extraction section, 33... Segmentation section, 34.
... Pitch determination section, 35... Melody correspondence section, 36
...Transposition width determining section, 71... Tempo determining section.

Claims (1)

【特許請求の範囲】[Claims] (1)曲の一部を歌った声を入力する手段と、メロディ
情報を音程や音長の情報として格納するメロディ格納部
と、入力された歌声を分析し前記メロディ格納部のメロ
ディ情報を用いて移調幅を決定する調決定部と、演奏に
必要な音楽情報を基本伴奏データとして格納する基本伴
奏データ格納部と、基本伴奏データ格納部の基本伴奏デ
ータを前記調決定部において決定された移調幅で移調し
て伴奏データを作成する伴奏データ作成部と、作成され
た伴奏データに従って演奏を行う演奏制御部とを有する
ことを特徴とする歌声伴奏装置。(2)曲の一部を歌っ
た声を入力する手段と、メロディ情報を音程や音長の情
報として格納するメロディ格納部と、入力された歌声を
分析し前記メロディ格納部のメロディ情報を用いて移調
幅とテンポを決定する調テンポ決定部と、演奏に必要な
音楽情報を基本伴奏データとして格納する基本伴奏デー
タ格納部と、基本伴奏データ格納部の基本伴奏データを
前記調テンポ決定部において決定された移調幅で移調し
同じく決定されたテンポを設定した伴奏データを作成す
る伴奏データ作成部と、作成された伴奏データに従って
演奏を行う伴奏制御部とを有することを特徴とする歌声
伴奏装置。
(1) A means for inputting a voice singing a part of a song, a melody storage unit that stores melody information as pitch and length information, and a melody storage unit that analyzes the input singing voice and uses the melody information in the melody storage unit. a key determining unit that determines the transposition range by using the key determining unit; a basic accompaniment data storage unit that stores musical information necessary for performance as basic accompaniment data; 1. A singing voice accompaniment device comprising: an accompaniment data creation section that creates accompaniment data by transposing the key by a width; and a performance control section that performs a performance according to the created accompaniment data. (2) A means for inputting a voice singing a part of a song, a melody storage unit that stores melody information as pitch and length information, and a melody storage unit that analyzes the input singing voice and uses the melody information in the melody storage unit. a key tempo determining unit that determines the transposition range and tempo; a basic accompaniment data storage unit that stores musical information necessary for performance as basic accompaniment data; and a key tempo determining unit that stores the basic accompaniment data in the basic accompaniment data storage unit. A singing voice accompaniment device comprising: an accompaniment data creation unit that creates accompaniment data that transposes in a determined transposition range and sets a similarly determined tempo; and an accompaniment control unit that performs a performance in accordance with the created accompaniment data. .
JP63119837A 1988-05-16 1988-05-16 Singing voice accompanying device Pending JPH01288900A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63119837A JPH01288900A (en) 1988-05-16 1988-05-16 Singing voice accompanying device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63119837A JPH01288900A (en) 1988-05-16 1988-05-16 Singing voice accompanying device

Publications (1)

Publication Number Publication Date
JPH01288900A true JPH01288900A (en) 1989-11-21

Family

ID=14771486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63119837A Pending JPH01288900A (en) 1988-05-16 1988-05-16 Singing voice accompanying device

Country Status (1)

Country Link
JP (1) JPH01288900A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5010664A (en) * 1988-11-18 1991-04-30 Matsushita Electric Industrial Co., Ltd. Steam iron having a solenoid driven pump and heated evaporation chamber for providing steam and operable for further providing extra steam at specified intervals
JPH04301891A (en) * 1991-03-29 1992-10-26 Kawai Musical Instr Mfg Co Ltd Electronic musical instrument
JP2004170891A (en) * 2002-11-15 2004-06-17 Takao Ushiyama Karaoke system with automatic adjusting function for key and singing start delay
JP2004334240A (en) * 1996-11-20 2004-11-25 Yamaha Corp Sound signal analysis device and method
US7348477B2 (en) 2001-09-19 2008-03-25 Yamaha Corporation Electronic keyboard musical instrument
JP2016118684A (en) * 2014-12-22 2016-06-30 ブラザー工業株式会社 Karaoke device and karaoke program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58152291A (en) * 1982-03-05 1983-09-09 日本電気株式会社 Automatic learning type accompanying apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58152291A (en) * 1982-03-05 1983-09-09 日本電気株式会社 Automatic learning type accompanying apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5010664A (en) * 1988-11-18 1991-04-30 Matsushita Electric Industrial Co., Ltd. Steam iron having a solenoid driven pump and heated evaporation chamber for providing steam and operable for further providing extra steam at specified intervals
JPH04301891A (en) * 1991-03-29 1992-10-26 Kawai Musical Instr Mfg Co Ltd Electronic musical instrument
JP2004334240A (en) * 1996-11-20 2004-11-25 Yamaha Corp Sound signal analysis device and method
US7348477B2 (en) 2001-09-19 2008-03-25 Yamaha Corporation Electronic keyboard musical instrument
JP2004170891A (en) * 2002-11-15 2004-06-17 Takao Ushiyama Karaoke system with automatic adjusting function for key and singing start delay
JP2016118684A (en) * 2014-12-22 2016-06-30 ブラザー工業株式会社 Karaoke device and karaoke program

Similar Documents

Publication Publication Date Title
US5792971A (en) Method and system for editing digital audio information with music-like parameters
JP3365354B2 (en) Audio signal or tone signal processing device
JP3598598B2 (en) Karaoke equipment
US6191349B1 (en) Musical instrument digital interface with speech capability
JP3718919B2 (en) Karaoke equipment
CN112382257B (en) Audio processing method, device, equipment and medium
CN1750116B (en) Automatic rendition style determining apparatus and method
KR20020044081A (en) Method for analyzing music using sounds of instruments, or sounds and information of music notes
JPH11184490A (en) Singing synthesizing method by rule voice synthesis
Lerch Software-based extraction of objective parameters from music performances
JP3567123B2 (en) Singing scoring system using lyrics characters
JP3279204B2 (en) Sound signal analyzer and performance information generator
JPH01288900A (en) Singing voice accompanying device
JP3599686B2 (en) Karaoke device that detects the critical pitch of the vocal range when singing karaoke
JP4024440B2 (en) Data input device for song search system
JP4180548B2 (en) Karaoke device with vocal range notification function
JP3879524B2 (en) Waveform generation method, performance data processing method, and waveform selection device
JPH11338480A (en) Karaoke (prerecorded backing music) device
JPH11249674A (en) Singing marking system for karaoke device
JP2007225916A (en) Authoring apparatus, authoring method and program
JP3752859B2 (en) Automatic composer and recording medium
JPH065455B2 (en) Singing instruction device
JP3834963B2 (en) Voice input device and method, and storage medium
JP3279299B2 (en) Musical sound element extraction apparatus and method, and storage medium
JP3832147B2 (en) Song data processing method