JP2000315089A - Auxiliary voice generating device - Google Patents

Auxiliary voice generating device

Info

Publication number
JP2000315089A
JP2000315089A JP11124243A JP12424399A JP2000315089A JP 2000315089 A JP2000315089 A JP 2000315089A JP 11124243 A JP11124243 A JP 11124243A JP 12424399 A JP12424399 A JP 12424399A JP 2000315089 A JP2000315089 A JP 2000315089A
Authority
JP
Japan
Prior art keywords
data
auxiliary
voice
input
sequence data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11124243A
Other languages
Japanese (ja)
Inventor
Hiroyuki Hiraishi
博之 平石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP11124243A priority Critical patent/JP2000315089A/en
Publication of JP2000315089A publication Critical patent/JP2000315089A/en
Pending legal-status Critical Current

Links

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To actualize various techniques for cases wherein multiple singers sing artificially by providing the function of a harmonizer, and further generating various auxiliary voices from the singing of one singer and outputting them in various styles. SOLUTION: (1) of a type A is the voice of a main part and a part that a singer actually sings at the time of KARAOKE and (2) is an auxiliary voice generated by the auxiliary voice generating device according to the voice of the main part (1). In a type B, an auxiliary voice (2) is delayed one measure behind the main part (1) similarly to the type A and further converted to a five degrees higher interval. In a type C, an auxiliary voice (2) is outputted one measure after the main part (1), and further respective intervals are increased by five degrees and made twice as long as the original sounds.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カラオケ装置など
で実際に歌い手が歌った音声に基づいて別の補助音声を
生成する補助音声生成装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an auxiliary voice generating apparatus for generating another auxiliary voice based on a voice actually sung by a singer in a karaoke apparatus or the like.

【0002】[0002]

【従来の技術】最近のカラオケには、ハーモナイザーと
いう機能がついたものがある。これは、歌い手が歌って
いるメインパートであるメロディーラインの他に、メロ
ディーラインの音程を3度上、5度上、3度下などの別
パートの音程に変換し、これを元の音声に重ねて出力す
る機能である。ハーモナイザーを用いると、本人はメイ
ンパートを歌いながら、同時に他パートを歌う自分の歌
声といわゆる「ハモる」ことが可能となり、カラオケが
より楽しいものとなる。
2. Description of the Related Art Some recent karaoke machines have a function called a harmonizer. This means that in addition to the melody line that is the main part sung by the singer, the pitch of the melody line is converted to the pitch of another part such as 3rd, 5th, 3rd, etc., and this is converted to the original voice. This is a function to output in a superimposed manner. With the use of the harmonizer, the person himself can sing the main part and at the same time so-called "harmony" with his own singing voice singing other parts, making karaoke more fun.

【0003】[0003]

【発明が解決しようとする課題】ところで、従来のハー
モナイザーは、上記のように、メインパートであるメロ
ディラインの音声から他パートの音声を生成し、これを
リアルタイムで元の音声に重ねて出力するものだった。
しかし、実際の演奏で複数人が一緒に歌う場合の技法に
は、前述のように3度上、5度上あるいは3度下などの
音声を同時に重ね合わせて歌う以外にも、輪唱その他種
々の技法がある。
As described above, the conventional harmonizer generates the sound of the other part from the sound of the melody line, which is the main part, and outputs it in real time, superimposed on the original sound. Was something.
However, techniques for singing together in an actual performance include, as described above, singing by overlapping voices such as 3rd, 5th or 3rd at the same time, as well as vocalization and various other techniques. There are techniques.

【0004】本発明は、このような背景のもとになされ
たものであり、従来からあったハーモナイザーの機能に
加え、さらに、一人の歌い手が歌う音声から様々な補助
音声を生成し、これを色々な態様で出力することによっ
て、擬似的に複数人で歌う場合の種々の技法を実現でき
る補助音声生成装置を提供することを目的とする。
The present invention has been made under such a background. In addition to the function of the conventional harmonizer, the present invention further generates various auxiliary sounds from the sound sung by one singer, and generates the auxiliary sounds. It is an object of the present invention to provide an auxiliary sound generation device that can realize various techniques for simulating singing by a plurality of persons by outputting in various modes.

【0005】[0005]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明は、入力されたアナログ音声信号をディジ
タル化するA/D変換手段と、前記A/D変換手段から
出力される入力音声データを記憶する入力音声記憶手段
と、前記入力音声データに基づいて補助音声データを生
成する補助音声データ生成手段と、前記補助音声データ
をどのような態様で再生するかを規定するシーケンスデ
ータを保持するシーケンスデータ保持手段と、前記シー
ケンスデータに従って前記補助音声データを再生するよ
う制御する補助音声再生制御手段と、前記補助音声再生
制御手段の制御のもとで再生される補助音声データをア
ナログ信号に変換するD/A変換手段とを具備すること
を特徴とする補助音声生成装置。
In order to achieve the above object, the present invention provides an A / D converter for digitizing an input analog audio signal and an input output from the A / D converter. Input audio storage means for storing audio data, auxiliary audio data generation means for generating auxiliary audio data based on the input audio data, and sequence data for defining in what manner the auxiliary audio data is reproduced. Holding sequence data holding means, auxiliary sound reproduction control means for controlling the reproduction of the auxiliary audio data according to the sequence data, and an analog signal for reproducing the auxiliary audio data reproduced under the control of the auxiliary sound reproduction control means. And a D / A conversion means for converting the sound into an auxiliary sound.

【0006】請求項2記載の発明は、請求項1記載の発
明において、前記シーケンスデータ保持手段は、前記入
力音声データを所定のタイミングだけ遅らせて出力する
シーケンスデータを保持するものである。
According to a second aspect of the present invention, in the first aspect of the invention, the sequence data holding means holds the sequence data for outputting the input audio data with a predetermined delay.

【0007】請求項3記載の発明は、請求項1記載の発
明において、前記シーケンスデータ保持手段は、前記入
力音声データの音程を所定の度数だけ変えた補助音声デ
ータを生成するとともに、所定のタイミングだけ遅らせ
て出力するシーケンスデータを保持するものである。
According to a third aspect of the present invention, in the first aspect of the present invention, the sequence data holding means generates auxiliary audio data in which a pitch of the input audio data is changed by a predetermined frequency, and generates a predetermined timing. It holds the sequence data to be output with only a delay.

【0008】請求項4記載の発明は、請求項1記載の発
明において、前記シーケンスデータ保持手段は、前記入
力音声データの音程を所定の度数だけ変え、音の長さを
所定長さだけ変え、かつ所定のタイミングだけ遅らせて
出力するシーケンスデータを保持するものである。
According to a fourth aspect of the present invention, in the first aspect of the invention, the sequence data holding means changes the pitch of the input voice data by a predetermined frequency, changes the length of the sound by a predetermined length, Further, it holds sequence data to be output with a delay of a predetermined timing.

【0009】請求項5記載の発明は、請求項1記載の発
明において、前記シーケンスデータ保持手段は、予め入
力され格納された入力音声データを予め決められたタイ
ミングで出力するシーケンスデータを保持するものであ
る。
According to a fifth aspect of the present invention, in the first aspect of the invention, the sequence data holding means holds sequence data for outputting previously input and stored input audio data at a predetermined timing. It is.

【0010】請求項6記載の発明は、請求項1記載の発
明において、前記補助音声データ生成手段は、前記入力
音声データの音声を分割し、分割されたそれぞれの分割
音声に所定の処理を施すとともに前記分割音声の時間的
順序を入れ替え、前記シーケンスデータ保持手段は、こ
れを所定のタイミングだけ遅らせて出力するシーケンス
データを保持するものである。
According to a sixth aspect of the present invention, in the first aspect of the invention, the auxiliary voice data generating means divides the voice of the input voice data and performs a predetermined process on each of the divided voices. At the same time, the temporal order of the divided voices is changed, and the sequence data holding means holds the sequence data to be output with a delay of a predetermined timing.

【0011】[0011]

【発明の実施の形態】以下に図面を参照して、発明の実
施の形態について説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0012】図1は、本実施形態の補助音声生成装置に
よって生成できる種々の補助音声を、楽譜として示した
図である。まず、この図1を参照して、本実施形態の補
助音声生成装置をカラオケに適用したときにどのような
ことが実現できるかについて説明する。
FIG. 1 is a diagram showing, as musical scores, various auxiliary voices that can be generated by the auxiliary voice generating device of the present embodiment. First, with reference to FIG. 1, what can be realized when the auxiliary sound generation device of the present embodiment is applied to karaoke will be described.

【0013】図1において、Aタイプのは、カラオケ
などで歌い手が実際に歌うメインパートであり、は、
のメインパートの音声に基づいて補助音声生成装置に
よって生成されるサブパートである。Aタイプでは、メ
インパートと同じ音声がメインパートよりも1小節だけ
遅れて再生されたものがサブパートとなっており、これ
がのメインパートの音声(歌い手がリアルタイムで歌
っている音声)に重ね合わされて出力される。すなわ
ち、輪唱に似た技法が実現される。
In FIG. 1, type A is a main part of a singer who actually sings at karaoke or the like.
Is a subpart generated by the auxiliary voice generation device based on the voice of the main part. In the A type, the same sound as the main part is played back one bar later than the main part, which is a subpart, which is superimposed on the main part's sound (the sound of the singer singing in real time). Is output. That is, a technique similar to a round singing is realized.

【0014】Bタイプでは、Aタイプと同じく、のサ
ブパートの音声がのメインパートよりも1小節だけ遅
れて再生されるが、サブパートの音声はもとのメインパ
ートの音声よりも5度だけ高い音程に変換されて再生さ
れる。したがって、単なる輪唱とは異なる特殊な効果が
得られる。Cタイプは、のサブパートの音声が、の
メインパートより1小節遅れて出力されるだけでなく、
各音の音程を楽譜データに基づいて変更し、各音の長さ
を元の音の2倍に長くしている。
In the B type, as in the A type, the sound of the subpart is reproduced one bar later than the main part, but the sound of the subpart is at a pitch higher by 5 degrees than the sound of the original main part. Is converted and played. Therefore, a special effect different from a simple singing is obtained. In the C type, not only is the sound of the subpart output one bar later than the main part,
The pitch of each sound is changed based on the musical score data, and the length of each sound is made twice as long as the original sound.

【0015】Dタイプの場合は、に示した「ソレ」と
いう合いの手を、歌い手が実際に歌う前に予め録音して
おく。そして、のように歌がカラオケに合わせて進行
し、所定の箇所にくると(ここでは2小節目の最後)、自
動的に予め録音してあった「ソレ」という合いの手が出
力される。普通、合いの手は別の人が入れるものだが、
このDタイプでは自分の歌に自分の音声の合いの手が入
る。
In the case of the D type, a hand corresponding to "sole" shown in the above is recorded in advance before the singer actually sings. When the song progresses along with the karaoke as described above and reaches a predetermined location (here, at the end of the second bar), a hand that has been previously recorded and that is “sole” is automatically output. Normally, the hand of the other person is put in by another person,
With this D type, you can get your voice in hand with your own song.

【0016】Eタイプでは、のメインパートの音声
が、のように、元の音声の順番が入れ替わり、さらに
各音の最初の子音が削られ、母音だけとなって出力され
る。したがって、のサブパートの音声はほとんどの
メインパートと無関係な音声となる。これは、元の音声
と関係ない補助音声をどのようにして生成するかという
一つの例であり、このようにして生成された、メインパ
ートとはほぼ無関係な補助音声は、たとえばバックコー
ラスなどとして用いることができ、しかもそれが自分の
声であるという点が特徴である。
In the E type, the sound of the main part is replaced with the original sound, and the first consonant of each sound is deleted, and only the vowel is output. Therefore, the sound of the subpart is sound irrelevant to most of the main part. This is one example of how to generate auxiliary voices that are not related to the original voice, and the auxiliary voices that are almost irrelevant to the main part are generated as back chorus, for example. It is unique in that it can be used and that it is your voice.

【0017】このように、メインパートを歌う自分の音
声、あるいは歌う前に予め取り込んでおいた音声に基づ
いて色々な補助音声を生成し、それを適当なタイミング
で出力することによって、複数人で同時に歌わなければ
実現できない種々の技法を、擬似的に一人の音声で実現
したり、その他の効果音声の生成が可能となり、これま
でになかったカラオケの新たな楽しみ方を提供できる。
As described above, various auxiliary voices are generated based on the voice of the user singing the main part or the voice previously captured before the singing, and are output at appropriate timing. Various techniques that cannot be realized without singing at the same time can be realized by one voice in a pseudo manner, and other effect voices can be generated, thereby providing a new way of enjoying karaoke that has never been seen before.

【0018】次に、図1に示した種々の技法や効果音声
を実現する方法について説明する。図2は、図1に示し
た種々の技法を実現する本実施形態の補助音声生成装置
の全体的なブロック図である。
Next, various techniques shown in FIG. 1 and methods for realizing sound effects will be described. FIG. 2 is an overall block diagram of the auxiliary voice generation device of the present embodiment for realizing the various techniques shown in FIG.

【0019】図2において、マイク10は、歌い手がこ
れをもって歌う通常のマイクである。マイク10からの
音声信号は、アンプ11で増幅されてローパスフィルタ
12を通り、A/Dコンバータ13においてディジタル
データに変換される。A/Dコンバータ13が音声信号
をディジタルデータに変換すると、ディジタルデータが
生成されたことを示す割り込み信号をシーケンサ14の
主要部を構成するCPUに出力する。このCPUが割り
込み信号を受けると、後述の図6に示したアルゴリズム
を実行して、ディジタル化された音声データをワークR
AM16bの中の入力音声バッファに転送し、ここに音
声データを一時的に格納する。この音声データは、音声
バッファがいっぱいになると、シーケンサ14の制御の
もとでデュアルポートRAM(DPRAM)15に転送
される。
In FIG. 2, a microphone 10 is a normal microphone that a singer sings with. An audio signal from the microphone 10 is amplified by an amplifier 11, passes through a low-pass filter 12, and is converted into digital data by an A / D converter 13. When the A / D converter 13 converts the audio signal into digital data, the A / D converter 13 outputs an interrupt signal indicating that the digital data has been generated to the CPU constituting the main part of the sequencer 14. When the CPU receives the interrupt signal, it executes an algorithm shown in FIG.
The audio data is transferred to an input audio buffer in the AM 16b, and audio data is temporarily stored therein. This audio data is transferred to a dual port RAM (DPRAM) 15 under the control of the sequencer 14 when the audio buffer becomes full.

【0020】プログラムROM16aには、楽譜データ
(「シーケンスデータ」ともいう)が記憶されている。楽譜
データとは、各曲ごとの音楽を生成するための設計書の
ようなデータであって、音程、発音のタイミング、音
量、どの音色を使うか、リバーブ、ビブラート、エコー
などに関する情報が、シーケンサ14のCPUが扱い易
い形態に加工されたものである。
The program ROM 16a stores musical score data.
(Also referred to as “sequence data”). Musical score data is data such as a design document for generating music for each song, and information on pitch, sounding timing, volume, which tone to use, reverb, vibrato, echo, etc. The fourteen CPUs have been processed into an easy-to-handle form.

【0021】本実施形態の補助音声生成装置の特徴の一
つは、歌い手が歌うことのできるすべての曲について、
メインパートの楽譜データと、選択可能なサブパートの
楽譜データが、一つのまとまりとしてプログラムROM
16aに格納されているという点である。但し、装置の
内部では、これらのサブパートの楽譜データも、メイン
パートの楽譜データや、この他に必要となる伴奏のため
の楽器演奏の楽譜データと同等なものとして扱われる。
すなわち、一つの曲に含まれるメインパート(歌い手の
歌唱)、伴奏、サブパート(生成される歌唱)のそれぞれ
が、別の曲のように扱われる。なお、これらの楽譜デー
タは、必ずしもROM16aのような装置内のメモリに
格納しておく必要はなく、例えば大量の楽譜データを蓄
積している専門業者などから通信回線などを利用してカ
ラオケ店などに個別に送信して提供するといった形態も
可能である。
One of the features of the auxiliary voice generating apparatus according to the present embodiment is that, for all songs that can be sung by a singer,
The score data of the main part and the score data of the selectable subparts are stored in the program ROM as one unit.
16a. However, inside the apparatus, the musical score data of these subparts is also treated as being equivalent to the musical score data of the main part and the musical score data of the musical instrument performance for the accompaniment required.
In other words, the main part (singer's singing), accompaniment, and subpart (generated singing) included in one song are each treated like another song. These musical score data need not always be stored in a memory in the apparatus such as the ROM 16a. For example, a karaoke store or the like can use a communication line or the like from a specialized trader storing a large amount of musical score data. It is also possible to send the information individually and provide it.

【0022】歌う人が特定の曲を選択すると、その曲の
楽譜データがプログラムROM16aからシーケンサ1
4に送られる。さらに、図1に示したいずれかの技法を
選択すると、その技法に対応するサブパートの楽譜デー
タも、プログラムROM16aからシーケンサ14に送
られる。演奏処理が開始されると、シーケンサ14はこ
れらの楽譜データを解釈して、PCM音源17に対し
て、前述の楽譜データの内容を解釈した指示データを送
る。PCM音源17は、シーケンサ14からの指示に基
づいて、音色データが格納されたROM18から必要な
楽器などの音色データを読み出すとともに、DPRAM
15に蓄積されている、歌う人の音声データも読み出し
てくる。音色データというのは、たとえば、バイオリン
ならばバイオリンの音の波形をディジタル化したもので
ある。
When the singer selects a specific song, the score data of the song is stored in the sequencer 1 from the program ROM 16a.
4 Further, when any of the techniques shown in FIG. 1 is selected, the musical score data of the subpart corresponding to the technique is also sent from the program ROM 16a to the sequencer 14. When the performance process is started, the sequencer 14 interprets these musical score data and sends to the PCM sound source 17 instruction data in which the contents of the musical score data are interpreted. The PCM sound source 17 reads necessary tone data of an instrument or the like from a ROM 18 in which tone data is stored based on an instruction from the sequencer 14, and outputs a DPRAM.
The singing person's voice data stored in 15 is also read out. The tone color data is, for example, a digitized waveform of a violin sound in the case of a violin.

【0023】なお、音声データを記憶するためのRAM
5として、入出力ポートが二組あるデュアルポートRA
Mを用いたのは、このRAMがシーケンサ14からデー
タを書き込まれるとともに、PCM音源17によってデ
ータの読み出しがなされるので、同時にアクセスするこ
とがあるためである。ただし、この部分にデュアルポー
トRAMを用いることは必須ではなく、通常のRAMを
用いることもできる。この点については、後述する。
A RAM for storing audio data
5 is a dual port RA with two input / output ports
M is used because the RAM is written with data from the sequencer 14 and the data is read out by the PCM tone generator 17 so that they may be accessed simultaneously. However, it is not essential to use a dual port RAM for this part, and a normal RAM can be used. This will be described later.

【0024】PCM音源17は、シーケンサ14からの
指示に従って音程や音量の変更、リバーブ、エコー等の
エフェクト処理を行って、個々の具体的な音楽のディジ
タルデータを生成する。こうして得られたデータは、D
/Aコンバータ19においてアナログ信号に変換され、
ローパスフィルタ20を通されたあと、アンプ21で増
幅され、スピーカ22から出力される。
The PCM sound source 17 generates digital data of each specific music by performing an effect process such as a change of a pitch or a volume, a reverb or an echo according to an instruction from the sequencer 14. The data thus obtained is D
A / A converter 19 converts the signal into an analog signal.
After passing through the low-pass filter 20, the signal is amplified by the amplifier 21 and output from the speaker 22.

【0025】表示回路25は、選択された曲の歌詞など
を曲の進行に合わせて表示したり、現在歌うべき歌詞の
場所を歌い手に示すカーソルを表示するための信号を生
成する。この信号は、CRTなどの表示デバイス26に
送られ、曲に合わせて選択された背景画面とともに表示
される。その他、画面上で曲の選択を行ったり、装置の
ステータスを表示する場合などにも用いられる。
The display circuit 25 generates a signal for displaying the lyrics of the selected song in accordance with the progress of the song or for displaying a cursor indicating the location of the lyrics to be currently sung to the singer. This signal is sent to a display device 26 such as a CRT, and is displayed together with a background screen selected according to the music. In addition, it is also used for selecting a song on the screen or displaying the status of the apparatus.

【0026】なお、図2には示してないが、マイク10
で拾われた音声を、上記の経路とは別の経路でアナログ
音声として処理し、D/Aコンバータ19によって生成
されたアナログ信号とミックスしてスピーカ22から出
力することも可能である。このようにして出力される音
声は、歌い手が歌ったそのままの音声と、図2の回路で
生成された補助音声が重ね合わされたものとなる。ま
た、図2のシーケンサ14を構成するCPUは、図2の
装置全体の制御も行ない、また図3以降の処理アルゴリ
ズムの実行もつかさどる。
Although not shown in FIG. 2, the microphone 10
It is also possible to process the audio picked up by the above as an analog audio through a different path from the above-mentioned path, mix it with the analog signal generated by the D / A converter 19, and output the mixed signal from the speaker 22. The voice output in this manner is a voice obtained by superimposing the voice sung by the singer and the auxiliary voice generated by the circuit of FIG. The CPU constituting the sequencer 14 shown in FIG. 2 also controls the entire apparatus shown in FIG. 2, and controls the execution of the processing algorithms shown in FIG.

【0027】図3は、歌い手がある曲を選択し、伴奏に
合わせて歌うときに実行されるメインのフローチャート
である。ここでは、表示デバイス26の画面に歌詞が出
て、歌い手がそれを見ながら歌う場合を想定している。
図3において、初期設定(Step10)では、歌う曲の選定
や技法の選択、また図1のDタイプのように合いの手を
入れる必要があるものについてはそれを録音するといっ
た、最初に必要な設定を行う。
FIG. 3 is a main flowchart executed when a singer selects a certain song and sings along with the accompaniment. Here, it is assumed that lyrics appear on the screen of the display device 26 and the singer sings while watching the lyrics.
In FIG. 3, in the initial setting (Step 10), first, necessary settings such as selection of a song to be sung and selection of a technique, and recording of a need to make a match like D type in FIG. Do.

【0028】初期設定が終わると、「楽譜表示処理」の
サブルーチンに入る(Step11)。これは画面に楽譜や歌
詞を順番に表示デバイス26に表示させてゆく処理であ
る。具体的には、歌が進んでいくときに現在の歌詞の部
分を表示したり、表示している歌詞の上で現在歌うべき
箇所をハイライト表示する処理である。
When the initialization is completed, a subroutine of "score display processing" is entered (Step 11). This is a process of displaying music scores and lyrics on the screen in order on the display device 26. More specifically, the process is to display a portion of the current lyrics as the song progresses, or to highlight a portion to be currently sung on the displayed lyrics.

【0029】「演奏処理」のサブルーチン(Step12)
は、マイク10から入力された歌い手の音声をディジタ
ル化したり、このディジタル音声データをメモリに格納
したり、この音声をリアルタイムで再生したり、さら
に、メモリに格納され音声データに基づいて、補助パー
トの音声を再生したりといった処理を行う。伴奏処理
も、この演奏処理のサブルーチンで行われる。
Subroutine of "performance processing" (Step 12)
Is to digitize the voice of the singer input from the microphone 10, store the digital voice data in a memory, reproduce the voice in real time, and further, based on the voice data stored in the memory, an auxiliary part. For example, a process of reproducing the voice of the user is performed. Accompaniment processing is also performed in this performance processing subroutine.

【0030】この「楽譜表示処理」と「演奏処理」の各
サブルーチンをその曲の最後まで繰り返すことによっ
て、一曲分の演奏が完了する。以下で、図3の「楽譜表
示処理」と「演奏処理」の各サブルーチンについて説明
する。
By repeating the sub-routines of "score display processing" and "performance processing" until the end of the music, the performance of one music is completed. Hereinafter, each subroutine of the "score display process" and the "performance process" in FIG. 3 will be described.

【0031】図4は、「楽譜表示処理」サブルーチンの
アルゴリズムを示したフローチャートである。これは、
歌い手が歌詞を見ながらカラオケで歌うことができるよ
うに歌い手を補助するものである。ある曲の1画面分の
歌詞を表示デバイス26に表示すると、まずその歌詞の
先頭部分をハイライト表示する。そして、歌の進行に合
わせてこの表示カーソルを移動し(Step20)、カーソル
が最後まで到達したかどうかを判断する(Step21)。こ
こで、カーソルが最後まで到達していなければ、表示カ
ーソルを次の部分に移動させて更新し(Step22)、カー
ソルが最後まで到達していれば、次の1画面分の歌詞を
表示する。
FIG. 4 is a flowchart showing the algorithm of the "score display process" subroutine. this is,
It assists the singer so that the singer can sing at karaoke while watching the lyrics. When the lyrics of one screen of a certain song are displayed on the display device 26, the head of the lyrics is first highlighted. Then, the display cursor is moved in accordance with the progress of the song (Step 20), and it is determined whether the cursor has reached the end (Step 21). If the cursor has not reached the end, the display cursor is moved to the next part and updated (Step 22). If the cursor has reached the end, the lyrics for the next one screen are displayed.

【0032】図5は、「演奏処理」サブルーチンのアル
ゴリズムを示したフローチャートである。同図のアルゴ
リズムが開始されると、まず、タイマー処理が行われる
(Step30)。このタイマー処理は、音符のテンポを決め
るための処理である。ただし、ここで音符というのは通
常の楽譜に記載される音符ではなく、シーケンサの音符
である。本装置では120分の1秒をこの音符のテンポ
とし、図5に示したStep31からStep37までのルーチ
ンをこの時間内に1回ずつ実行する。
FIG. 5 is a flowchart showing the algorithm of the "performance process" subroutine. When the algorithm shown in the figure is started, first, a timer process is performed.
(Step 30). This timer process is a process for determining the tempo of a note. However, the note here is not a note described in a normal score, but a note of a sequencer. In this apparatus, 1/120 second is set as the note tempo, and the routine from Step 31 to Step 37 shown in FIG. 5 is executed once within this time.

【0033】次に、現時点で処理すべき未処理の演奏中
の曲があるかどうかを判断する(Step31)。前述のよう
に装置内では、一つの曲の中のメインパート、伴奏、サ
ブパート(これらそれぞれを各パートともいう)をそれぞ
れ別の曲と考えるので、ここでいう未処理の曲とは、こ
の一曲の中のこれらの各パートの中で未処理の演奏中の
曲があるかどうかを判断する、と言う意味である。一曲
の中に複数ある各パートごとに、図5に示したアルゴリ
ズムが実行される。
Next, it is determined whether or not there is an unprocessed music piece to be processed at the present time (Step 31). As described above, in the apparatus, the main part, accompaniment, and sub-part (each of which is also referred to as each part) in one song are considered to be different songs. This means that it is determined whether there is any unprocessed song in each of these parts of the song. The algorithm shown in FIG. 5 is executed for each of a plurality of parts in one song.

【0034】Step31において未処理のものがある場合
には、楽譜データの読み込みを行い(Step32)、楽譜デ
ータを解釈する(Step33)。そして、楽譜の最後まで来
たかどうかを判断し(Step34)、来ていなければ(Step
34でNoであれば)次の処理タイミングかどうかを判
断する(Step36)。そして、処理タイミングになったら
音色データのアドレスをワークRAM16bにセットし
(Step37)、そして音符のデータをワークRAM16b
にセットする(Step38)。なお、Step37で、音色デー
タのアドレスをワークRAM16bにセットするとした
が、実際には、マイクから入力された歌い手の音声が格
納されるDPRAM15のアドレスは、図6のStep54
の転送処理においてアドレス情報テーブルに書き込まれ
る。そして、入力音声をコントロールする楽譜データを
受け取ったシーケンサ14は、このアドレス情報テーブ
ルからアドレス情報を読み出して、ワークRAM16b
にセットする。
If there is any unprocessed data in Step 31, the musical score data is read (Step 32), and the musical score data is interpreted (Step 33). Then, it is determined whether or not the end of the score has been reached (Step 34).
It is determined whether or not it is the next processing timing (Step 36). Then, when the processing timing comes, the address of the tone color data is set in the work RAM 16b.
(Step 37) and the note data is stored in the work RAM 16b.
(Step 38). Although the address of the timbre data is set in the work RAM 16b in Step 37, the address of the DPRAM 15 in which the voice of the singer inputted from the microphone is stored is actually the address of Step 54 in FIG.
Is written to the address information table in the transfer process of Then, the sequencer 14, which has received the musical score data for controlling the input voice, reads out the address information from the address information table and
Set to.

【0035】Step34において楽譜の最後まで来ていれ
ば(Yesであれば)、演奏終了処理を行う(Step35)。
具体的には、終了パラメータをワークRAM16bにセ
ットする。
If the end of the musical score has been reached in Step 34 (if Yes), performance termination processing is performed (Step 35).
Specifically, an end parameter is set in the work RAM 16b.

【0036】また、Step31において、現時点で処理す
べきものがなくなっら、すなわちすべての曲について現
時点で行うべき処理が終わったら(Noであれば)、ワー
クRAMにセットされている値をもとにして音量、音程
の変化を計算し(Step39)、これにより得られたパラメ
ータをPCM音源17にセットし(Step40)、一連
の演奏処理サブルーチンを終了する。
In Step 31, if there is no more to be processed at the present time, that is, if the processing to be performed at this time has been completed for all songs (if No), based on the value set in the work RAM, Changes in volume and pitch are calculated (Step 39), and the parameters thus obtained are set in the PCM sound source 17 (Step 40), and a series of performance processing subroutines is terminated.

【0037】図6は、音声入力割り込み処理のフローチ
ャートである。この処理は、入力された音声データをC
PU内の音声バッファに転送する場合に必要とされる処
理で、シーケンサ14を構成するCPUの割り込み処理
として実行される。まず、音声信号が入力されると、A
/DコンバータからワークRAM16bの中の入力音声
バッファへデータの読み込みを行う(Step50)。次
に、バッファの容量がデータでいっぱいになったかどう
かを調べ(Step51)、バッファがいっぱいになってい
なかったらこの処理を終了し、ルーチンから抜ける。一
方、バッファの容量がいっぱいになっていたら、データ
スムージング処理を行う(Step52)。これは、音声の
ピッチ(音程)を変換したときにそのまま出力すると、
プツプツといったノイズが発生するので、それをなくし
て滑らかな音声にするための処理である。
FIG. 6 is a flowchart of the voice input interrupt processing. In this process, the input audio data is
This is a process required when transferring to the audio buffer in the PU, and is executed as an interrupt process of the CPU constituting the sequencer 14. First, when an audio signal is input, A
Data is read from the / D converter into the input audio buffer in the work RAM 16b (Step 50). Next, it is checked whether or not the buffer capacity is full of data (Step 51). If the buffer is not full, this processing ends and the routine exits. On the other hand, if the buffer capacity is full, data smoothing processing is performed (Step 52). This is because if you change the pitch of the voice and output it as it is,
This is a process for eliminating noises such as pops and smoothing the sound.

【0038】次に、ワークRAM16bの中の入力音声
バッファからDPRAM15へデータを転送するととも
に(Step53)、転送したデータの情報を設定する(St
ep54)。「転送したデータの情報の設定」とは、具体
的には、DPRAM15のどこからデータを配置し始め
たかというアドレス情報を、図2のワークRAM16b
に記憶することである。
Next, data is transferred from the input audio buffer in the work RAM 16b to the DPRAM 15 (Step 53), and information of the transferred data is set (St 53).
ep54). The “setting of information of transferred data” specifically refers to address information indicating where to start arranging data in the DPRAM 15 and the work RAM 16b in FIG.
Is to memorize it.

【0039】ところで、図2では、音声データを記憶す
るためのRAMとして、前述の理由によりDPRAM1
5を用いた。しかし、一般にDPRAMは、通常のRA
Mよりも記憶容量が少なく、また普通のRAMに比べて
高価である。そこで、音声データの記憶用のRAMとし
て、DPRAMの代わりに普通のRAMを用いることも
考えられる。図7は、普通のRAMを二つ用いて音声デ
ータ記憶用のメモリ回路を構成したブロック図である。
In FIG. 2, the DPRAM 1 is used as a RAM for storing audio data for the above-described reason.
5 was used. However, in general, DPRAMs have a normal RA
It has less storage capacity than M and is more expensive than ordinary RAM. Therefore, it is conceivable to use a normal RAM instead of the DPRAM as a RAM for storing audio data. FIG. 7 is a block diagram showing a configuration of a memory circuit for storing audio data using two ordinary RAMs.

【0040】図7において、CPU14は前述のシーケ
ンサを構成するCPUであるので、同一符号14で表す
るものとする。PCM音源17についも同様である。セ
レクタ(SL)40,41は、CPU14からの制御信
号によって、入力される二つのアドレスデータのうちの
いずれかを選択的に出力し、RAM45又は46に送出
する。すなわち、CPU14からRAM45又は46に
音声データを書き込むときには、CPU14から与えら
れるデータ書き込みのためのアドレスデータを出力し、
PCM音源17が音声データを読み出すときには、PC
M音源17から与えられるデータ読み出しのためのアド
レスデータを出力する。
In FIG. 7, since the CPU 14 is a CPU constituting the aforementioned sequencer, it is represented by the same reference numeral 14. The same applies to the PCM sound source 17. The selectors (SL) 40 and 41 selectively output one of the two input address data in response to a control signal from the CPU 14 and transmit the data to the RAM 45 or 46. That is, when audio data is written from the CPU 14 to the RAM 45 or 46, address data for data writing given from the CPU 14 is output,
When the PCM sound source 17 reads out audio data,
The address data for data reading provided from the M sound source 17 is output.

【0041】バストランシーバ(BT)42a,42
b,43a,43bは、CPU14からの制御信号によ
って、入力されたデータを通すか通さないかを選択する
ものであり、42aと42bがRAM45用、43aと
43bがRAM46用である。RAM45用のバストラ
ンシーバ42a及びRAM46用のバストランシーバ4
3aは、CPU14から与えられる音声データをそれぞ
れのRAMに送る。一方、RAM45用のバストランシ
ーバ42b及びRAM46用のバストランシーバ43b
は、それぞれのRAMからの音声データをPCM音源1
7に送る。そして、インバータ48,49は、二組のバ
ストランシーバ42aと42b、43aと43bへの制
御信号がそれぞれ互いに反転するように挿入されてい
る。
Bus transceivers (BT) 42a, 42
b, 43a, and 43b are used to select whether to pass the input data or not according to a control signal from the CPU 14. 42a and 42b are for the RAM 45, and 43a and 43b are for the RAM 46. Bus transceiver 42a for RAM 45 and bus transceiver 4 for RAM 46
3a sends the audio data provided from the CPU 14 to each RAM. On the other hand, a bus transceiver 42b for the RAM 45 and a bus transceiver 43b for the RAM 46
Is the PCM sound source 1
Send to 7. The inverters 48 and 49 are inserted so that control signals to the two sets of bus transceivers 42a and 42b and 43a and 43b are inverted from each other.

【0042】次に、音程の変換(ピッチシフト)につい
て説明する。ピッチシフトの方法についてはすでに数種
類の方法が提案されているが、本実施形態では、CPU
14によってソフトウェア的にピッチシフトを行う方法
を採用する。ただし、本発明は、CPUでソフトウェア
的にピッチシフトを行うだけでなく、その他の方法を用
いることもできる。図8は、その一例を示したもので、
専用にチップ化されたピッチシフタを用いる場合のブロ
ック図である。
Next, pitch conversion (pitch shift) will be described. Although several types of pitch shift methods have already been proposed, in this embodiment, the CPU
14 adopts a method of performing a pitch shift by software. However, in the present invention, not only the pitch shift is performed in software by the CPU but also other methods can be used. FIG. 8 shows an example thereof.
It is a block diagram in the case of using the pitch shifter made into a chip exclusively.

【0043】図8において、ピッチシフタ50は、CP
U14とDPRAM15の間に配置されている。ピッチ
シフト50は、専用にチップ化されたICで、CPU1
4からピッチをどのくらいシフトさせるかという情報を
受けとって、それに従って音程を変換したデータを生成
し、これをDPRAM15に転送する。この他にも、汎
用のDSP(Digital Signal Processor)を用いてCP
U14とは別にピッチシフタを構成してもよい。
In FIG. 8, the pitch shifter 50 has a CP
It is arranged between U14 and DPRAM15. The pitch shift 50 is a dedicated chip IC, and the CPU 1
The information on how much the pitch is to be shifted is received from No. 4, the pitch-converted data is generated in accordance with the information, and the data is transferred to the DPRAM 15. In addition, using a general-purpose DSP (Digital Signal Processor),
A pitch shifter may be configured separately from U14.

【0044】以上、本発明の実施の一形態について説明
してきたが、本発明は上記実施形態に限定されるもので
はなく、その要旨の範囲内において種々の変形が可能で
あり、それらも本発明の技術的範囲に含まれる。
Although the embodiment of the present invention has been described above, the present invention is not limited to the above embodiment, and various modifications can be made within the scope of the invention, and these are also described in the present invention. Included in the technical scope.

【0045】[0045]

【発明の効果】以上説明したように、本発明は、ディジ
タル化された音声データを格納し、補助音声データ生成
手段がこの音声データに基づいて種々の補助音声データ
を生成し、これをアナログ信号に変換して出力する構成
とすることにより、補助音声データ生成手段による補助
音声データの生成の仕方によって、生成された補助音声
を元の音声に同時に重ね合わせて歌う以外に、自分の声
による輪唱、バックコーラス、その他種々の技法を擬似
的に実現することが可能となり、これまでのカラオケ装
置にはない新たな楽しみ方を提供することができる。
As described above, according to the present invention, digitized voice data is stored, and the auxiliary voice data generating means generates various auxiliary voice data based on the voice data, and converts this into analog signal. In addition to the method of generating the auxiliary voice by the auxiliary voice data generating means, the generated auxiliary voice is simultaneously superimposed on the original voice and sung, and the singing is performed by one's own voice. , Back chorus, and various other techniques can be realized in a pseudo manner, thereby providing a new way of enjoying that has not been provided in conventional karaoke apparatuses.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態の補助音声生成装置によっ
て生成できる種々の補助音声を、楽譜として示した図で
ある。
FIG. 1 is a diagram showing, as a musical score, various auxiliary sounds that can be generated by an auxiliary sound generation device according to an embodiment of the present invention.

【図2】本発明の一実施形態の補助音声生成装置の全体
的なブロック図である。
FIG. 2 is an overall block diagram of an auxiliary voice generation device according to an embodiment of the present invention.

【図3】歌い手がある曲を選択し、歌うときに実行され
るメインのフローチャートである。
FIG. 3 is a main flowchart executed when a singer selects a song and sings.

【図4】「楽譜表示処理」サブルーチンのアルゴリズム
を示したフローチャートである。
FIG. 4 is a flowchart showing an algorithm of a “score display process” subroutine.

【図5】「演奏処理」サブルーチンのアルゴリズムを示
したフローチャートである。
FIG. 5 is a flowchart showing an algorithm of a “performance process” subroutine.

【図6】音声入力割り込み処理のフローチャートであ
る。
FIG. 6 is a flowchart of a voice input interrupt process.

【図7】普通のRAMを二つ用いて音声データ記憶用の
メモリ回路を構成したブロック図である。
FIG. 7 is a block diagram showing a configuration of a memory circuit for storing audio data using two ordinary RAMs.

【図8】専用にチップ化されたピッチシフタを用いてピ
ッチシフトを行なう回路のブロック図である。
FIG. 8 is a block diagram of a circuit for performing a pitch shift using a pitch shifter chipped exclusively.

【符号の説明】[Explanation of symbols]

10 マイク 11,21 アンプ 12,20 ローパスフィルタ(LPF) 13 A/Dコンバータ 14 シーケンサ(CPU) 15 デュアルポートRAM(DPRAM) 16a プログラムROM 16b ワークRAM 17 PCM音源 18 音色データROM 19 D/Aコンバータ 22 スピーカ 25 表示回路 26 表示デバイス 40,41 セレクタ(SL) 42a,42b,43a,43b バストランシーバ
(BT) 45,46 RAM 48,49 インバータ 50 ピッチシフタ
Reference Signs List 10 microphone 11, 21 amplifier 12, 20, low-pass filter (LPF) 13 A / D converter 14 sequencer (CPU) 15 dual-port RAM (DPRAM) 16a program ROM 16b work RAM 17 PCM sound source 18 tone data ROM 19 D / A converter 22 Speaker 25 Display circuit 26 Display device 40, 41 Selector (SL) 42a, 42b, 43a, 43b Bus transceiver (BT) 45, 46 RAM 48, 49 Inverter 50 Pitch shifter

───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5D045 AB30 5D108 BA06 BA36 BA39 BB04 BD02 BD11 BD12 BD13 BD14 BD20 BE06 BF03 BF06 5D378 BB06 FF04 JC09 KK02 KK44 MM14 MM23 MM24 MM26 MM34 MM36 MM38 MM47 MM52 MM62 MM68 MM92 MM97 WW16 XX05 XX16 XX20 9A001 BB01 BB03 BB04 BB05 DD13 EE02 EE05 HH15 HH16 HH17 HH18 KK43  ──────────────────────────────────────────────────続 き Continued on the front page F-term (reference) XX20 9A001 BB01 BB03 BB04 BB05 DD13 EE02 EE05 HH15 HH16 HH17 HH18 KK43

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 入力されたアナログ音声信号をディジタ
ル化するA/D変換手段と、 前記A/D変換手段から出力される入力音声データを記
憶する入力音声記憶手段と、 前記入力音声データに基づいて補助音声データを生成す
る補助音声データ生成手段と、 前記補助音声データをどのような態様で再生するかを規
定するシーケンスデータを保持するシーケンスデータ保
持手段と、 前記シーケンスデータに従って前記補助音声データを再
生するよう制御する補助音声再生制御手段と、 前記補助音声再生制御手段の制御のもとで再生される補
助音声データをアナログ信号に変換するD/A変換手段
と、 を具備することを特徴とする補助音声生成装置。
1. A / D conversion means for digitizing an input analog audio signal, input voice storage means for storing input audio data output from the A / D conversion means, and Auxiliary audio data generating means for generating auxiliary audio data, sequence data holding means for holding sequence data that defines in what manner the auxiliary audio data is to be reproduced, and storing the auxiliary audio data in accordance with the sequence data. Auxiliary audio reproduction control means for controlling reproduction, and D / A conversion means for converting auxiliary audio data reproduced under the control of the auxiliary audio reproduction control means into an analog signal. Auxiliary voice generator.
【請求項2】 前記シーケンスデータ保持手段は、前記
入力音声データを所定のタイミングだけ遅らせて出力す
るシーケンスデータを保持するものである請求項1記載
の補助音声生成装置。
2. The auxiliary sound generation device according to claim 1, wherein said sequence data holding means holds sequence data to be output after delaying said input sound data by a predetermined timing.
【請求項3】 前記シーケンスデータ保持手段は、前記
入力音声データの音程を所定の度数だけ変えた補助音声
データを生成するとともに、所定のタイミングだけ遅ら
せて出力するシーケンスデータを保持するものである請
求項1記載の補助音声生成装置。
3. The sequence data holding means generates auxiliary sound data in which a pitch of the input sound data is changed by a predetermined frequency, and holds sequence data to be output with a delay of a predetermined timing. Item 10. The auxiliary sound generation device according to Item 1.
【請求項4】 前記シーケンスデータ保持手段は、前記
入力音声データの音程を所定の度数だけ変え、音の長さ
を所定長さだけ変え、かつ所定のタイミングだけ遅らせ
て出力するシーケンスデータを保持するものである請求
項1記載の補助音声生成装置。
4. The sequence data holding means changes the pitch of the input voice data by a predetermined frequency, changes the length of the sound by a predetermined length, and holds the sequence data to be output with a delay of a predetermined timing. The auxiliary voice generation device according to claim 1, wherein
【請求項5】 前記シーケンスデータ保持手段は、予め
入力され格納された入力音声データを予め決められたタ
イミングで出力するシーケンスデータを保持するもので
ある請求項1記載の補助音声生成装置。
5. The auxiliary sound generation apparatus according to claim 1, wherein said sequence data holding means holds sequence data for outputting previously input and stored input audio data at a predetermined timing.
【請求項6】 前記補助音声データ生成手段は、前記入
力音声データの音声を分割し、分割されたそれぞれの分
割音声に所定の処理を施すとともに前記分割音声の時間
的順序を入れ替え、前記シーケンスデータ保持手段は、
これを所定のタイミングだけ遅らせて出力するシーケン
スデータを保持するものである請求項1記載の補助音声
生成装置。
6. The auxiliary audio data generating means divides the audio of the input audio data, performs a predetermined process on each of the divided audios, and changes the temporal order of the divided audios. Holding means,
2. The auxiliary voice generation device according to claim 1, wherein the sequence data is output after being delayed by a predetermined timing.
JP11124243A 1999-04-30 1999-04-30 Auxiliary voice generating device Pending JP2000315089A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11124243A JP2000315089A (en) 1999-04-30 1999-04-30 Auxiliary voice generating device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11124243A JP2000315089A (en) 1999-04-30 1999-04-30 Auxiliary voice generating device

Publications (1)

Publication Number Publication Date
JP2000315089A true JP2000315089A (en) 2000-11-14

Family

ID=14880519

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11124243A Pending JP2000315089A (en) 1999-04-30 1999-04-30 Auxiliary voice generating device

Country Status (1)

Country Link
JP (1) JP2000315089A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7805306B2 (en) 2004-07-22 2010-09-28 Denso Corporation Voice guidance device and navigation device with the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7805306B2 (en) 2004-07-22 2010-09-28 Denso Corporation Voice guidance device and navigation device with the same

Similar Documents

Publication Publication Date Title
JP3598598B2 (en) Karaoke equipment
JP2921428B2 (en) Karaoke equipment
JP2927229B2 (en) Medley playing equipment
JPH08263077A (en) Karaoke device with voice converting function
JP3173382B2 (en) Music control device, karaoke device, music information supply and reproduction method, music information supply device, and music reproduction device
JP4802857B2 (en) Musical sound synthesizer and program
JP3915807B2 (en) Automatic performance determination device and program
JP4561636B2 (en) Musical sound synthesizer and program
JP3861381B2 (en) Karaoke equipment
JP2001324987A (en) Karaoke device
JP2006126710A (en) Playing style determining device and program
JPH10268895A (en) Voice signal processing device
JPH11338480A (en) Karaoke (prerecorded backing music) device
JP2000315089A (en) Auxiliary voice generating device
JP2002372981A (en) Karaoke system with voice converting function
JP4802947B2 (en) Performance method determining device and program
JP4081859B2 (en) Singing voice generator and karaoke device
JP2004258564A (en) Score data editing device, score data display device, and program
JP3834963B2 (en) Voice input device and method, and storage medium
JP3982514B2 (en) Karaoke equipment
JP3873914B2 (en) Performance practice device and program
JP4033146B2 (en) Karaoke equipment
JP3743985B2 (en) Karaoke equipment
JP3173310B2 (en) Harmony generator
JP2978745B2 (en) Karaoke equipment