JP3518253B2 - Data editing device - Google Patents

Data editing device

Info

Publication number
JP3518253B2
JP3518253B2 JP14852397A JP14852397A JP3518253B2 JP 3518253 B2 JP3518253 B2 JP 3518253B2 JP 14852397 A JP14852397 A JP 14852397A JP 14852397 A JP14852397 A JP 14852397A JP 3518253 B2 JP3518253 B2 JP 3518253B2
Authority
JP
Japan
Prior art keywords
data
phoneme
syllable
timing
duration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14852397A
Other languages
Japanese (ja)
Other versions
JPH10319993A (en
Inventor
アユミ 深田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP14852397A priority Critical patent/JP3518253B2/en
Publication of JPH10319993A publication Critical patent/JPH10319993A/en
Application granted granted Critical
Publication of JP3518253B2 publication Critical patent/JP3518253B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、データ編集装置に
関し、特に音声データを編集することができるデータ編
集装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a data editing device, and more particularly to a data editing device capable of editing audio data.

【0002】[0002]

【従来の技術】従来技術として、フォルマント音源等の
音声合成回路を備えた音声発音装置が知られており、前
記フォルマント音源とは、音声を周波数解析することに
より形成されるフォルマントを合成することにより音声
信号を生成する音源である。
2. Description of the Related Art As a conventional technique, there is known a sound producing apparatus provided with a speech synthesis circuit such as a formant sound source. The formant sound source is formed by synthesizing a formant formed by frequency analysis of a sound. It is a sound source that generates an audio signal.

【0003】ここで、音声について若干の説明を行う。
音声とは、例えば日本語のいわゆる50音を種々の組み
合わせにより発音したもの、特にここでは歌の歌詞を発
音する際の音声を示すものであり、該50音のうちの1
音等を音節と呼ぶ。日本語の「か」等が音節にあたる。
また、音節は、時間軸上の音素列から構成されており、
例えば、音節「か」は、音素列「CL(7.5ms)+
kha(4×7.5ms)+aj(無限長)」からなる
(( )内の値は各発音時間を表す)。そして、該音素
列においての最小単位要素、例えば「CL」、「kh
a」、「aj」を音素と呼ぶ。フォルマント音源は、こ
のような音素列に関する情報を入力することにより前記
音素列情報内に記された各音素に対応するフォルマント
を合成し、音声信号を生成する音源である。
Here, the voice will be briefly described.
The voice is, for example, a so-called Japanese syllabary in which various pronunciations are pronounced, in particular, a voice when the lyrics of a song are pronounced.
Sounds are called syllables. Japanese "ka" etc. correspond to syllables.
In addition, syllables are composed of phoneme strings on the time axis,
For example, the syllable “ka” is the phoneme string “CL (7.5 ms) +
kha (4 × 7.5 ms) + aj (infinite length) ”(the value in the parentheses represents each sounding time). Then, the minimum unit element in the phoneme string, for example, “CL” or “kh”
"a" and "aj" are called phonemes. The formant sound source is a sound source that inputs information on such a phoneme string to synthesize formants corresponding to each phoneme described in the phoneme string information to generate a voice signal.

【0004】[0004]

【発明が解決しようとする課題】予め決められた音声の
みを発音する音声発音装置であれば、音声データを編集
する必要性は少ないが、多種多様の音声を音声発音装置
に発音させるためには、音声データの編集が不可欠であ
り、本願発明者は、音声データ編集装置を考案する。
It is not necessary to edit the voice data in a voice pronunciation device that produces only a predetermined voice, but in order for the voice production device to produce a wide variety of voices, It is essential to edit voice data, and the present inventor devises a voice data editing device.

【0005】ここで、述べている該音声データは、従来
より知られている楽音データを作成するためのMIDI
規格に基づくものである。該音声データをMIDI規格
に基づき作成することにより、従来の楽音データに関連
付けて音声データを作成できるというメリットがある。
そして、前記音声データ編集装置も該楽音データ(MI
DIデータ)編集装置を基にして作成されるものである
が、音声データは、特有な規則にしたがって構成される
ので、その規則に詳しくない初心者には音声データの編
集が困難である。
The voice data described here is the MIDI for creating the musical tone data which has been conventionally known.
It is based on the standard. By creating the audio data based on the MIDI standard, there is an advantage that the audio data can be created in association with the conventional musical sound data.
Then, the voice data editing apparatus also uses the musical tone data (MI
Although it is created on the basis of a DI data) editing device, since the voice data is constructed according to a specific rule, it is difficult for a beginner who is not familiar with the rule to edit the voice data.

【0006】本発明の目的は、音声データの編集を容易
に行うことができるデータ編集装置又はコンピュータプ
ログラムの記録媒体を提供することである。
An object of the present invention is to provide a data editing device or a recording medium of a computer program capable of easily editing audio data.

【0007】[0007]

【課題を解決するための手段】 本発明の一観点によれ
ば、再生テンポに非依存のデュレーションデータにより
発生時間が規定された複数の音素データから構成される
音節データを含む音声データと該音声データの発音タイ
ミングを規定する再生テンポに依存したタイミングデー
タとを含むソングデータにおける前記音節データを編集
することができるデータ編集装置は、前記音節データを
構成する前記複数の音素データのうちの1つを指定する
音素指定手段と、前記音素指定手段により指定される音
素データに対応するデュレーションデータを前記再生テ
ンポの指定とは独立して指定される発生時間に変更する
変更手段とを有する。
According to one aspect of the present invention, audio data including syllable data composed of a plurality of phoneme data whose occurrence time is defined by duration data that is independent of reproduction tempo, and the audio data. A data editing device capable of editing the syllable data in song data including timing data depending on a reproduction tempo that defines a sounding timing of the data is one of the plurality of phoneme data constituting the syllable data. And a changing unit for changing the duration data corresponding to the phoneme data designated by the phoneme designating unit to an occurrence time designated independently of the designation of the reproduction tempo.

【0008】操作者は、音節データを構成する音素デー
タのうちから任意の1つを指定し、その音素データに対
応する発生時間データを所望の値に変更することができ
る。
The operator can designate any one of the phoneme data that constitutes the syllable data and change the occurrence time data corresponding to the phoneme data to a desired value.

【0009】 本発明の他の観点によれば、再生テンポ
に非依存のデュレーションデータにより発生時間が規定
された複数の音素データから構成される音節データを含
む音声データと該音声データの発音タイミングを規定す
る再生テンポに依存したタイミングデータとを含むソン
グデータを編集することができるデータ編集装置は、前
記音節データを構成する複数の音素データの特性に応じ
て決定される各音節データと該音節データの発音タイミ
ング変更値との対応関係を記憶するテーブルと、前記音
声データを指定する指定手段と、前記指定手段により指
定される音声データを構成する音節データのうち先頭に
位置する音節データについての発音タイミング変更値を
前記テーブルから検出する検出手段と、前記指定手段に
より指定される音声データについての前記タイミングデ
ータを前記検出手段により検出される発音タイミング変
更値だけ変更する変更手段とを有する。
According to another aspect of the present invention, audio data including syllable data composed of a plurality of phoneme data whose generation time is defined by duration data independent of reproduction tempo and sounding timing of the audio data are defined. A data editing apparatus capable of editing song data including timing data depending on a specified reproduction tempo is a syllable data and each syllable data determined according to characteristics of a plurality of phoneme data forming the syllable data. Table for storing the correspondence relationship with the sounding timing change value of No. 1, the designating unit for designating the voice data, and the pronunciation of the syllable data located at the head among the syllable data constituting the voice data designated by the designating unit. Detecting means for detecting the timing change value from the table, and voice specified by the specifying means Changing means for changing the timing data for the data by the sounding timing change value detected by the detecting means.

【0010】操作者は、音声データを指定することによ
り、その音声データについての発音タイミングデータを
テーブルに応じて所望の値だけ変更することができる。
By designating the voice data, the operator can change the tone generation timing data for the voice data by a desired value according to the table.

【0011】 本発明のさらに他の観点によれば、再生
テンポに非依存のデュレーションデータにより発生時間
が規定された複数の音素データから構成される音節デー
タを含む音声データと該音声データの発音タイミングを
規定する再生テンポに依存したタイミングデータとを含
むソングデータにおける前記音節データを編集すること
ができるデータ編集装置は、音節データを指定する指定
手段と、前記指定手段により指定される音節データ中に
含まれる複数の音素データのうち子音に属する音素デー
タを検出する検出手段と、前記検出手段により検出され
る音素データについてのデュレーションデータを短縮変
更する短縮手段とを有する。
According to still another aspect of the present invention, voice data including syllable data composed of a plurality of phoneme data whose generation time is defined by duration data that is independent of reproduction tempo and sounding timing of the voice data. The data editing device capable of editing the syllable data in the song data including the timing data depending on the reproduction tempo that defines the syllabic data includes a designating means for designating the syllable data, and a syllable data designated by the designating means. It has a detecting means for detecting phoneme data belonging to a consonant among a plurality of included phoneme data, and a shortening means for shortening and changing the duration data of the phoneme data detected by the detecting means.

【0012】操作者は、音節データを指定することによ
り、その音節データに含まれる音素データについてのデ
ュレーションデータを短縮変更することができる。
By specifying the syllable data, the operator can shorten and change the duration data of the phoneme data included in the syllable data.

【0013】[0013]

【発明の実施の形態】図4は、本発明の実施例によるデ
ータ編集装置の音声データ編集画面の例を示す図であ
る。音声データは、ノート(音符)データと音素列デー
タとを含む。ノートデータは、ノートナンバ(例えばE
3)と発音開始時間を含む。音素列データは、各音素に
関するデータと呼気、つまり、人が音声を発音する際の
息継ぎを表現するデータ(以下、呼気データと呼ぶ)を
含む。前記音素列データは、図4の「歌詞」として表示
されている各文字と1対1に対応している。「歌詞」が
決まれば、音素列データは自動的に決まる。
FIG. 4 is a diagram showing an example of a voice data editing screen of a data editing apparatus according to an embodiment of the present invention. The voice data includes note data and phoneme string data. The note data is a note number (for example, E
3) and the pronunciation start time. The phoneme string data includes data related to each phoneme and expiration, that is, data expressing breathing when a person produces a voice (hereinafter, referred to as expiration data). The phoneme string data has a one-to-one correspondence with each character displayed as "lyrics" in FIG. Once the "lyrics" are decided, the phoneme string data is automatically decided.

【0014】例えば、第2行目のデータについて説明す
る。歌詞「か」は、音素列データ「CL+kha+a
j」に置き換えることができ、F♯3の音高(ノート)
で所定の発音時間だけ発音される。図4に示すように、
上記のデータを羅列することにより、所望の歌を音声発
音装置に歌わせるための1曲分の音声データを作成する
ことができる。
For example, the data on the second line will be described. The lyric “ka” is the phoneme string data “CL + kha + a
j ”, and the pitch of F # 3 (note)
Will be pronounced for a predetermined duration. As shown in FIG.
By enumerating the above data, it is possible to create voice data for one song for causing the voice sounding device to sing a desired song.

【0015】図5は、パーソナルコンピュータ1と外部
デバイス21との接続を示す図である。パーソナルコン
ピュータ1は、本実施例によるデータ編集装置を含む。
パーソナルコンピュータ1は、シーケンサでもよい。外
部デバイス21は、音声発音装置を含むものである。
FIG. 5 is a diagram showing the connection between the personal computer 1 and the external device 21. The personal computer 1 includes the data editing device according to this embodiment.
The personal computer 1 may be a sequencer. The external device 21 includes a voice pronunciation device.

【0016】まず、外部デバイス21の構成を説明す
る。検出回路33は、操作子34の操作を検出し、操作
子信号を生成する。操作子34は、例えばスイッチ等の
設定用操作子や鍵盤等の演奏操作子である。
First, the configuration of the external device 21 will be described. The detection circuit 33 detects the operation of the operator 34 and generates an operator signal. The operator 34 is, for example, a setting operator such as a switch or a performance operator such as a keyboard.

【0017】バス22には、検出回路33の他、表示回
路28、音源回路29、効果回路30、音声合成回路3
2、インターフェース23、RAM24、ROM25、
CPU26が接続される。
In addition to the detection circuit 33, the bus 22 has a display circuit 28, a sound source circuit 29, an effect circuit 30, and a voice synthesis circuit 3.
2, interface 23, RAM 24, ROM 25,
The CPU 26 is connected.

【0018】ROM25は、音声を合成するためのフォ
ルマントデータ、その他の各種データ及びコンピュータ
プログラムを記憶する。RAM24は、フラグ、バッフ
ァ、伴奏データ等を記憶する。コンピュータプログラム
は、ROM25に記憶させる代わりに、RAM24に記
憶させてもよい。CPU26は、ROM25又はRAM
24に記憶されているコンピュータプログラムに従い、
演算または制御を行う。
The ROM 25 stores formant data for synthesizing voice, other various data, and a computer program. The RAM 24 stores flags, buffers, accompaniment data, and the like. The computer program may be stored in the RAM 24 instead of being stored in the ROM 25. CPU 26 is ROM 25 or RAM
According to the computer program stored in 24,
Calculate or control.

【0019】タイマ27は、CPU26に接続される。
CPU26は、タイマ27から時間情報を得ることがで
きる。CPU26は、当該時間情報に従って、伴奏デー
タ又は音声データ(ソングデータ)の再生を行う。
The timer 27 is connected to the CPU 26.
The CPU 26 can obtain time information from the timer 27. The CPU 26 reproduces accompaniment data or audio data (song data) according to the time information.

【0020】CPU26は、RAM24に記憶されてい
る伴奏データを読み出して楽音パラメータおよび効果パ
ラメータを生成し、それぞれ音源回路29および効果回
路30に供給する。
The CPU 26 reads the accompaniment data stored in the RAM 24 to generate musical tone parameters and effect parameters, and supplies them to the tone generator circuit 29 and the effect circuit 30, respectively.

【0021】また、CPU26は、検出回路33で生成
されるノートオン信号等に応じて、楽音パラメータおよ
び効果パラメータを生成し、それぞれ音源回路29およ
び効果回路30に供給することもできる。
The CPU 26 can also generate a tone parameter and an effect parameter in accordance with a note-on signal generated by the detection circuit 33 and supply them to the tone generator circuit 29 and the effect circuit 30, respectively.

【0022】音源回路29は、供給される楽音パラメー
タ(例えば、前記伴奏データ)に応じて楽音信号を生成
する。効果回路30は、供給される効果パラメータに応
じて、音源回路29で生成される楽音信号に、例えばデ
ィレイやリバーブ等の効果を付与し、サウンドシステム
31に供給する。サウンドシステム31は、D/A変換
器およびスピーカを含み、供給されるデジタル形式の楽
音信号をアナログ形式に変換し、発音する。
The tone generator circuit 29 generates a tone signal in accordance with the tone parameter supplied (for example, the accompaniment data). The effect circuit 30 adds effects such as delay and reverb to the musical tone signal generated by the tone generator circuit 29 according to the supplied effect parameter, and supplies it to the sound system 31. The sound system 31 includes a D / A converter and a speaker, converts a supplied digital tone signal into an analog signal, and produces a sound.

【0023】なお、音源回路29は、波形メモリ方式、
FM方式、物理モデル方式、高調波合成方式、フォルマ
ント合成方式、VCO+VCF+VCAのアナログシン
セサイザ方式等、どのような方式であってもよい。
The tone generator circuit 29 is a waveform memory type,
The FM system, the physical model system, the harmonic synthesis system, the formant synthesis system, the VCO + VCF + VCA analog synthesizer system, or the like may be used.

【0024】インターフェース23は、MIDIインタ
ーフェースまたはその他の通信ネットワーク用のインタ
ーフェースを含む。例えば、外部デバイス21のMID
Iインターフェース23とパーソナルコンピュータ1の
MIDIインターフェース8とがMIDIケーブルで接
続される。外部デバイス21とパーソナルコンピュータ
1は、MIDI通信を行うことができる。
Interface 23 includes a MIDI interface or other interface for a communication network. For example, the MID of the external device 21
The I interface 23 and the MIDI interface 8 of the personal computer 1 are connected by a MIDI cable. The external device 21 and the personal computer 1 can perform MIDI communication.

【0025】CPU26は、インターフェース23を介
して、パーソナルコンピュータ1から音声データ(ソン
グデータ)を受け取り、RAM24に格納する。音声デ
ータは、上記のように、ノートデータと音素列データを
含む。詳細は、後に図6を参照しながら説明する。CP
U26は、RAM24に記憶されている音声データを読
み出し、ROM25に記憶されているフォルマントデー
タに基づき、フォルマントデータを音声合成回路32に
供給する。フォルマントデータは、例えば各音素に対応
したフォルマントを形成するために必要とされるフォル
マント中心周波数(フォルマントを形成する山の中心周
波数)データ、フォルマントバンド幅(フォルマントを
形成する山のバンド幅)データ、フォルマントレベル
(フォルマントを形成する山のピークレベル)データ等
である。
The CPU 26 receives voice data (song data) from the personal computer 1 via the interface 23 and stores it in the RAM 24. The voice data includes note data and phoneme string data as described above. Details will be described later with reference to FIG. CP
The U 26 reads out the voice data stored in the RAM 24 and supplies the formant data to the voice synthesis circuit 32 based on the formant data stored in the ROM 25. The formant data is, for example, formant center frequency (center frequency of a mountain forming a formant) data required to form a formant corresponding to each phoneme, formant band width (bandwidth of a mountain forming a formant) data, The formant level (peak level of mountains forming the formant) data and the like.

【0026】音声合成回路32は、供給されるフォルマ
ントデータに応じて音声信号を生成する。音声信号は、
所定の音高を有し、歌声に相当する。音声合成回路32
は、フォルマント合成方式(フォルマント音源)でもよ
いし、その他の方式でもよい。フォルマント合成方式
は、例えば特開平3−200299号公報の第1図に示
す構成を有する。
The voice synthesis circuit 32 generates a voice signal according to the supplied formant data. The audio signal is
It has a predetermined pitch and corresponds to a singing voice. Voice synthesis circuit 32
May be a formant synthesis method (formant sound source) or any other method. The formant synthesis method has, for example, the configuration shown in FIG. 1 of JP-A-3-200299.

【0027】効果回路30は、供給される効果パラメー
タに応じて、音声合成回路32で生成される音声信号
に、例えばディレイ等の効果を付与し、サウンドシステ
ム31に供給する。サウンドシステム31は、供給され
るデジタル形式の音声信号をアナログ形式に変換し、発
音する。
The effect circuit 30 adds an effect such as delay to the sound signal generated by the sound synthesizing circuit 32 according to the supplied effect parameter and supplies the sound signal to the sound system 31. The sound system 31 converts the supplied digital audio signal into an analog format and produces sound.

【0028】なお、音声合成回路32と音源回路29
は、専用のハードウエアを用いて構成するものに限ら
ず、DSP+マイクロプログラムを用いて構成してもよ
いし、CPU+ソフトウェアのプログラムで構成するよ
うにしてもよい。
The voice synthesis circuit 32 and the sound source circuit 29
Is not limited to being configured by using dedicated hardware, but may be configured by using a DSP + microprogram, or may be configured by a program of CPU + software.

【0029】さらに、1つの音声合成回路又は音源回路
を時分割で使用することにより複数の発音チャンネルを
形成するようにしてもよいし、複数の音声合成回路又は
音源回路を用い、1つの発音チャンネルにつき1つの音
声合成回路又は音源回路で複数の発音チャンネルを構成
するようにしてもよい。
Further, a plurality of tone generation channels may be formed by using one voice synthesis circuit or tone generator circuit in a time division manner, or one tone generation channel may be formed by using a plurality of voice synthesizer circuits or tone generator circuits. A plurality of sound generation channels may be configured by one voice synthesis circuit or sound source circuit.

【0030】次に、パーソナルコンピュータ1の構成を
説明する。検出回路9は、マウス10の移動操作やスイ
ッチ操作を検出し、マウス信号を生成する。検出回路1
1は、キーボード12上のキー(数字キーや文字キー
等)入力を検出し、キー信号を生成する。操作者は、マ
ウス10又はキーボード12を用いて、音声データの編
集を行うことができる。
Next, the configuration of the personal computer 1 will be described. The detection circuit 9 detects a movement operation or a switch operation of the mouse 10 and generates a mouse signal. Detection circuit 1
Reference numeral 1 detects a key (numerical key, character key, etc.) input on the keyboard 12 and generates a key signal. The operator can use the mouse 10 or the keyboard 12 to edit the voice data.

【0031】表示回路7は、パーソナルコンピュータ1
の外部装置であるディスプレイ45に接続することがで
きる。ディスプレイ45には、図4に示す編集画面等を
表示することができる。操作者は、ディスプレイ45上
の編集画面を参照しながら音声データの編集を行うこと
ができる。
The display circuit 7 is the personal computer 1.
Can be connected to the display 45 which is an external device. The display 45 can display the edit screen shown in FIG. The operator can edit the voice data while referring to the edit screen on the display 45.

【0032】バス2には、検出回路9、検出回路11及
び表示回路7の他、インターフェース8、外部記憶装置
13、RAM3、ROM4、CPU5が接続される。
To the bus 2, in addition to the detection circuit 9, the detection circuit 11 and the display circuit 7, the interface 8, the external storage device 13, the RAM 3, the ROM 4 and the CPU 5 are connected.

【0033】ROM4は、各種パラメータ及びコンピュ
ータプログラムを記憶する。RAM3は、フラグ、バッ
ファ、音声データ(ソングデータ)等を記憶する。ま
た、RAM3は、外部記憶装置13、又はインターフェ
ース8を介して外部から供給されたコンピュータプログ
ラムや音声データ等を記憶することもできる。CPU5
は、RAM3又はROM4に記憶されているコンピュー
タプログラムに従い、音声データの編集等のための演算
または制御を行う。
The ROM 4 stores various parameters and computer programs. The RAM 3 stores flags, buffers, voice data (song data), and the like. The RAM 3 can also store a computer program, audio data, or the like externally supplied via the external storage device 13 or the interface 8. CPU5
Performs calculation or control for editing audio data according to a computer program stored in the RAM 3 or the ROM 4.

【0034】タイマ6は、CPU5に時間情報を供給す
る。CPU5は、当該時間情報に応じて、所定時間間隔
で割り込み処理を行う。
The timer 6 supplies time information to the CPU 5. The CPU 5 performs interrupt processing at predetermined time intervals according to the time information.

【0035】インターフェース8は、MIDIインター
フェースまたはその他の通信ネットワーク用のインター
フェースを含む。MIDIインターフェース8は、上記
のように、外部デバイス21のMIDIインターフェー
ス23とMIDIケーブルで接続される。パーソナルコ
ンピュータ1は、MIDIインターフェース8を介し
て、音声データ等を外部デバイス21に送信することが
できる。
Interface 8 includes a MIDI interface or other interface for a communication network. As described above, the MIDI interface 8 is connected to the MIDI interface 23 of the external device 21 by the MIDI cable. The personal computer 1 can transmit audio data and the like to the external device 21 via the MIDI interface 8.

【0036】また、通信インターフェース8は、ローカ
ルエリアネットワーク(LAN)、インターネット、電
話回線等の通信ネットワーク41に接続される。通信ネ
ットワーク41には、サーバコンピュータ42が接続さ
れている。パーソナルコンピュータ1は、通信ネットワ
ーク41を介して、サーバコンピュータ42から音声デ
ータ又はコンピュータプログラムを受信することができ
る。
Further, the communication interface 8 is connected to a communication network 41 such as a local area network (LAN), the Internet or a telephone line. A server computer 42 is connected to the communication network 41. The personal computer 1 can receive voice data or a computer program from the server computer 42 via the communication network 41.

【0037】外部記憶装置13は、外部記憶装置用のイ
ンターフェースを含み、そのインターフェースを介して
バス2に接続される。外部記憶装置13は、例えばフロ
ッピディスクドライブ(FDD)、ハードディスクドラ
イブ(HDD)、光磁気ディスク(MO)ドライブ、C
D−ROM(コンパクトディスク−リードオンリィメモ
リ)ドライブ等である。音声データは、外部記憶装置1
3又はRAM3に記憶される。
The external storage device 13 includes an interface for the external storage device, and is connected to the bus 2 via the interface. The external storage device 13 is, for example, a floppy disk drive (FDD), a hard disk drive (HDD), a magneto-optical disk (MO) drive, C
It is a D-ROM (compact disc-read only memory) drive or the like. The audio data is stored in the external storage device 1.
3 or RAM3.

【0038】コンピュータプログラム等をROM4に記
憶させずに、外部記憶装置13(例えばハードディス
ク)に記憶させることもできる。ハードディスクからR
AM3にコンピュータプログラム等を読み出すことによ
り、ROM4にコンピュータプログラム等を記憶させて
いる場合と同様の動作をCPU5にさせることができ
る。このようにすると、CD−ROM等の他の外部記憶
媒体からハードディスクにコンピュータプログラム等を
コピーすることでコンピュータプログラム等の追加やバ
ージョンアップ等が容易に行える。
The computer program or the like may be stored in the external storage device 13 (for example, hard disk) without being stored in the ROM 4. R from hard disk
By reading the computer program or the like into the AM 3, the CPU 5 can be caused to perform the same operation as when the computer program or the like is stored in the ROM 4. In this way, by adding the computer program or the like from another external storage medium such as a CD-ROM to the hard disk, it is possible to easily add or upgrade the computer program or the like.

【0039】通信インターフェース8は、ローカルエリ
アネットワーク(LAN)やインターネット、電話回線
等の通信ネットワーク41に接続されており、該通信ネ
ットワーク41を介して、サーバコンピュータ42と接
続される。外部記憶装置13内にコンピュータプログラ
ム等が記憶されていない場合、サーバコンピュータ42
からコンピュータプログラム等をダウンロードすること
ができる。クライアントとなるパーソナルコンピュータ
1は、通信インターフェース8及び通信ネットワーク4
1を介してサーバコンピュータ42へとコンピュータプ
ログラム等のダウンロードを要求するコマンドを送信す
る。サーバコンピュータ42は、このコマンドを受け、
要求されたコンピュータプログラム等を、通信ネットワ
ーク41を介してパーソナルコンピュータ1へと配信
し、パーソナルコンピュータ1が通信インターフェース
8を介して、これらコンピュータプログラム等を受信し
て外部記憶装置13内に蓄積することにより、ダウンロ
ードが完了する。
The communication interface 8 is connected to a communication network 41 such as a local area network (LAN), the Internet or a telephone line, and is connected to the server computer 42 via the communication network 41. If no computer program or the like is stored in the external storage device 13, the server computer 42
Computer programs can be downloaded from. The personal computer 1 serving as a client includes a communication interface 8 and a communication network 4.
A command requesting download of a computer program or the like is transmitted to the server computer 42 via 1. The server computer 42 receives this command,
Distributing the requested computer program and the like to the personal computer 1 via the communication network 41, and the personal computer 1 receives these computer programs and the like via the communication interface 8 and stores them in the external storage device 13. This completes the download.

【0040】図6(A)は、音声データを含むソングデ
ータ50の構成例を示す。ソングデータ50は、パーソ
ナルコンピュータ1のRAM3等に記憶される。ソング
データ50は、先頭に初期設定データSDが位置し、最
後にエンドデータEDが位置し、その間にデータDTの
並びが位置する。エンドデータEDは、ソングデータ5
0の終了を意味する。
FIG. 6A shows an example of the structure of song data 50 including audio data. The song data 50 is stored in the RAM 3 or the like of the personal computer 1. In the song data 50, the initial setting data SD is located at the beginning, the end data ED is located at the end, and the array of data DT is located between them. End data ED is song data 5
It means the end of 0.

【0041】初期設定データSDは、テンポデータ等の
演奏に必要な設定データである。この初期設定データS
Dに従い、データDT(音声データ)の発音のための音
源設定がなされる。
The initial setting data SD is setting data necessary for performance such as tempo data. This initial setting data S
According to D, sound source setting for sounding the data DT (voice data) is made.

【0042】データDTは、タイミングデータ51、ノ
ートナンバ52、ベロシティ53、ゲートタイム54及
び音素列データ55を含む。データDTが1つの音符の
発音に対応するデータである。
The data DT includes timing data 51, note numbers 52, velocities 53, gate times 54 and phoneme string data 55. The data DT is data corresponding to the pronunciation of one note.

【0043】タイミングデータ51は、音素列データ5
5を発音するスタートタイミングを示し、ノートオンの
タイミングに相当する。タイミングデータ51は、例え
ば4分音符の1/480の時間を1クロックとしたとき
のクロック数で表される。曲のテンポを変えれば、1ク
ロックの実時間も変わる。タイミングデータ51は、相
対時間と考えることができる。
The timing data 51 is the phoneme string data 5
5 shows the start timing for producing 5, and corresponds to the note-on timing. The timing data 51 is represented by the number of clocks when the time of 1/480 of a quarter note is one clock, for example. If you change the tempo of the song, the real time of one clock also changes. The timing data 51 can be considered as relative time.

【0044】ノートナンバ52は、音素列データ55を
発音する際の音高を示す。ベロシティ53は、音素列デ
ータ55を発音する際の音量を示す。ゲートタイム54
は、音素列データ55を発音する際のノートオンからノ
ートオフまでの時間を示す。ゲートタイム54は、タイ
ミングデータ51と同様にクロック数で表される。
The note number 52 indicates the pitch at which the phoneme string data 55 is produced. The velocity 53 indicates the volume when the phoneme string data 55 is sounded. Gate time 54
Indicates the time from note-on to note-off when the phoneme string data 55 is sounded. The gate time 54 is represented by the number of clocks like the timing data 51.

【0045】音素列データ55は、音素とデュレーショ
ン(音素発音長)とを1組としたデータの並びであり、
例えば「CL(1×7.5ms)+kha(4×7.5
ms)+aj(無限長)」に関する各データが1つの音
素列データとして記憶されている。音素列データ55の
最後の音素ajは、原則としてデュレーションが無限長
である。これは、現在発音中の音節から、次に発音する
音節へと発音を滑らかにつなぐよう変化させるためであ
る。詳細なデータ構成を次に示す。
The phoneme string data 55 is an array of data in which phonemes and durations (phoneme pronunciation lengths) are set as one set.
For example, “CL (1 × 7.5 ms) + kha (4 × 7.5
ms) + aj (infinite length) "is stored as one phoneme string data. The last phoneme aj of the phoneme string data 55 has an infinite duration in principle. This is to change the syllable currently being pronounced so that the pronunciation is smoothly connected to the next syllable to be pronounced. The detailed data structure is shown below.

【0046】図6(B)は、音素列データ55の構成例
を示す。音素列データ55は、先頭にパート番号61と
デバイス番号62を有し、その後に音素データPD又は
呼気データ65が並ぶ。
FIG. 6B shows an example of the structure of the phoneme string data 55. The phoneme string data 55 has a part number 61 and a device number 62 at the beginning, and the phoneme data PD or the exhalation data 65 are arranged after that.

【0047】パート番号61は、該音素列データに基づ
く発音を実施させる音声合成回路32(図5)に割り当
てられている識別番号を示す。図5では外部デバイス2
1に音声合成回路32が1つある場合を示しているが、
音声合成回路32を2つ以上設けてもよい。例えば、外
部デバイス21に音源ボードを差し込むことにより、音
声合成回路32を増やすことができる。1つの音声合成
回路32は、1つの音声パート(ボーカルパート)の音
声信号を生成することができる。その際、1つの音声合
成回路32のパート番号61を「1」とし、他の音声合
成回路32のパート番号61を「2」とすることができ
る。
The part number 61 is an identification number assigned to the voice synthesis circuit 32 (FIG. 5) for performing sound generation based on the phoneme string data. In FIG. 5, the external device 2
1 shows that there is one voice synthesis circuit 32,
Two or more voice synthesis circuits 32 may be provided. For example, by inserting a sound source board into the external device 21, the number of voice synthesis circuits 32 can be increased. One voice synthesis circuit 32 can generate a voice signal of one voice part (vocal part). At that time, the part number 61 of one voice synthesis circuit 32 can be set to "1", and the part number 61 of the other voice synthesis circuit 32 can be set to "2".

【0048】デバイス番号62は、前記音声合成回路を
装備した外部デバイス21に割り当てられている識別番
号を示す。図5ではパーソナルコンピュータ1に外部デ
バイス21が1つ接続されている場合を示しているが、
外部デバイス21を2以上接続してもよい。その際、1
つの外部デバイス21のデバイス番号62を「1」と
し、他の外部デバイス21のデバイス番号62を「2」
とすることができる。
The device number 62 indicates an identification number assigned to the external device 21 equipped with the voice synthesis circuit. Although FIG. 5 shows the case where one external device 21 is connected to the personal computer 1,
Two or more external devices 21 may be connected. At that time, 1
The device number 62 of one external device 21 is "1", and the device number 62 of another external device 21 is "2".
Can be

【0049】音素データPDは、音素ナンバ63とデュ
レーション64の組である。音素ナンバ63は、各音素
毎に予め決められている音素の種類を表す番号である。
音素は、例えば前記「CL」、「kha」、「aj」で
ある。デュレーション64は、音素発音長であり、例え
ば「1×7.5ms」、「4×7.5ms」、「無限
長」である。デュレーション64は、7.5msの時間
を1として表すことができる。例えば、「1」、
「4」、「0」がデュレーション94として記憶されて
いるデータである。ただし、「0」は無限長を表すこと
とする。デュレーション64は、7.5msを1単位と
した実際に発生させる実時間で表される点で、図6
(A)に示すゲートタイム54、タイミングデータ51
と異なる。デュレーション64をゲートタイム54と同
様にクロック数で表すとすると、使用する外部デバイス
21(図5)の機種に応じて発音時間が変化する可能性
が生じる。すなわち、外部デバイス21の機種により1
クロックの時間が異なることによる弊害が生じる。その
ような弊害を防止するために、デュレーションを実時間
(絶対時間)で表す必要がある。
The phoneme data PD is a set of phoneme number 63 and duration 64. The phoneme number 63 is a number representing the type of phoneme that is predetermined for each phoneme.
The phonemes are, for example, “CL”, “kha”, and “aj”. The duration 64 is a phoneme pronunciation length, and is, for example, “1 × 7.5 ms”, “4 × 7.5 ms”, or “infinite length”. The duration 64 can be represented as 1 for a time of 7.5 ms. For example, "1",
“4” and “0” are data stored as the duration 94. However, "0" represents infinite length. The duration 64 is represented by the actual time that is actually generated with 7.5 ms as one unit.
Gate time 54 and timing data 51 shown in (A)
Different from If the duration 64 is represented by the number of clocks like the gate time 54, there is a possibility that the sound generation time will change depending on the model of the external device 21 (FIG. 5) used. That is, depending on the model of the external device 21, 1
There are adverse effects due to different clock times. In order to prevent such an adverse effect, it is necessary to express the duration in real time (absolute time).

【0050】呼気データ65は、息継ぎを表現すること
を示すデータである。音素データPDの後に呼気データ
65が位置すると、その音素データPDを発音した後、
息継ぎ表現を行うのため発音を無音状態に変化させるこ
とを示す。呼気データ65は、音素列データ55の最後
に位置する場合に限らず、音素データPDと他の音素デ
ータPDの間に位置してもよい。
The expiration data 65 is data indicating that breathing is expressed. When the exhalation data 65 is located after the phoneme data PD, after the phoneme data PD is sounded,
We show that the pronunciation is changed to silence for breath expression. The exhalation data 65 is not limited to being located at the end of the phoneme string data 55, and may be located between the phoneme data PD and another phoneme data PD.

【0051】次に、データ編集機能のうち主な機能を3
つ説明する。 (1)音節編集機能 音節を構成する音素列において、各音素が発せられるデ
ュレーション64は予め決められている。例えば、上記
のように音節「か」の場合は、CLが7.5msに、k
haが4×7.5msに、ajが無限長に決められてい
る。しかし、この時間が固定であれば、1パターンの音
節「か」しか発音できないので、単調な発音になってし
まう。
Next, the main function of the data editing function is
I will explain one. (1) Syllable Editing Function In the phoneme sequence forming a syllable, the duration 64 at which each phoneme is emitted is predetermined. For example, in the case of the syllable "ka" as described above, CL is 7.5 ms and k
ha is set to 4 × 7.5 ms and aj is set to an infinite length. However, if this time is fixed, only one pattern of syllable "ka" can be pronounced, resulting in monotonous pronunciation.

【0052】音節編集機能とは、該各音素のデュレーシ
ョンを編集することができる機能である。例えば、音素
「kha」のデュレーションを4×7.5msから、3
×7.5ms又は5×7.5msに変更することができ
る。この機能を使えば、デュレーションを自由に設定す
ることができるため、例えば音節「か」を発音する場合
にも、多様な「か」の発音を行うことができる。
The syllable editing function is a function capable of editing the duration of each phoneme. For example, the duration of the phoneme “kha” is changed from 4 × 7.5 ms to 3
It can be changed to × 7.5 ms or 5 × 7.5 ms. By using this function, the duration can be freely set, so that even when pronouncing the syllable "ka", it is possible to pronounce various "ka".

【0053】また、音節編集機能は、音節を構成する音
素列データに新たな音素を付け加えることができる。例
えば、音素列「CL+kha+aj」に新たな音素を付
け加えることにより、鼻にかかったような「か」の発音
を実現することも可能になる。さらに、音素を付け加え
る代わりに、音節を付け加えるようにしてもよい。
Further, the syllable editing function can add a new phoneme to the phoneme string data forming the syllable. For example, by adding a new phoneme to the phoneme sequence “CL + kha + aj”, it is possible to realize the pronunciation of “ka” that seems to be nasal. Furthermore, instead of adding phonemes, syllables may be added.

【0054】上記の音節編集機能を実現するための処理
を、後に図14のフローチャートを参照しながら説明す
る。
The processing for realizing the above syllable editing function will be described later with reference to the flowchart of FIG.

【0055】(2)発音タイミング変更機能 外部デバイス21(図5)は、伴奏パートとボーカル
(音声)パートの複数のパートを同時に発音することが
できる。図1(A)は、伴奏パートの時間軸上のデータ
例を示し、図1(B)はボーカルパート(ソングデー
タ)の時間軸上のデータ例を示す。
(2) Sound Generation Timing Change Function The external device 21 (FIG. 5) can simultaneously generate a plurality of parts of the accompaniment part and vocal (voice) part. 1A shows an example of data on the time axis of an accompaniment part, and FIG. 1B shows an example of data on the time axis of a vocal part (song data).

【0056】伴奏データは、時間順の、キーオンKON
11、キーオフKOFF11、キーオンKON12、キ
ーオフKOFF12、キーオンKON13に基づき従来
知られているMIDIデータによる楽音の発生を行う。
The accompaniment data is key-on KON in chronological order.
Based on 11, key-off KOFF11, key-on KON12, key-off KOFF12, and key-on KON13, musical tone is generated by conventionally known MIDI data.

【0057】図1(B)の上段は、音声データ内に記憶
されているキーオン/オフデータを示し、時間順に、キ
ーオンKON1、キーオフKOFF1、キーオンKON
2が発生する。キーオンKON1は、例えば通常伴奏デ
ータ(図1(A))に基づいた音声データを作成する場
合には、該伴奏データの所望位置のキーオンKON12
と同じタイミングで発生するように設定される。キーオ
ン/オフデータは、図6(A)のデータDTに基づいて
生成される。キーオンKON1とキーオフKOFF1と
の間隔は、図6(A)のゲートタイム54に相当する。
The upper part of FIG. 1 (B) shows the key-on / off data stored in the voice data, in the order of time, key-on KON1, key-off KOFF1, key-on KON.
2 occurs. The key-on KON1 is a key-on KON12 at a desired position of the accompaniment data, for example, when creating voice data based on the normal accompaniment data (FIG. 1A).
Is set to occur at the same timing as. The key-on / off data is generated based on the data DT of FIG. 6 (A). The interval between the key-on KON1 and the key-off KOFF1 corresponds to the gate time 54 in FIG. 6 (A).

【0058】図1(B)の下段は、図6(A)に示す音
素列データ55(例えば音節「か」の場合)を示し、例
えば時間順に、音素CL(1×7.5ms)、音素kh
a(4×7.5ms)、音素aj(無限長)が発生す
る。
The lower part of FIG. 1 (B) shows the phoneme string data 55 (for example, in the case of syllable "ka") shown in FIG. 6 (A). For example, phoneme CL (1 × 7.5 ms), phoneme kh
a (4 × 7.5 ms) and phoneme aj (infinite length) are generated.

【0059】ここで、発音タイミングについて説明を加
えておく。音素には、無声音からなる子音、有声音から
なる母音等がある。音節「か」の場合は、「CL」と
「kha」が子音であり、「aj」が母音である。子音
「CL」と子音「kha」が発生しているときには該
「か」という音声は音として聞こえず、その後に母音
「aj」が発生するとその時点で音声として聞こえる。
Here, the sound generation timing will be further described. Phonemes include unvoiced consonants and voiced vowels. In the case of the syllable “ka”, “CL” and “kha” are consonants and “aj” is a vowel. When the consonant “CL” and the consonant “kha” are generated, the sound “ka” is not heard as a sound, and when the vowel “aj” is generated thereafter, it is heard as a sound at that time.

【0060】キーオンKON1のタイミングで、音素C
Lの発生が開始されるが、子音CL+khaが発生して
いる時間(5×7.5ms)を経過した後に、母音「a
j」の発音が開始された時に「か」が実際に音として聞
こえる。それに対し、伴奏データ(図1(A))は、キ
ーオンKON12のタイミングで楽音が発音されてお
り、ソングデータ(図1(B))中の音声データは、キ
ーオンKON1のタイミングから少し遅れてから「か」
という発音が聞き取れるようになる。したがって、音声
データのキーオンKON1は、伴奏データ(図1
(A))のキーオンKON12と同じタイミングであり
ながら、「か」の発音が聞き取れるようになるのは伴奏
データの発音よりも少し遅れたタイミングになってしま
う。特に、音素列データの先頭に含まれる子音列のデュ
レーションの合計時間(「CL+kha」の場合は5×
7.5ms)が長い場合にその遅れ時間が大きくなる。
この遅れ時間は、聴取者に違和感を感じさせることがあ
る。子音列のデュレーションは、音節により異なる。音
節により、遅れがほとんど感じられないものと、大きな
遅れを感じるものとがある。しかし、音素の知識がない
聴取者にはその区別が付かない。
Phoneme C at the timing of key-on KON1
Generation of L starts, but after the time (5 × 7.5 ms) during which the consonant CL + kha is generated has passed, the vowel “a
When the pronunciation of "j" is started, "ka" is actually heard as a sound. On the other hand, in the accompaniment data (FIG. 1 (A)), a musical sound is produced at the timing of key-on KON12, and the voice data in the song data (FIG. 1 (B)) is slightly delayed from the timing of key-on KON1. "Ka"
You will be able to hear the pronunciation. Therefore, the key-on KON1 of the voice data is the accompaniment data (see FIG.
Although the timing is the same as that of the key-on KON12 of (A)), the pronunciation of "ka" becomes audible at a timing slightly later than the pronunciation of the accompaniment data. In particular, the total duration of the consonant sequence included at the beginning of the phoneme sequence data (5 × for “CL + kha”)
When 7.5 ms) is long, the delay time becomes large.
This delay time may make the listener feel uncomfortable. The duration of the consonant sequence differs depending on the syllable. Depending on the syllable, there is one in which a delay is hardly felt and one in which a big delay is felt. However, listeners who have no knowledge of phonemes cannot distinguish it.

【0061】その不都合を解消するため、発音タイミン
グ変更機能を用いる。聴取者は、ある歌詞(音節)が伴
奏よりも遅れていると判断した場合には、その音節を指
定するだけで自動的にその遅れをなくすようにデータが
変更(編集)される。
In order to eliminate the inconvenience, a tone generation timing changing function is used. When the listener determines that a certain lyrics (syllable) is behind the accompaniment, the data is changed (edited) so as to automatically eliminate the delay only by designating the syllable.

【0062】図1(C)は、図1(B)の音声データを
編集した後の音声データである。図1(C)の上段に示
すように、キーオンKON1、キーオフKOFF1、キ
ーオンKON2のタイミングを全て10クロックずつ早
くする。具体的には、図6(A)に示すタイミングデー
タ51を10クロックだけ少なくすればよい。この10
クロックの時間は、図1(D)に示す変換テーブルによ
り各音節毎に決められる。
FIG. 1C shows the audio data after editing the audio data of FIG. 1B. As shown in the upper part of FIG. 1C, the timings of key-on KON1, key-off KOFF1, and key-on KON2 are all advanced by 10 clocks. Specifically, the timing data 51 shown in FIG. 6A may be reduced by 10 clocks. This 10
The clock time is determined for each syllable by the conversion table shown in FIG.

【0063】図1(D)は、図5のROM4又はRAM
3に記憶される前記変換テーブルの例を示す。変換テー
ブルは、音節毎に、早めるクロック数を記憶している。
例えば、「か」であれば、10クロックである。「あ、
い、う、え、お」の各音節は、子音の音素を含まないた
め、発音の遅れが生じることがなく、変換テーブルに含
める必要はない。音節により子音列のデュレーション
は、決まるので、どれだけ早めれば遅れ感を解消できる
かは予め設定されている。
FIG. 1D shows the ROM 4 or RAM of FIG.
3 shows an example of the conversion table stored in FIG. The conversion table stores the number of clocks to be advanced for each syllable.
For example, “ka” means 10 clocks. "Ah,
Each of the syllables “i, u, e, o” does not need to be included in the conversion table because it does not include the phoneme of the consonant and thus does not cause a delay in pronunciation. Since the duration of the consonant string is determined by the syllable, it is set in advance how fast the consonant sequence can be eliminated.

【0064】図1(C)の下段は、編集後の音素列デー
タの発声タイミングを示す。音素列CL+kha+aj
は、キーオンKON1のタイミングで発生を開始する。
音素列CL(1×7.5ms)+kha(4×7.5m
s)+aj(無限長)のデュレーションは変更がない。
キーオンKON1等のタイミングが、図1(B)に比べ
早められており、それに従って音素列データの発生も早
まる。
The lower part of FIG. 1C shows the vocalization timing of the edited phoneme string data. Phoneme string CL + kha + aj
Occurs at the timing of key-on KON1.
Phoneme string CL (1 x 7.5 ms) + kha (4 x 7.5 m)
The duration of (s) + aj (infinite length) remains unchanged.
The timing of key-on KON1 etc. is advanced as compared with FIG. 1 (B), and accordingly, the generation of phoneme string data is advanced.

【0065】上記のように、キーオンKON1等のタイ
ミングを早めることにより、「か」の発音の遅れを軽減
又はなくすことができる。「か」の実際の発音タイミン
グを、伴奏データのキーオンKON12のタイミングに
近づけることができる。また、操作者は、発音の遅れを
感じた歌詞(例えば「か」)を指定するだけでよいの
で、何クロックだけ早くすればよいのかを知らなくて
も、簡単な操作で遅れを感じさせない発音を行わせるこ
とができる。
As described above, by advancing the timing of key-on KON1 or the like, the delay in the pronunciation of "ka" can be reduced or eliminated. The actual sounding timing of "ka" can be brought close to the timing of the key-on KON12 of the accompaniment data. Also, since the operator only has to specify the lyrics (for example, “ka”) that feel the delay in pronunciation, pronunciation does not cause delay with a simple operation, without knowing how many clocks should be advanced. Can be done.

【0066】上記の発音タイミング変更機能を実現する
ための処理を、後に図12のフローチャートを参照しな
がら説明する。
The processing for realizing the above-mentioned tone generation timing changing function will be described later with reference to the flowchart of FIG.

【0067】(3)音素時間短縮機能 図2(A)は、図1(B)と同様に、「か」を発音する
ための音声データを示す。図2(A)の上段は、時間順
に、キーオンKON1、キーオフKOFF1、キーオン
KON2を示す。図2(A)の下段は、音素列データC
L(1×7.5ms)+kha(4×7.5ms)+a
j(無限長)を示す。
(3) Phoneme time shortening function FIG. 2A shows voice data for pronouncing "ka" as in FIG. 1B. The upper part of FIG. 2A shows key-on KON1, key-off KOFF1, and key-on KON2 in order of time. The lower part of FIG. 2A shows the phoneme string data C.
L (1 × 7.5 ms) + kha (4 × 7.5 ms) + a
Indicates j (infinite length).

【0068】図2(B)は、ソングデータのテンポを速
くした後の音声データの発音例を示す。音声データは、
テンポを変更することができる。例えば、図6(A)に
おいて、ソングデータ50の初期設定データSD中のテ
ンポデータを変更すればよい。テンポを速くすると、図
2(B)の上段に示すキーオンKON1、キーオフKO
FF1、キーオンKON2のタイミングが早くなるが、
図2(B)の下段に示す音素列のデュレーションは変化
しない。これは、キーオン等のタイミングがクロック数
で表され(図6(A)のタイミングデータ51とゲート
タイム54に相当)、音素列データのデュレーション6
4(図6(B))が実時間で表されているためである。
テンポの変更とは、1クロックの発生タイミング時間を
変化させることである。
FIG. 2B shows an example of pronunciation of voice data after increasing the tempo of song data. The voice data is
You can change the tempo. For example, in FIG. 6A, the tempo data in the initial setting data SD of the song data 50 may be changed. When the tempo is increased, key-on KON1 and key-off KO shown in the upper part of FIG.
The timing of FF1 and key-on KON2 will be earlier,
The duration of the phoneme string shown in the lower part of FIG. 2 (B) does not change. This is because the timing of key-on or the like is represented by the number of clocks (corresponding to the timing data 51 and the gate time 54 in FIG. 6A), and the duration 6 of the phoneme string data.
4 (FIG. 6 (B)) is represented in real time.
Changing the tempo is changing the generation timing time of one clock.

【0069】キーオンKON1のタイミングで音素列C
L+kha+ajの発生が開始するが、次のキーオンK
ON2のタイミングでその音素列の発生が中止され次の
音素列データの発生が開始されてしまう。その結果、子
音CLが発生し、その後、子音khaが発生しその発生
は途中で次の音素列データの発音に移ってしまい、母音
ajは全く発生されないことになる。
Phoneme string C at the timing of key-on KON1
Generation of L + kha + aj starts, but next key-on K
The generation of the phoneme string is stopped at the timing of ON2, and the generation of the next phoneme string data is started. As a result, the consonant CL is generated, and then the consonant kha is generated, and the generation of the consonant kha shifts to the pronunciation of the next phoneme string data in the middle, and the vowel aj is not generated at all.

【0070】上記のように、音素列は、子音CL+kh
aが発生している間は音として聞こえず、母音ajが発
生した時点で音として聞こえるので、「か」は音として
聞こえないことになってしまう。このように、テンポを
速くすると、歌詞(音節)によっては発音が聞き取れな
いものが生じる。
As described above, the phoneme sequence is consonant CL + kh.
Since "a" is not heard as a sound while "a" is generated and as a sound when the vowel aj is generated, "ka" cannot be heard as a sound. In this way, if the tempo is increased, some lyrics (syllables) may not be heard.

【0071】その不都合を解消するため、音素時間短縮
機能を用いる。操作者は、テンポを速くするように変更
した後、発音されない歌詞(音節)を指定すれば、その
歌詞を発音するように自動的にデータの変更(編集)を
行う。
To eliminate the inconvenience, a phoneme time shortening function is used. After changing the tempo to be faster, if the operator designates a lyrics (syllable) that is not pronounced, the operator automatically changes (edits) the data so that the lyrics are pronounced.

【0072】図2(C)は、図2(B)のソングデータ
を編集した後のソングデータである。図2(C)の上段
に示すように、キーオンKON1、キーオフKOFF
1、キーオンKON2のタイミングは図2(B)と変わ
らない。図2(C)の下段に示すように、音素列データ
CL+kha+ajのうち、子音khaのデュレーショ
ンを1単位時間(7.5ms)だけ短くする。つまり、
子音khaのデュレーションを4×7.5msから3×
7.5msに変更する。変更後の音素列データは、CL
(1×7.5ms)+kha(3×7.5ms)+aj
(無限長)となる。
FIG. 2C shows the song data after editing the song data of FIG. 2B. As shown in the upper part of FIG. 2C, key-on KON1 and key-off KOFF
1. The timing of key-on KON2 is the same as in FIG. 2 (B). As shown in the lower part of FIG. 2 (C), the duration of the consonant kha in the phoneme string data CL + kha + aj is shortened by one unit time (7.5 ms). That is,
Duration of consonant kha from 4x7.5ms to 3x
Change to 7.5 ms. The changed phoneme sequence data is CL
(1 × 7.5 ms) + kha (3 × 7.5 ms) + aj
(Infinite length).

【0073】子音khaのデュレーションを短くするこ
とにより、キーオンKON1のタイミングで子音CLが
発生し、その後、子音khaが発生し、その後、母音a
jが発生する。母音ajの発生は、次のキーオンKON
2により途中で次の音素列データの発音へと移ってしま
うが、母音ajが発生するので、「か」は音として聞こ
える。
By shortening the duration of the consonant kha, the consonant CL is generated at the timing of the key-on KON1, the consonant kha is then generated, and then the vowel a is generated.
j occurs. The vowel aj is generated by the next key-on KON.
Although the operation shifts to the pronunciation of the next phoneme string data in the middle of 2, the vowel aj is generated, so that the “ka” is heard as a sound.

【0074】すなわち、子音のデュレーションを小さく
することにより、テンポの変更により聞き取れなくなっ
た音声の発音を聞き取れるようにすることができる。た
だし、デュレーションが1×7.5msのときには、そ
れ以上小さくすると0msになり、その子音が全く発生
しないことになり、異なる音節が発生されることになっ
てしまう。したがって、デュレーションが2×7.5m
s以上の子音についてのみ、デュレーションを小さくす
る必要がある。
That is, by reducing the duration of the consonant, it is possible to hear the pronunciation of the voice that cannot be heard due to the change in tempo. However, when the duration is 1 × 7.5 ms, it becomes 0 ms when it is further reduced, and the consonant is not generated at all, and different syllables are generated. Therefore, the duration is 2 x 7.5 m
It is necessary to reduce the duration only for consonants of s or more.

【0075】上記の音素時間短縮機能を実現するための
処理を、後に図13のフローチャートを参照しながら説
明する。
The processing for realizing the above-mentioned phoneme time shortening function will be described later with reference to the flowchart of FIG.

【0076】図3(A)〜(D)は、呼気データ(以
下、「▽」で表す)及び長音記号(「ー」で表す)を説
明するための図である。図3の最上段に示すように、時
間順に、キーオンKON1、キーオフKOFF1、キー
オンKON2が発生する。その時の、各音声データの発
音タイミングを図3(A)〜(D)に示す。
FIGS. 3A to 3D are views for explaining exhalation data (hereinafter represented by “∇”) and long sound symbols (represented by “−”). As shown at the top of FIG. 3, key-on KON1, key-off KOFF1, and key-on KON2 occur in time order. The sound generation timing of each voice data at that time is shown in FIGS.

【0077】図3(A)は、上記と同様に、音声データ
「か」の発音タイミングを示す。キーオンKON1のタ
イミングで子音CL(1×7.5ms)が発生し、続い
て、子音kha(4×7.5ms)が発生し、続いて、
母音aj(無限長)が発生する。その後、キーオフKO
FF1が発生するが、キーオフKOFF1は無視され、
母音aj(無限長)が発生し続ける。その後、キーオン
KON2が発生すると、母音aj(無限長)の発生か
ら、次の音素列の発生へと発音が移り変わる。「か」の
後に呼気データがないので、「か」とその次の音節とが
滑らかにつながるように発音される。
FIG. 3A shows the sounding timing of the voice data "ka", as in the above case. A consonant CL (1 × 7.5 ms) is generated at the timing of key-on KON1, a consonant kha (4 × 7.5 ms) is subsequently generated, and subsequently,
The vowel aj (infinite length) is generated. After that, key off KO
FF1 occurs, but key-off KOFF1 is ignored,
The vowel aj (infinite length) continues to be generated. After that, when the key-on KON2 occurs, the pronunciation changes from the generation of the vowel aj (infinite length) to the generation of the next phoneme sequence. Since there is no exhalation data after "ka", it is pronounced so that "ka" and the next syllable are smoothly connected.

【0078】図3(B)は、ソングデータ「か▽」の発
音タイミングを示す。「▽」は、呼気データを示す。キ
ーオンKON1のタイミングで子音CL(1×7.5m
s)が発生し、続いて、子音kha(4×7.5ms)
が発生し、続いて、母音aj(無限長)が発生する。そ
の後、キーオフKOFF1が発生すると、母音aj(無
限長)の発生は無音状態へと移る。すなわち、呼気、つ
まり息継ぎを表現した状態になる。その後、キーオンK
ON2が発生すると、次の音節(音素列)の発生が開始
される。
FIG. 3B shows the tone generation timing of the song data “ka∇”. “∇” indicates exhalation data. Consonant CL (1 x 7.5 m at the timing of key-on KON1
s) is generated, followed by consonant kha (4 × 7.5 ms)
Occurs, followed by the vowel aj (infinite length). After that, when the key-off KOFF1 occurs, the generation of the vowel aj (infinite length) shifts to the silent state. That is, it becomes a state in which exhalation, that is, breathing is expressed. After that, key-on K
When ON2 occurs, the generation of the next syllable (phoneme string) is started.

【0079】図3(C)は、ソングデータ「かーい」の
発音タイミングを示す。キーオンKON1が発生する
と、「かー」を発音するため、子音CL(1×7.5m
s)が発生し、続いて、子音kha(4×7.5ms)
が発生し、続いて、母音aj(無限長)が発生する。そ
の後、キーオフKOFF1が発生すると、母音aj(無
限長)の発生から、その直後の「い」の発音へと移るた
め、母音ij(3×7.5ms)が発生され、3×7.
5ms経過後に無音状態となる。つまり、「い」の発音
が終了する。この母音ijのデュレーション(3×7.
5ms)は、予め決められている時間である。その後、
キーオンKON2が発生すると、次の音節(音素列)の
発生が開始される。
FIG. 3C shows the sounding timing of the song data "Kai". When the key-on KON1 occurs, the consonant CL (1 × 7.5 m
s) is generated, followed by consonant kha (4 × 7.5 ms)
Occurs, followed by the vowel aj (infinite length). After that, when the key-off KOFF1 is generated, the vowel aj (infinite length) is generated and the sound "i" immediately after that is generated, so that the vowel ij (3 × 7.5 ms) is generated and 3 × 7.
It becomes silent after 5 ms. That is, the pronunciation of "i" ends. The duration of this vowel ij (3 × 7.
5 ms) is a predetermined time. afterwards,
When the key-on KON2 occurs, the generation of the next syllable (phoneme sequence) is started.

【0080】図3(D)は、ソングデータ「かーか」の
発音タイミングを示す。キーオンKON1が発生する
と、「かー」を発音するため、子音CL(1×7.5m
s)が発生し、続いて、子音kha(4×7.5ms)
が発生し、続いて、母音aj(無限長)が発生する。そ
の後、キーオフKOFF1が発生すると、母音aj(無
限長)の発生から、その直後の「か」の発音へと移るた
め、子音CL(1×7.5ms)が発生し、続いて、子
音kha(4×7.5ms)が発生し、さらに、母音a
j(2×7.5ms)が発生される。その後、キーオン
KON2が発生すると、母音aj(2×7.5ms)の
発生から、次の音節(音素列)の発生へと発音が移る。
この母音ajのデュレーション(2×7.5ms)は、
予め決められている時間である。
FIG. 3D shows the tone generation timing of the song data "kaka". When the key-on KON1 occurs, the consonant CL (1 × 7.5 m
s) is generated, followed by consonant kha (4 × 7.5 ms)
Occurs, followed by the vowel aj (infinite length). After that, when the key-off KOFF1 occurs, the consonant CL (1 × 7.5 ms) is generated because the vowel aj (infinite length) is generated and the sound “ka” immediately after that is generated, and the consonant kha ( 4 × 7.5 ms), and the vowel a
j (2 × 7.5 ms) is generated. After that, when the key-on KON2 is generated, the pronunciation shifts from the generation of the vowel aj (2 × 7.5 ms) to the generation of the next syllable (phoneme sequence).
The duration of this vowel aj (2 x 7.5 ms) is
It is a predetermined time.

【0081】図3(C)と図3(D)のように、音素列
の最後の音素以外の音素の中に、デュレーションが無限
長の音素があるものは長音記号(「ー」)を含む音素列
であると判断することができる。
As shown in FIG. 3 (C) and FIG. 3 (D), a phoneme other than the last phoneme in the phoneme sequence that has a phoneme of infinite duration includes a long sound symbol ("-"). It can be determined that it is a phoneme string.

【0082】図7は、パーソナルコンピュータ1のCP
U5が行うメインルーチンの処理を示すフローチャート
である。ステップSA1では、初期設定の処理を行う。
初期設定は、例えばレジスタやフラグ等の初期化を含
む。
FIG. 7 shows the CP of the personal computer 1.
It is a flowchart which shows the process of the main routine which U5 performs. In step SA1, initial setting processing is performed.
The initial setting includes initialization of registers and flags, for example.

【0083】ステップSA2では、ソングデータの再生
スタートが指示されたか否かをチェックする。例えば、
操作者がマウス10を用いてディスプレイ45上に表示
されている再生スタートスイッチをクリックすることに
より、再生スタートを指示することができる。再生スタ
ートが指示されるとステップSA3へ進み、再生スター
トが指示されなければステップSA5へ進む。
At Step SA2, it is checked whether or not the reproduction start of the song data is instructed. For example,
The operator can instruct the reproduction start by clicking the reproduction start switch displayed on the display 45 using the mouse 10. When the reproduction start is instructed, the process proceeds to step SA3, and when the reproduction start is not instructed, the process proceeds to step SA5.

【0084】ステップSA3では、ソングデータが選択
されているか否かをチェックする。ソングデータが選択
されていればステップSA4へ進み、ソングデータが選
択されていなければステップSA5へ進む。
At step SA3, it is checked whether or not song data is selected. If song data is selected, the process proceeds to step SA4, and if song data is not selected, the process proceeds to step SA5.

【0085】ステップSA4では、選択されたソングデ
ータの再生処理を行う。再生処理の詳細は、後に図8を
参照しながら説明する。その後、ステップSA5へ進
む。
At Step SA4, the selected song data is reproduced. Details of the reproduction process will be described later with reference to FIG. Then, it progresses to step SA5.

【0086】ステップSA5では、再生ストップが指示
されたか否かをチェックする。例えば、操作者がマウス
10を用いてディスプレイ45上に表示されている再生
ストップスイッチをクリックすることにより、再生スト
ップを指示することができる。再生ストップが指示され
るとステップSA6へ進み、再生ストップが指示されな
ければステップSA7へ進む。
At Step SA5, it is checked whether or not the reproduction stop is instructed. For example, the operator can instruct the reproduction stop by clicking the reproduction stop switch displayed on the display 45 with the mouse 10. When the reproduction stop is instructed, the process proceeds to step SA6, and when the reproduction stop is not instructed, the process proceeds to step SA7.

【0087】ステップSA6では、フラグrunを0に
する。フラグrunが1のときには現在ソングデータ再
生中であることを示し、フラグrunが0のときには現
在ソングデータ再生中でないことを示す。その後、ステ
ップSA7へ進む。
At step SA6, the flag run is set to 0. When the flag run is 1, it indicates that the song data is currently being reproduced, and when the flag run is 0, it indicates that the song data is not currently being reproduced. Then, it progresses to step SA7.

【0088】ステップSA7では、テンポの変更が指示
されたか否かをチェックする。例えば、操作者がマウス
10又はキーボード12を用いてディスプレイ45上に
表示されているテンポ値の変更を指示することができ
る。テンポの変更が指示されるとステップSA8へ進
み、テンポの変更が指示されていなければステップSA
9へ進む。
At Step SA7, it is checked whether or not the tempo change is instructed. For example, the operator can use the mouse 10 or the keyboard 12 to instruct to change the tempo value displayed on the display 45. When the tempo change is instructed, the process proceeds to step SA8, and when the tempo change is not instructed, the step SA is performed.
Proceed to 9.

【0089】ステップSA8では、変更されたテンポに
基づき、発生クロックタイミングを変更する。つまり、
1クロックの発生時間間隔を変更することに相当する。
その後、ステップSA9へ進む。
At step SA8, the generated clock timing is changed based on the changed tempo. That is,
This corresponds to changing the generation time interval of one clock.
Then, it progresses to step SA9.

【0090】ステップSA9では、データ修正モード処
理の開始が指示されたか否かをチェックする。例えば、
操作者がマウス10を用いてディスプレイ45上に表示
されているデータ修正モードを指示することができる。
当該モードが指示されるとステップSA10へ進み、当
該モードが指示されていなければステップSA11へ進
む。
At Step SA9, it is checked whether or not the start of the data correction mode process is instructed. For example,
The operator can use the mouse 10 to instruct the data correction mode displayed on the display 45.
When the mode is instructed, the process proceeds to step SA10, and when the mode is not instructed, the process proceeds to step SA11.

【0091】ステップSA10では、データ修正モード
の処理を行う。データ修正モードでは、上記に示した音
節編集機能、発音タイミング編集機能(図1)、音素時
間短縮機能(図2)の処理を行う。その処理の詳細は、
後に図11を参照しながら説明する。その後、ステップ
SA11へ進む。
At step SA10, a data correction mode process is performed. In the data correction mode, the processing of the syllable editing function, the pronunciation timing editing function (FIG. 1), and the phoneme time shortening function (FIG. 2) described above is performed. The details of the process are
It will be described later with reference to FIG. Then, it progresses to step SA11.

【0092】ステップSA11では、その他処理を行
う。その他処理は、例えばソングデータを外部記憶装置
13等からRAM3に読み出す処理等である。その後、
ステップSA12へ進む。
At step SA11, other processing is performed. The other process is, for example, a process of reading the song data from the external storage device 13 or the like into the RAM 3. afterwards,
Go to step SA12.

【0093】ステップSA12では、終了が指示された
か否かをチェックする。例えば、操作者がマウス10を
用いてディスプレイ45上に表示されている終了をクリ
ックすることにより終了を指示することができる。終了
が指示されなければステップSA2へ戻り、上記の処理
を繰り返す。終了が指示されると、メインルーチンの処
理を終了する。
At Step SA12, it is checked whether or not the end is instructed. For example, the operator can instruct the end by clicking the end displayed on the display 45 using the mouse 10. If the end is not instructed, the process returns to step SA2 and the above process is repeated. When the termination is instructed, the processing of the main routine is terminated.

【0094】図8は、図7のステップSA4に示す再生
処理の詳細を示すフローチャートである。
FIG. 8 is a flow chart showing details of the reproducing process shown in step SA4 of FIG.

【0095】ステップSB1では、選択されたソングデ
ータの先頭タイミングデータまでの全データを送信す
る。すなわち、図6(A)のソングデータ50のうち、
先頭の初期設定データSDを外部デバイス21に送信す
る。
At step SB1, all data up to the start timing data of the selected song data is transmitted. That is, of the song data 50 of FIG. 6 (A),
The initial setting data SD at the head is transmitted to the external device 21.

【0096】ステップSB2では、フラグrunを1に
する。フラグrunを1にすることにより、現在再生中
であることを記録しておく。
At step SB2, the flag run is set to 1. By setting the flag run to 1, it is recorded that the reproduction is currently being performed.

【0097】ステップSB3では、レジスタtimeに
0をセットする。レジスタtimeは、再生開始が指示
されてからの経過時間を格納するためのレジスタであ
る。レジスタtimeは、この後に所定時間間隔で行わ
れる割り込み処理において、インクリメントされる。そ
の割り込み処理は、後に図9のフローチャートを参照し
ながら説明する。
At step SB3, 0 is set in the register time. The register time is a register for storing the elapsed time after the start of reproduction is instructed. The register time is incremented in the interrupt processing that is performed at predetermined time intervals thereafter. The interrupt process will be described later with reference to the flowchart of FIG.

【0098】ステップSB4では、上記の先頭タイミン
グデータをレジスタtimingにセットする。レジス
タtimingは、タイミングデータを格納するための
レジスタである。
At step SB4, the above-mentioned start timing data is set in the register timing. The register timing is a register for storing timing data.

【0099】ステップSB5では、データの読み出し位
置(読み出しポインタ)を先頭タイミングデータの次の
データ(図6(A)のノートナンバ52)にセットす
る。
In step SB5, the data read position (read pointer) is set to the data (note number 52 in FIG. 6A) next to the leading timing data.

【0100】この後、図9に示す割り込み処理におい
て、ノートナンバ52以下の読み出し及び送信処理が行
われる。以上で、再生処理は終了し、図7のメインルー
チンの処理に戻る。
Thereafter, in the interrupt processing shown in FIG. 9, the reading and transmitting processing for the note number 52 and below is performed. With the above, the reproduction process ends, and the process returns to the process of the main routine of FIG. 7.

【0101】図9は、パーソナルコンピュータ1のCP
U5が行う割り込み処理を示すフローチャートである。
割り込み処理は、タイミングデータを表す1クロック毎
に行われる。1クロックは、例えば4分音符の1/48
0の周期である。パーソナルコンピュータ1は、それよ
り高周波数のクロックで動作している。
FIG. 9 shows the CP of the personal computer 1.
It is a flowchart which shows the interruption processing which U5 performs.
The interrupt process is performed every one clock representing the timing data. One clock is, for example, 1/48 of a quarter note
It has a cycle of zero. The personal computer 1 operates with a clock having a higher frequency than that.

【0102】ステップSC1では、フラグrunが1か
否かをチェックする。フラグrunが1であるときには
現在ソングデータ再生中であることを意味し、ステップ
SC2へ進む。フラグrunが0であるときには現在ソ
ングデータ再生中でないことを意味し、ステップSC1
7へ進む。
At step SC1, it is checked whether the flag run is 1 or not. When the flag run is 1, it means that the song data is currently being reproduced, and the process proceeds to step SC2. When the flag run is 0, it means that the song data is not currently being reproduced, and step SC1
Proceed to 7.

【0103】ステップSC2では、レジスタtimeの
値がレジスタtimingと同じ値か否かをチェックす
る。すなわち、時間レジスタtimeが先頭タイミング
データの値に達したデータ発音タイミングであるか否か
をチェックする。達したときにはステップSC3へ進
み、達していないときにはステップSC14へ進む。
At step SC2, it is checked whether or not the value of the register time is the same as the value of the register timing. That is, it is checked whether or not the time register time is the data sounding timing at which the value of the head timing data is reached. When it reaches, it proceeds to step SC3, and when it does not reach, it proceeds to step SC14.

【0104】ステップSC3では、ソングデータからデ
ータを1つ読み出す。図8の再生処理のステップSB5
において、読み出しポインタが図6(A)のノートナン
バ52に設定されているので、ノートナンバ52を読み
出すことになる。
At step SC3, one data is read from the song data. Step SB5 of the reproduction process of FIG.
Since the read pointer is set to the note number 52 in FIG. 6A, the note number 52 is read.

【0105】ステップSC4では、読み出したデータが
タイミングデータ51(図6(A))か否かをチェック
する。読み出したデータがノートナンバであるので、タ
イミングデータでないと判断し、NOの矢印に従いステ
ップSC5へ進む。
At step SC4, it is checked whether the read data is the timing data 51 (FIG. 6A). Since the read data is the note number, it is determined that it is not the timing data, and the process proceeds to step SC5 according to the NO arrow.

【0106】ステップSC5では、読み出したデータが
音素列データ55(図6(A))か否かをチェックす
る。読み出したデータがノートナンバであるので、NO
の矢印に従いステップSC9へ進む。
At step SC5, it is checked whether the read data is the phoneme string data 55 (FIG. 6 (A)). Since the read data is the note number, NO
Follow the arrow to move to step SC9.

【0107】ステップSC9では、読み出したデータが
ゲートタイム54(図6(A))か否かをチェックす
る。読み出したデータがノートナンバであるので、NO
の矢印に従いステップSC11へ進む。
At step SC9, it is checked whether the read data has the gate time 54 (FIG. 6A). Since the read data is the note number, NO
Follow the arrow to move to step SC11.

【0108】ステップSC11では、読み出したデータ
がエンドデータED(図6(A))か否かをチェックす
る。読み出したデータがノートナンバであるので、NO
の矢印に従いステップSC12へ進む。
At step SC11, it is checked whether the read data is the end data ED (FIG. 6 (A)). Since the read data is the note number, NO
Follow the arrow to move to step SC12.

【0109】ステップSC12では、読み出したノート
ナンバをRAM3内のデータ保持領域に記憶する。その
後、ステップSC3に戻る。
At step SC12, the read note number is stored in the data holding area in the RAM 3. Then, it returns to step SC3.

【0110】ステップSC3では、ソングデータ中の次
のデータを読み出す。すなわち、ベロシティ53(図6
(A))を読み出す。以下、上記のノートナンバ52の
場合と同様のステップの処理を行い、ステップSC12
に到達し、そのベロシティ53をデータ保持領域に記憶
する。データ保持領域には、ノートナンバとベロシティ
が記憶される。その後、ステップSC3に戻る。
At step SC3, the next data in the song data is read. That is, the velocity 53 (see FIG.
(A)) is read. Thereafter, the same step processing as in the case of the note number 52 is performed, and step SC12
And the velocity 53 is stored in the data holding area. A note number and velocity are stored in the data holding area. Then, it returns to step SC3.

【0111】ステップSC3では、次のデータを読み出
す。すなわち、ゲートタイム54(図6(A))を読み
出す。その後、ステップSC4、SC5を介して、ステ
ップSC9へ進む。ステップSC9では、YESの矢印
に従いステップSC10へ進む。
At step SC3, the next data is read. That is, the gate time 54 (FIG. 6A) is read. Then, the process proceeds to step SC9 via steps SC4 and SC5. In step SC9, the process proceeds to step SC10 following the YES arrow.

【0112】ステップSC10では、読み出したゲート
タイム54の値をレジスタgateにセットする。レジ
スタgateは、ゲートタイムの値を保持するためのレ
ジスタである。その後、ステップSC3に戻る。
At step SC10, the value of the read gate time 54 is set in the register gate. The register gate is a register for holding the value of the gate time. Then, it returns to step SC3.

【0113】ステップSC3では、次のデータを読み出
す。すなわち、音素列データ55(図6(A))を読み
出す。その後、ステップSC4を介して、ステップSC
5へ進む。ステップSC5では、YESの矢印に従いス
テップSC6へ進む。
At step SC3, the next data is read. That is, the phoneme string data 55 (FIG. 6A) is read. Then, through step SC4, step SC
Go to 5. In step SC5, the process proceeds to step SC6 following the YES arrow.

【0114】ステップSC6では、読み出した音素列デ
ータ55を外部デバイス21(図5)へ送信する。続い
て、ステップSC7では、キーオンデータ、及びデータ
保持領域に記憶されているノートナンバ52及びベロシ
ティ53を外部デバイス21に送信する。
At step SC6, the read phoneme string data 55 is transmitted to the external device 21 (FIG. 5). Then, in step SC7, the key-on data and the note number 52 and velocity 53 stored in the data holding area are transmitted to the external device 21.

【0115】なお、RAM中のソングデータ(図6
(A))は、ノートナンバ52、ベロシティ53、ゲー
トナンバ54、音素列データ55の順番で並んでいる
が、外部デバイス21に送信する際には、外部デバイス
21の性質上、まず音素列データ55を送信し(SC
6)、その後にノートナンバ52及びベロシティ53を
含むキーオンイベントを送信(SC7)する必要があ
る。
The song data in the RAM (see FIG.
(A) is arranged in the order of note number 52, velocity 53, gate number 54, and phoneme string data 55. However, when transmitting to the external device 21, due to the nature of the external device 21, first the phoneme string data is transmitted. 55 is sent (SC
6) After that, it is necessary to transmit the key-on event including the note number 52 and the velocity 53 (SC7).

【0116】次に、ステップSC8では、送信したノー
トナンバ52及びベロシティ53をデータ保持領域から
消去する。その後、ステップSC3へ戻る。
Next, in step SC8, the transmitted note number 52 and velocity 53 are erased from the data holding area. Then, it returns to step SC3.

【0117】ステップSC3では、次のデータを読み出
す。すなわち、タイミングデータ51(図6(A))を
読み出す。その後、ステップSC4では、YESの矢印
に従いステップSC13へ進む。ステップSC13で
は、読み出したタイミングデータをレジスタtimin
gにセットする。その後、ステップSC17へ進む。
At step SC3, the next data is read. That is, the timing data 51 (FIG. 6A) is read. Then, in step SC4, the process proceeds to step SC13 by following the YES arrow. At step SC13, the read timing data is stored in the register timin.
Set to g. Then, it progresses to step SC17.

【0118】ステップSC17では、従来より知られて
いるその他パートの自動演奏処理を行う。例えば、伴奏
パートの自動演奏データを外部デバイス21に送信する
ことができる。その後、ステップSC18では、時間レ
ジスタtimeの値をインクリメントする。すなわち、
時間レジスタtimeは、所定時間間隔でインクリメン
トされることになる。その後、割り込み処理を終了し、
割り込み前の処理に戻る。
At step SC17, the conventionally-known automatic performance process for other parts is performed. For example, the automatic performance data of the accompaniment part can be transmitted to the external device 21. Then, in step SC18, the value of the time register time is incremented. That is,
The time register time will be incremented at predetermined time intervals. After that, interrupt processing is completed,
Return to the process before the interrupt.

【0119】次の割り込みが行われると、ステップSC
1を介して、ステップSC2において、レジスタtim
eの値がタイミングレジスタtimingの値に達した
か否かをチェックする。達していないときには、ステッ
プSC14へ進む。
When the next interrupt is made, step SC
1 through step SC2, register tim
It is checked whether the value of e has reached the value of the timing register timing. If not reached, the process proceeds to step SC14.

【0120】ステップSC14では、時間レジスタti
meの値が、(ゲートタイムレジスタgate+タイミ
ングレジスタtiming)の値に達したか否かをチェ
ックする。達していないときには、NOの矢印に従いス
テップSC17へ進み、上記に示した処理を繰り返す。
達したときには、キーオフのタイミングに達したことを
意味し、YESの矢印に従いステップSC15へ進む。
At step SC14, the time register ti
It is checked whether the value of me has reached the value of (gate time register gate + timing register timing). If not reached, the process proceeds to step SC17 following the NO arrow, and the above-described processing is repeated.
When it reaches, it means that the key-off timing has been reached, and the process proceeds to step SC15 following the YES arrow.

【0121】ステップSC15では、キーオフデータを
外部デバイス21に送信する。その後、ステップSC1
7へ進み、上記に示した処理を繰り返す。
At step SC15, the key-off data is transmitted to the external device 21. Then, step SC1
7 and repeats the above processing.

【0122】上記の割り込み処理を繰り返し、ステップ
SC3においてエンドデータED(図6(A))が読み
出されたときには、ソングデータの終了を意味し、ステ
ップSC4、SC5、SC9を介して、ステップSC1
1へ進む。ステップSC11では、YESの矢印に従い
ステップSC16へ進む。
When the end data ED (FIG. 6 (A)) is read in step SC3 by repeating the above interrupt processing, it means the end of the song data, and through step SC4, SC5, SC9, step SC1
Go to 1. In step SC11, the process proceeds to step SC16 following the YES arrow.

【0123】ステップSC16では、フラグrunを0
にし、現在ソングデータ再生中でないことを記録してお
く。その後、ステップSC17へ進み、上記に示した処
理を行う。
At step SC16, the flag run is set to 0.
And record that song data is not currently being played back. Then, it progresses to step SC17 and performs the process shown above.

【0124】次の割り込みが行われると、ステップSC
1においてフラグrunが0であると判断され、直ちに
ステップSC17へ進み、上記に示した処理を行う。
When the next interrupt is made, step SC
In 1, it is determined that the flag run is 0, and the process immediately proceeds to step SC17 to perform the above-described processing.

【0125】図10は、外部デバイス21のCPU26
が行うMIDI受信処理を示すフローチャートである。
図9の割り込み処理においてパーソナルコンピュータ1
は、上記のデータをMIDI送信する。外部デバイス2
1が、そのデータを受信したときには、外部デバイス2
1は以下の処理を行う。
FIG. 10 shows the CPU 26 of the external device 21.
6 is a flowchart showing a MIDI receiving process performed by the.
In the interrupt processing of FIG. 9, the personal computer 1
Sends the above data via MIDI. External device 2
1 receives the data, the external device 2
1 performs the following processing.

【0126】ステップSD1では、音素列データ、キー
オンデータ、ノートナンバ、ベロシティ、キーオフデー
タのうちのいずれか、つまり、音声データを受信したか
否かをチェックする。受信したときにはYESの矢印に
従いステップSD2へ進み、受信しないときにはNOの
矢印に従いステップSD2の処理をバイパスしてステッ
プSD3へ進む。
At step SD1, it is checked whether any one of the phoneme string data, key-on data, note number, velocity and key-off data, that is, voice data is received. When it is received, the process proceeds to step SD2 according to the YES arrow, and when it is not received, the process of step SD2 is bypassed to proceed to step SD3.

【0127】ステップSD2では、受信したデータに基
づき音声合成回路32にデータを送信する。音声合成回
路32がフォルマント音源の場合には、受信した音素列
データ等に基づき、フォルマント中心周波数、フォルマ
ントバンド幅等をフォルマント音源に送信する。その
後、ステップSD3へ進む。
At step SD2, the data is transmitted to the voice synthesis circuit 32 based on the received data. When the voice synthesis circuit 32 is a formant sound source, the formant center frequency, the formant band width, etc. are transmitted to the formant sound source based on the received phoneme string data and the like. Then, it progresses to step SD3.

【0128】ステップSD3では、その他受信データ処
理を行う。例えば、伴奏パートのデータを受信したとき
には、そのデータを音源回路29又は効果回路30に送
信する。その後、MIDI受信処理を終了する。
At step SD3, other received data processing is performed. For example, when the data of the accompaniment part is received, the data is transmitted to the tone generator circuit 29 or the effect circuit 30. After that, the MIDI reception process ends.

【0129】図11は、図7のステップSA10に示す
データ修正モード処理の詳細を示すフローチャートであ
る。
FIG. 11 is a flow chart showing details of the data correction mode process shown in step SA10 of FIG.

【0130】ステップSE1では、音声データ編集画面
(図4)が表示されているか否かをチェックする。表示
されていないときには、NOの矢印に従いステップSE
2へ進み、表示されているときには、YESの矢印に従
いステップSE4へ進む。
At step SE1, it is checked whether the voice data edit screen (FIG. 4) is displayed. If not displayed, follow the NO arrow to step SE
2. If it is displayed, follow the YES arrow to proceed to step SE4 when displayed.

【0131】ステップSE2では、データの修正を行い
たいソングデータ(図6(A))の選択を受け付ける。
例えば、操作者は、マウスを操作することによりソング
データを選択することができる。
At step SE2, selection of song data (FIG. 6 (A)) desired to be corrected is accepted.
For example, the operator can select song data by operating the mouse.

【0132】次に、ステップSE3では、選択されたソ
ングデータに基づき、音声データ編集画面を表示する。
その後、ステップSE4へ進む。
Next, in step SE3, an audio data edit screen is displayed based on the selected song data.
Then, it progresses to step SE4.

【0133】ステップSE4では、編集範囲の選択の指
定があるか否かをチェックする。例えば、操作者は、図
4に示す編集画面において、1行又は複数行の範囲を選
択することができる。1行は、1つの音符とそれに対応
する歌詞のデータである。
At step SE4, it is checked whether or not the selection of the editing range is designated. For example, the operator can select a range of one line or a plurality of lines on the edit screen shown in FIG. One line is data of one note and lyrics corresponding to it.

【0134】編集範囲の選択があるときには、YESの
矢印に従いステップSE5において選択された範囲をR
AM3に記憶し、ステップSE6へ進む。編集範囲の選
択がないときには、NOの矢印に従いステップSE5を
バイパスしてステップSE6へ進む。
When the edit range is selected, the range selected in step SE5 is read according to the YES arrow.
It is stored in AM3 and the process proceeds to step SE6. When no editing range is selected, step SE5 is bypassed and the process proceeds to step SE6.

【0135】ステップSE6では、発音タイミング編集
処理(図1)が指示されているか否かをチェックする。
操作者は、マウスを用いてその指示を行うことができ
る。指示されているときには、YESの矢印に従いステ
ップSE7において発音タイミング処理を行い、その後
ステップSE8へ進む。指示されていないときには、N
Oの矢印に従いステップSE7をバイパスしてステップ
SE8へ進む。発音タイミング処理の詳細は、後に図1
2のフローチャートを参照しながら説明する。
At step SE6, it is checked whether or not the tone generation timing editing process (FIG. 1) is instructed.
The operator can give the instruction using the mouse. When instructed, the sounding timing process is performed in step SE7 according to the YES arrow, and then the process proceeds to step SE8. When not instructed, N
By following the arrow of O, step SE7 is bypassed and the process proceeds to step SE8. Details of the pronunciation timing processing will be described later in FIG.
It will be described with reference to the flowchart of FIG.

【0136】ステップSE8では、音素時間短縮処理
(図2)が指示されているか否かをチェックする。操作
者は、マウスを用いてその指示を行うことができる。指
示されているときには、YESの矢印に従いステップS
E9において音素時間短縮処理を行い、その後ステップ
SE10へ進む。指示されていないときには、NOの矢
印に従いステップSE9をバイパスしてステップSE1
0へ進む。音素時間短縮処理の詳細は、後に図13のフ
ローチャートを参照しながら説明する。
At step SE8, it is checked whether or not the phoneme time reduction process (FIG. 2) is instructed. The operator can give the instruction using the mouse. If instructed, follow the YES arrow to step S
The phoneme time shortening process is performed at E9, and then the process proceeds to step SE10. If not instructed, follow the NO arrow to bypass step SE9 and skip step SE1.
Go to 0. The details of the phoneme time reduction process will be described later with reference to the flowchart of FIG.

【0137】ステップSE10では、音節編集処理が指
示されているか否かをチェックする。操作者は、マウス
を用いてその指示を行うことができる。指示されている
ときには、YESの矢印に従いステップSE11に進
み、指示されていないときには、NOの矢印に従いステ
ップSE11、SE12をバイパスしてステップSE1
3へ進む。
In step SE10, it is checked whether or not syllable editing processing is instructed. The operator can give the instruction using the mouse. If it is instructed, follow the YES arrow to proceed to step SE11, and if not, follow the NO arrow to bypass steps SE11 and SE12 and proceed to step SE1.
Go to 3.

【0138】ステップSE11では、選択された範囲が
1楽音発音分(図4の編集画面の1行分)であるか否か
をチェックする。1楽音発音分であるときには、YES
の矢印に従いステップSE12において音節編集処理を
行い、その後ステップSE13へ進む。1楽音発音分で
ないときには、NOの矢印に従い直ちにステップSE1
3へ進む。音節編集処理の詳細は、後に図14のフロー
チャートを参照しながら説明する。
At step SE11, it is checked whether or not the selected range is one musical tone pronunciation (one line of the edit screen of FIG. 4). YES for one tone sound
The syllable editing process is performed in step SE12 according to the arrow, and then the process proceeds to step SE13. If it is not one musical tone pronunciation, immediately follow the NO arrow and proceed to step SE1.
Go to 3. Details of the syllable editing process will be described later with reference to the flowchart of FIG.

【0139】ステップSE13では、その他のデータ修
正処理を行う。次に、ステップSE14では、データ編
集モードの終了が指示されたか否かをチェックする。操
作者は、マウスを用いてその指示を行うことができる。
指示されていないときには、NOの矢印に従いステップ
SE4へ戻り、上記の処理を繰り返す。指示されている
ときには、YESの矢印に従い、データ修正モード処理
を終了し、図7のメインルーチンの処理へ戻る。
At step SE13, other data correction processing is performed. Next, in step SE14, it is checked whether or not the end of the data edit mode has been instructed. The operator can give the instruction using the mouse.
If not instructed, the process returns to step SE4 following the NO arrow and repeats the above processing. When instructed, the YES arrow is followed to end the data correction mode processing and return to the processing of the main routine of FIG.

【0140】図12は、図11のステップSE7に示す
発音タイミング変更処理(図1)の詳細を示すフローチ
ャートである。
FIG. 12 is a flow chart showing details of the tone generation timing changing process (FIG. 1) shown in step SE7 of FIG.

【0141】ステップSF1では、選択された範囲の先
頭にデータ読み出し位置(読み出しポインタ)をセット
する。具体的には、図6(A)のソングデータにおい
て、タイミングデータ51のアドレスの位置に読み出し
ポインタをセットする。編集画面(図4)のうちの1行
分は、図6(A)のデータDTの1つ分に相当する。そ
の後、ステップSF2へ進む。
In step SF1, the data read position (read pointer) is set at the beginning of the selected range. Specifically, in the song data of FIG. 6A, the read pointer is set at the address position of the timing data 51. One line of the edit screen (FIG. 4) corresponds to one data DT of FIG. 6 (A). Then, it progresses to step SF2.

【0142】ステップSF2では、データを1つ読み出
す。つまり、タイミングデータ51を読み出す。
At step SF2, one data is read. That is, the timing data 51 is read.

【0143】次に、ステップSF3では、読み出したデ
ータがタイミングデータであるので、YESの矢印に従
いステップSF4へ進む。
Next, in step SF3, since the read data is the timing data, the flow advances to step SF4 according to the YES arrow.

【0144】ステップSF4では、当該タイミングデー
タが示すタイミングで発音される音素列データがあるか
否かをチェックする。具体的には、当該タイミングデー
タと次のタイミングデータとの間に音素列データ55
(図6(A))があるか否かをチェックする。音素列デ
ータがあるときには、YESの矢印に従いステップSF
5へ進み、音素列データがないときには、NOの矢印に
従い直ちにステップSF7へ進む。
At step SF4, it is checked whether or not there is phoneme string data which is sounded at the timing indicated by the timing data. Specifically, the phoneme string data 55 is inserted between the timing data and the next timing data.
(FIG. 6 (A)) is checked. If there is phoneme string data, follow the YES arrow to step SF
If there is no phoneme string data, the process proceeds to step SF7 immediately following the NO arrow.

【0145】ステップSF5では、変換テーブル(図1
(D))を参照して、当該音素列データ内の先頭発音文
字の遅延クロックを抽出する。例えば、音素列データに
対応する歌詞が「かい」である場合には、その先頭発音
文字「か」の遅延クロックを抽出する。そして、変換テ
ーブル(図1(D))を参照し、「か」に対応する遅延
クロックとして10クロックを抽出する。
At step SF5, the conversion table (see FIG.
(D)), the delay clock of the leading phonetic character in the phoneme string data is extracted. For example, when the lyrics corresponding to the phoneme string data is "kai", the delay clock of the first phonetic character "ka" is extracted. Then, with reference to the conversion table (FIG. 1D), 10 clocks are extracted as a delay clock corresponding to "ka".

【0146】ステップSF6では、読み出したタイミン
グデータを当該遅延クロック数だけ減算し、その値を新
たなタイミングデータとしてソングデータを書き換え
る。その後、ステップSF7へ進む。
At step SF6, the read timing data is subtracted by the delay clock number, and the song data is rewritten using the value as new timing data. Then, it progresses to step SF7.

【0147】ステップSF7では、上記で読み出したデ
ータが選択範囲内の最終データであるか否かをチェック
する。1行しか選択していないときには、最終データで
あるので、YESの矢印に従い、発音タイミング変更処
理を終了し、図11のデータ修正モード処理に戻る。
At step SF7, it is checked whether the data read out above is the final data within the selected range. When only one row is selected, since it is the final data, the YES timing arrow is followed to end the tone generation timing changing processing and return to the data correction mode processing of FIG.

【0148】複数行が選択されているときには、最終デ
ータでないので、ステップSF7においてNOの矢印に
従い、ステップSF2に戻る。ステップSF2では、次
のデータを読み出す。例えば、タイミングデータ51の
次に位置するノートナンバ52を読み出す。次に、ステ
ップSF3では、読み出したデータがノートナンバであ
りタイミングデータでないので、ステップSF7を介し
て、ステップSF2へ戻る。ステップSF2では、次の
データを読み出す。以下、同様の処理を行い、次のタイ
ミングデータが読み出されるまで処理を繰り返す。タイ
ミングデータが読み出されると、ステップSF3におい
てYESの矢印に従い、ステップSF4へ進み、上記に
示した処理を繰り返す。これにより、複数の行について
のタイミングデータを修正することができる。選択した
行のうち最終行の処理が終了すると、ステップSF7に
おいてYESの矢印に従い、発音タイミング変更処理を
終了する。
When a plurality of rows are selected, since the data is not the final data, the process returns to step SF2 following the NO arrow in step SF7. In step SF2, the next data is read. For example, the note number 52 located next to the timing data 51 is read. Next, in step SF3, since the read data is the note number and not the timing data, the process returns to step SF2 via step SF7. In step SF2, the next data is read. Thereafter, similar processing is performed, and the processing is repeated until the next timing data is read. When the timing data is read, the process proceeds to step SF4 following the YES arrow in step SF3, and the above-described processing is repeated. This allows the timing data for multiple rows to be modified. When the process of the last line of the selected lines is completed, the sound generation timing changing process is ended according to the YES arrow in step SF7.

【0149】上記のように、タイミングデータを所定の
クロック数だけ減算することにより、図1に示すよう
に、先頭の子音列のデュレーションが長い場合でも、発
音タイミングの遅れをなくす又は軽減することができ
る。
As described above, by subtracting the predetermined number of clocks from the timing data, as shown in FIG. 1, even if the duration of the consonant string at the beginning is long, it is possible to eliminate or reduce the delay of the sounding timing. it can.

【0150】図13は、図11のステップSE9に示す
音素時間短縮処理(図2)の詳細を示すフローチャート
である。
FIG. 13 is a flow chart showing details of the phoneme time shortening process (FIG. 2) shown in step SE9 of FIG.

【0151】ステップSG1では、選択された範囲の先
頭にデータ読み出し位置(読み出しポインタ)をセット
する。すなわち、先頭行のタイミングデータ51のアド
レスの位置に読み出しポインタをセットする。その後、
ステップSG2へ進む。
In step SG1, the data read position (read pointer) is set at the beginning of the selected range. That is, the read pointer is set at the position of the address of the timing data 51 in the first row. afterwards,
Go to step SG2.

【0152】ステップSG2では、データを1つ読み出
す。つまり、読み出しポインタに従い、タイミングデー
タ51を読み出す。
At step SG2, one data is read. That is, the timing data 51 is read according to the read pointer.

【0153】次に、ステップSG3では、読み出したデ
ータが音素列データであるか否かを判断する。今回は、
読み出したデータがタイミングデータであるので、音素
列データでないと判断し、ステップSG6へ進む。ステ
ップSG6では、読み出されたデータが前記選択範囲に
おける最終データか否かを判断する。今回は、読み出し
たタイミングデータが最終データでないので、NOの矢
印に従い、ステップSG2へ戻る。以下、音素列データ
が読み出されるまで上記の処理を繰り返す。音素列デー
タが読み出されると、ステップSG3においてYESの
矢印に従い、ステップSG4へ進む。
Next, in step SG3, it is determined whether the read data is phoneme string data. This time,
Since the read data is timing data, it is determined that the data is not phoneme string data, and the process proceeds to step SG6. In step SG6, it is determined whether the read data is the final data in the selected range. Since the read timing data is not the final data this time, the process returns to step SG2 following the NO arrow. Hereinafter, the above processing is repeated until the phoneme string data is read. When the phoneme string data is read out, the process proceeds to step SG4 following the YES arrow in step SG3.

【0154】ステップSG4では、音素列データ内にあ
るデュレーションのうち、子音の音素についてのデュレ
ーションであり、かつ「2」以上のデュレーションがあ
るか否かをチェックする。当該デュレーションがあると
きには、音素時間を短縮するため、YESの矢印に従い
ステップSG5へ進む。当該デュレーションがないとき
には、音素時間を短縮することができないため、NOの
矢印に従いステップSG6へ進む。
In step SG4, it is checked whether or not there is a duration of "2" or more among the durations in the phoneme string data, which is for the phoneme of the consonant. When the duration is present, in order to shorten the phoneme time, the process proceeds to step SG5 following the YES arrow. If the duration is not present, the phoneme time cannot be shortened, so the process proceeds to step SG6 following the NO arrow.

【0155】ステップSG5では、当該デュレーション
を1×7.5msだけ減算する。すなわち、子音の音素
についての「2」以上のデュレーションを「1」だけ減
算する。その後、ステップSG6へ進む。
At step SG5, the duration is subtracted by 1 × 7.5 ms. That is, the duration "2" or more for the phoneme of the consonant is subtracted by "1". Then, it progresses to step SG6.

【0156】ステップSG6では、上記で読み出したデ
ータが選択範囲内の最終データであるか否かをチェック
する。選択された行が1行のみの場合は、YESの矢印
に従い、音素時間短縮処理を終了し、図11のデータ修
正モード処理に戻る。
In step SG6, it is checked whether the data read out above is the final data within the selected range. If the selected line is only one line, the phoneme time reduction process is ended following the YES arrow and the process returns to the data correction mode process of FIG.

【0157】選択された行が複数行の場合は、NOの矢
印に従い、ステップSG2へ戻る。以下、次の行につい
ての同様の処理を行う。最終行の処理が終了すると、ス
テップSG6においてYESの矢印に従い、音素時間短
縮処理を終了する。
If the selected line is a plurality of lines, the process returns to step SG2 following the NO arrow. Hereinafter, the same process is performed for the next line. When the process of the last line is completed, the phoneme time reduction process is completed according to the YES arrow in step SG6.

【0158】上記のように、子音のデュレーションを短
縮することにより、図2に示すように、ソングデータの
テンポを速くしたことにより歌詞が発音されなくなると
いう不都合を是正し、歌詞を適正に発音させることがで
きる。
As described above, by shortening the duration of the consonant, as shown in FIG. 2, it is possible to correct the inconvenience that the lyrics are not pronounced by increasing the tempo of the song data, and the lyrics are properly pronounced. be able to.

【0159】なお、上記のフローチャートでは、1回の
処理で「1×7.5ms」だけ発音時間を短縮する場合
を説明したがそれに限定されない。2×7.5ms以上
短縮してもよいし、音節に応じて短縮する時間を変えて
もよい。また、デュレーションの単位時間は7.5ms
に限らない。
In the above flow chart, a case has been described in which the sound generation time is shortened by "1 × 7.5 ms" in one process, but the present invention is not limited to this. The time may be shortened by 2 × 7.5 ms or more, or the shortening time may be changed according to the syllable. The unit time of duration is 7.5 ms.
Not limited to

【0160】図14は、図11のステップSE12に示
す音節編集処理の詳細を示すフローチャートである。
FIG. 14 is a flow chart showing details of the syllable editing process shown in step SE12 of FIG.

【0161】ステップSH1では、選択された行に含ま
れる音素列データに基づき、音節編集画面を表示する。
図15に、音節編集画面の例を示す。音節編集画面で
は、音節「か」の音素列データを示している。音節
「か」は、音素「CL」、「kha」、「aj」からな
る。音素「CL」はデュレーションが「1×7.5m
s」であり、音素「kha」はデュレーションが「4×
7.5ms」であり、音素「aj」はデュレーションが
「無限長(∞)」である。
In step SH1, the syllable editing screen is displayed based on the phoneme string data included in the selected row.
FIG. 15 shows an example of the syllable editing screen. In the syllable editing screen, phoneme string data of the syllable "ka" is shown. The syllable “ka” is composed of phonemes “CL”, “kha”, and “aj”. The phoneme "CL" has a duration of "1 x 7.5 m.
s ”, and the phoneme“ kha ”has a duration of“ 4 ×
The phoneme “aj” has a duration of “infinite length (∞)”.

【0162】次に、ステップSH2では、データ変更入
力があるか否かをチェックし、その入力があるまで待機
する。操作者は、マウス又はキーボードを用いて音素を
指定し、そのデュレーションの値を入力することができ
る。入力があると、YESの矢印に従いステップSH3
へ進む。
Next, in step SH2, it is checked whether or not there is a data change input, and the process waits until that input. The operator can specify a phoneme using a mouse or a keyboard and input a duration value. If there is an input, follow the YES arrow to step SH3.
Go to.

【0163】ステップSH3では、当該変更入力に基づ
きデュレーションの値を書き換える。具体的には、音素
列データ55(図6(B))中の対応するデュレーショ
ン64の値を書き換える。例えば、音素「kha」のデ
ュレーションを「4×7.5ms」から「3×7.5m
s」に変更することができる。
At step SH3, the duration value is rewritten based on the change input. Specifically, the value of the corresponding duration 64 in the phoneme string data 55 (FIG. 6 (B)) is rewritten. For example, the duration of the phoneme “kha” is changed from “4 × 7.5 ms” to “3 × 7.5 m”.
s ".

【0164】次に、ステップSH4では、音声編集処理
の終了が指示されたか否かをチェックする。この指示
は、操作者がマウスを使って行うことができる。終了が
指示されなければ、NOの矢印に従ってステップSH2
へ戻り、上記の処理を繰り返す。終了が指示されると、
YESの矢印に従って、音節編集処理を終了し、図11
のデータ修正モード処理に戻る。
Next, in step SH4, it is checked whether or not an instruction to end the voice editing process has been given. This instruction can be given by the operator using the mouse. If the end is not instructed, follow the NO arrow to step SH2.
Return to and repeat the above process. When the end is instructed,
According to the YES arrow, the syllable editing process ends, and the process shown in FIG.
Return to the data correction mode processing of.

【0165】上記のように、操作者が各音素のデュレー
ションを任意の値に設定することができるので、同じ音
節でも多彩な発音をさせることができる。
As described above, since the operator can set the duration of each phoneme to an arbitrary value, various sounds can be produced even with the same syllable.

【0166】その他の音節編集処理を説明する。図15
において、音素スイッチ72をマウスでクリックする
と、その下に音素の一覧が表示される。その後、挿入ス
イッチ73をクリックすると、音素列「CL+kha+
aj」に所望の音素を挿入することができる。音素を挿
入することにより、例えば鼻にかかったような「か」を
表現する音素列を生成することができる。また、削除ス
イッチ74をクリックすることにより、音素列の中から
所望の音素を削除することができる。
Other syllable editing processing will be described. Figure 15
In, when the phoneme switch 72 is clicked with the mouse, a list of phonemes is displayed below it. Then, when the insertion switch 73 is clicked, the phoneme string “CL + kha +
A desired phoneme can be inserted into "aj". By inserting a phoneme, it is possible to generate a phoneme sequence that expresses, for example, a "ka" that looks like a nose. By clicking the delete switch 74, a desired phoneme can be deleted from the phoneme string.

【0167】また、音節スイッチ71をクリックするこ
とにより、音節の挿入又は削除を行うこともできる。
By clicking the syllable switch 71, syllables can be inserted or deleted.

【0168】変更前スイッチ75をクリックすると、編
集前の音素列を発音させることができ、変更後スイッチ
76をクリックすると、編集後の音素列を発音させるこ
とができる。操作者は、実際の音声を確認しながら、多
彩な音声を編集又は作成することができる。
When the pre-change switch 75 is clicked, the phoneme string before editing can be sounded, and when the post-change switch 76 is clicked, the phoneme string after editing can be sounded. The operator can edit or create various voices while checking the actual voice.

【0169】本実施例によるデータ編集装置は、パソコ
ンとアプリケーションソフトウエアとによる形態に限ら
ず、電子楽器やシーケンサの形態でもよい。アプリケー
ションソフトウエアは、磁気ディスク、光ディスク、半
導体メモリ等の記憶媒体に記憶させ、パソコンに供給す
るようにしてもよいし、ネットワークを介して供給する
ようにしてもよい。
The data editing apparatus according to this embodiment is not limited to the form of a personal computer and application software, but may be of an electronic musical instrument or a sequencer. The application software may be stored in a storage medium such as a magnetic disk, an optical disk, or a semiconductor memory and supplied to a personal computer, or may be supplied via a network.

【0170】ソングデータのフォーマットは、スタンダ
ードMIDIファイルのような演奏イベントの発生時刻
を1つ前のイベントからの時間で表した「イベント+相
対時間」の他、演奏イベントの発生時刻を曲や小節内に
おける絶対時間で表した「イベント+絶対時間」、音符
の音高と符長あるいは休符と休符長で演奏データを表し
た「音高(休符)+符長」、演奏の最小分解能毎にメモ
リの領域を確保し、演奏イベントの発生する時刻に対応
するメモリ領域に演奏イベントを記憶した「ベタ方式」
等の形式でもよい。
The format of the song data is "event + relative time" in which the time of occurrence of a performance event like a standard MIDI file is represented by the time from the previous event, and the time of occurrence of a performance event is the song or bar. "Event + Absolute time" expressed in absolute time, "Pitch (rest) + note length" that represents performance data in terms of note pitch and note length or rest and rest length, minimum resolution of performance A "solid method" in which a memory area is secured for each and the performance event is stored in the memory area corresponding to the time when the performance event occurs.
The format such as

【0171】ソングデータは、複数のチャンネルのデー
タが混在した形式であってもよいし、各チャンネルのデ
ータがトラック毎に別れているような形式であってもよ
い。
The song data may have a format in which the data of a plurality of channels are mixed, or may have a format in which the data of each channel is separated for each track.

【0172】以上実施例に沿って本発明を説明したが、
本発明はこれらに制限されるものではない。例えば、種
々の変更、改良、組み合わせ等が可能なことは当業者に
自明であろう。
The present invention has been described above with reference to the embodiments.
The present invention is not limited to these. For example, it will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.

【0173】[0173]

【発明の効果】以上説明したように、本発明によれば、
操作者は、音節データを構成する音素データのうちから
任意の1つを指定し、その音素データに対応する発生時
間データを所望の値に変更することができるので、多彩
な音節データを生成することができる。
As described above, according to the present invention,
The operator can specify any one of the phoneme data that constitutes the syllable data and change the occurrence time data corresponding to the phoneme data to a desired value, so that various syllable data is generated. be able to.

【0174】操作者は、音声データを指定することによ
り、その音声データについての発音タイミングデータを
テーブルに応じて所望の値だけ変更することができるの
で、音声データの発音タイミングの遅れ等を軽減又はな
くすことができる。
By designating the voice data, the operator can change the tone generation timing data of the voice data by a desired value according to the table, so that the delay of the tone generation timing of the voice data can be reduced or It can be lost.

【0175】操作者は、音節データを指定することによ
り、その音節データに含まれる音素データについてのデ
ュレーションデータを短縮変更することができるので、
子音に属する音素データのデュレーションデータが長い
場合でも無発音を防止することができる。
By designating the syllable data, the operator can shorten and change the duration data of the phoneme data included in the syllable data.
Even if the duration data of the phoneme data belonging to the consonant is long, it is possible to prevent the non-pronouncing.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の実施例によるデータ編集装置が行う
発音タイミング変更処理を説明するための図である。
FIG. 1 is a diagram for explaining sound generation timing changing processing performed by a data editing apparatus according to an embodiment of the present invention.

【図2】 本実施例によるデータ編集装置が行う音素時
間短縮処理を説明するための図である。
FIG. 2 is a diagram for explaining a phoneme time reduction process performed by the data editing apparatus according to the present embodiment.

【図3】 発音のタイミングを示す図である。FIG. 3 is a diagram showing a timing of sound generation.

【図4】 本実施例によるデータ編集装置に表示される
音声データ編集画面の例を示す図である。
FIG. 4 is a diagram showing an example of an audio data editing screen displayed on the data editing apparatus according to the present embodiment.

【図5】 パーソナルコンピュータと外部デバイスとが
接続されたシステムのハード構成を示す図である。
FIG. 5 is a diagram showing a hardware configuration of a system in which a personal computer and an external device are connected.

【図6】 図6(A)はソングデータの例を示す図であ
り、図6(B)は音素列データの例を示す図である。
FIG. 6A is a diagram showing an example of song data, and FIG. 6B is a diagram showing an example of phoneme string data.

【図7】 パーソナルコンピュータのCPUが行うメイ
ンルーチンの処理を示すフローチャートである。
FIG. 7 is a flowchart showing a process of a main routine performed by a CPU of a personal computer.

【図8】 図7のステップSA4に示す再生処理の詳細
を示すフローチャートである。
FIG. 8 is a flowchart showing details of a reproduction process shown in step SA4 of FIG.

【図9】 パーソナルコンピュータのCPUが行う割り
込み処理を示すフローチャートである。
FIG. 9 is a flowchart showing an interrupt process performed by a CPU of a personal computer.

【図10】 外部デバイスのCPUが行う受信処理を示
すフローチャートである。
FIG. 10 is a flowchart showing a reception process performed by a CPU of an external device.

【図11】 図7のステップSA10に示すデータ修正
モード処理の詳細を示すフローチャートである。
11 is a flowchart showing details of the data correction mode processing shown in step SA10 of FIG.

【図12】 図11のステップSE7に示す発音タイミ
ング変更処理の詳細を示すフローチャートである。
FIG. 12 is a flow chart showing details of sound generation timing changing processing shown in step SE7 of FIG.

【図13】 図11のステップSE9に示す音素時間短
縮処理の詳細を示すフローチャートである。
FIG. 13 is a flowchart showing details of the phoneme time reduction process shown in step SE9 of FIG.

【図14】 図11のステップSE12に示す音節編集
処理の詳細を示すフローチャートである。
FIG. 14 is a flowchart showing details of the syllable editing process shown in step SE12 of FIG.

【図15】 本実施例によるデータ編集装置に表示され
る音節編集画面の例を示す図である。
FIG. 15 is a diagram showing an example of a syllable editing screen displayed on the data editing device according to the present embodiment.

【符号の説明】[Explanation of symbols]

1 パーソナルコンピュータ、 2 バス、 3
RAM、 4 ROM、 5 CPU、 6 タ
イマ、 7 表示回路、 8 インターフェース、
9,11 検出回路、 10 マウス、 12
キーボード、13 外部記憶装置、 21 外部デ
バイス、 22 バス、 23インターフェース、
24 RAM、 25 ROM、 26 CP
U、 27 タイマ、 28 表示回路、 29
音源回路、 30 効果回路、 31 サウンド
システム、 32 音声合成回路、 33 検出回
路、 34 操作子、 41 通信ネットワーク、
42 サーバコンピュータ、 45 ディスプレ
イ、 50 ソングデータ、 51 タイミングデ
ータ、 52 ノートナンバ、 53 ベロシテ
ィ、 54ゲートタイム、 55 音素列データ、
ED エンドデータ、 61パート番号、 6
2 デバイス番号、 63 音素ナンバ、 64
デュレーション、 65 呼気データ、 71 音
節スイッチ、 72 音素スイッチ、 73 挿入
スイッチ、 74 削除スイッチ、 75 変更前
スイッチ、 76 変更後スイッチ
1 personal computer, 2 buses, 3
RAM, 4 ROM, 5 CPU, 6 timer, 7 display circuit, 8 interface,
9, 11 Detection circuit, 10 mouse, 12
Keyboard, 13 external storage device, 21 external device, 22 bus, 23 interface,
24 RAM, 25 ROM, 26 CP
U, 27 timer, 28 display circuit, 29
Sound source circuit, 30 effect circuit, 31 sound system, 32 voice synthesis circuit, 33 detection circuit, 34 manipulator, 41 communication network,
42 server computer, 45 display, 50 song data, 51 timing data, 52 note number, 53 velocity, 54 gate time, 55 phoneme sequence data,
ED End Data, 61 Part Number, 6
2 device number, 63 phoneme number, 64
Duration, 65 exhalation data, 71 syllable switch, 72 phoneme switch, 73 insertion switch, 74 deletion switch, 75 before change switch, 76 after change switch

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平5−341793(JP,A) 特開 平8−248993(JP,A) 特開 平4−170600(JP,A) 特開 平4−162000(JP,A) 特開 昭53−116705(JP,A) 特開 昭55−130596(JP,A) 特開 平8−234771(JP,A) 特開2001−209381(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 13/00 G10L 13/06 G10H 1/00 101 G10H 1/00 102 ─────────────────────────────────────────────────── ─── Continuation of the front page (56) Reference JP-A-5-341793 (JP, A) JP-A-8-248993 (JP, A) JP-A-4-170600 (JP, A) JP-A-4- 162000 (JP, A) JP 53-116705 (JP, A) JP 55-130596 (JP, A) JP 8-234771 (JP, A) JP 2001-209381 (JP, A) (JP 58) Fields investigated (Int.Cl. 7 , DB name) G10L 13/00 G10L 13/06 G10H 1/00 101 G10H 1/00 102

Claims (8)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 再生テンポに非依存のデュレーションデ
ータにより発生時間が規定された複数の音素データから
構成される音節データを含む音声データと該音声データ
の発音タイミングを規定する再生テンポに依存したタイ
ミングデータとを含むソングデータにおける前記音節デ
ータを編集することができるデータ編集装置であって、 前記音節データを構成する前記複数の音素データのうち
の1つを指定する音素指定手段と、 前記音素指定手段により指定される音素データに対応す
るデュレーションデータを前記再生テンポの指定とは独
立して指定される発生時間に変更する変更手段とを有す
るデータ編集装置。
1. Audio data including syllable data composed of a plurality of phoneme data whose generation time is defined by duration data that is independent of reproduction tempo, and timing dependent on reproduction tempo that defines sounding timing of the audio data. A data editing device capable of editing the syllable data in song data including data, comprising: a phoneme designating unit for designating one of the plurality of phoneme data constituting the syllable data; and the phoneme designating unit. A data editing apparatus having a changing unit that changes duration data corresponding to phoneme data designated by the means to an occurrence time designated independently of the playback tempo designation.
【請求項2】 再生テンポに非依存のデュレーションデ
ータにより発生時間が規定された複数の音素データから
構成される音節データを含む音声データと該音声データ
の発音タイミングを規定する再生テンポに依存したタイ
ミングデータとを含むソングデータを編集することがで
きるデータ編集装置であって、 前記音節データを構成する複数の音素データの特性に応
じて決定される各音節データと該音節データの発音タイ
ミング変更値との対応関係を記憶するテーブルと、 前記音声データを指定する指定手段と、 前記指定手段により指定される音声データを構成する音
節データのうち先頭に位置する音節データについての発
音タイミング変更値を前記テーブルから検出する検出手
段と、 前記指定手段により指定される音声データについての前
記タイミングデータを前記検出手段により検出される発
音タイミング変更値だけ変更する変更手段とを有するデ
ータ編集装置。
2. Audio data including syllable data composed of a plurality of phoneme data whose generation time is defined by duration data which is independent of reproduction tempo, and timing dependent on reproduction tempo which defines sounding timing of the audio data. A data editing device capable of editing song data including data, each syllabic data determined according to characteristics of a plurality of phoneme data forming the syllable data, and a sounding timing change value of the syllable data. Table for storing the correspondence relation of the sound data, a designating unit for designating the sound data, and a sounding timing change value for the syllable data located at the head among the syllable data forming the sound data designated by the designating unit. The detection means for detecting from the Data editing apparatus and a changing means for changing the serial timing data by tone generation timing change value detected by said detection means.
【請求項3】 再生テンポに非依存のデュレーションデ
ータにより発生時間が規定された複数の音素データから
構成される音節データを含む音声データと該音声データ
の発音タイミングを規定する再生テンポに依存したタイ
ミングデータとを含むソングデータにおける前記音節デ
ータを編集することができるデータ編集装置であって、 音節データを指定する指定手段と、 前記指定手段により指定される音節データ中に含まれる
複数の音素データのうち子音に属する音素データを検出
する検出手段と、 前記検出手段により検出される音素データについてのデ
ュレーションデータを短縮変更する短縮手段とを有する
データ編集装置。
3. Audio data including syllable data composed of a plurality of phoneme data whose occurrence time is defined by duration data which is independent of reproduction tempo, and timing dependent on reproduction tempo which defines sounding timing of the audio data. A data editing device capable of editing the syllable data in song data including data, the designating means for designating the syllable data, and the plurality of phoneme data included in the syllable data designated by the designating means. A data editing apparatus comprising: a detecting unit that detects phoneme data belonging to a consonant; and a shortening unit that shortens and changes duration data of the phoneme data detected by the detecting unit.
【請求項4】 前記検出手段は、子音に属する音素デー
タであり、かつ対応するデュレーションデータが所定値
以上である音素データを検出する手段であり、 前記短縮手段は前記デュレーションデータを所定値だけ
短縮変更する手段である請求項3記載のデータ編集装
置。
4. The detecting means is means for detecting phoneme data belonging to a consonant and having corresponding duration data equal to or larger than a predetermined value, and the shortening means shortens the duration data by a predetermined value. The data editing device according to claim 3, which is a means for changing the data.
【請求項5】 再生テンポに非依存のデュレーションデ
ータにより発生時間が規定された複数の音素データから
構成される音節データを含む音声データと該音声データ
の発音タイミングを規定する再生テンポに依存したタイ
ミングデータとを含むソングデータにおける前記音節デ
ータを編集することができるコンピュータプログラムを
記録した媒体であって、 (a)前記音節データを構成する前記複数の音素データ
のうちの1つを特定する手順と、 (b)前記特定された音素データの変更後の発生時間を
前記再生テンポの指定とは独立して特定する手順と、 (c)前記特定された音素データに対応するデュレーシ
ョンデータを前記手順(b)で特定された発生時間に変
更する手順とをコンピュータに実行させるためのプログ
ラムを記録した媒体。
5. A timing dependent on the reproduction tempo that defines sound data including syllable data composed of a plurality of phoneme data whose generation time is defined by duration data that is independent of the reproduction tempo and a sounding timing of the sound data. A medium for recording a computer program capable of editing the syllable data in song data including data, and (a) a step of specifying one of the plurality of phoneme data constituting the syllable data. , (B) a step of specifying the occurrence time after the change of the specified phoneme data independently of the designation of the reproduction tempo, and (c) a step of setting the duration data corresponding to the specified phoneme data in the step ( A medium storing a program for causing a computer to execute the procedure for changing to the occurrence time specified in b). body.
【請求項6】 再生テンポに非依存のデュレーションデ
ータにより発生時間が規定された複数の音素データから
構成される音節データを含む音声データと該音声データ
の発音タイミングを規定する再生テンポに依存したタイ
ミングデータとを含むソングデータを編集することがで
きるコンピュータプログラムを記録した媒体であって、 (a)前記音声データを特定する手順と、 (b)前記音節データを構成する複数の音素データの特
性に応じて決定される各音節データと該音節データの発
音タイミング変更値との対応関係を記憶するテーブルか
ら、前記特定された音声データを構成する音節データの
うち先頭に位置する音節データに対応する所定の発音タ
イミング変更値を取得する手順と、 (c)前記手順(a)で特定された音声データについて
の前記タイミングデータを前記手順(b)で取得した発
音タイミング変更値だけ変更する手順とをコンピュータ
に実行させるためのプログラムを記録した媒体。
6. Audio data including syllable data composed of a plurality of phoneme data whose generation time is defined by duration data which is independent of reproduction tempo, and timing dependent on the reproduction tempo which defines sounding timing of the audio data. A medium for recording a computer program capable of editing song data including data, comprising: (a) a procedure for specifying the voice data; and (b) characteristics of a plurality of phoneme data constituting the syllable data. From the table storing the correspondence relationship between each syllable data determined according to the syllable data and the sounding timing change value of the syllable data, a predetermined one corresponding to the syllable data located at the head among the syllable data forming the specified voice data is stored. And (c) the voice data identified in step (a) above. A medium for recording a program for causing a computer to execute the procedure of changing the timing data according to the sounding timing change value acquired in step (b).
【請求項7】 再生テンポに非依存のデュレーションデ
ータにより発生時間が規定された複数の音素データから
構成される音節データを含む音声データと該音声データ
の発音タイミングを規定する再生テンポに依存したタイ
ミングデータとを含むソングデータにおける前記音節デ
ータを編集することができるコンピュータプログラムを
記録した媒体であって、 (a)音節データを特定する手順と、 (b)前記特定された音節データ中に含まれる複数の音
素データのうち子音に属する音素データを検出する手順
と、 (c)前記検出された音素データについてのデュレーシ
ョンデータを短縮変更する手順とをコンピュータに実行
させるためのプログラムを記録した媒体。
7. Timing dependent on a reproduction tempo that defines sound data including syllable data composed of a plurality of phoneme data whose generation time is defined by duration data that is independent of the reproduction tempo, and sound generation timing of the sound data. A medium for recording a computer program capable of editing the syllable data in song data including data; (a) a procedure for identifying syllable data; and (b) included in the identified syllable data. A medium recording a program for causing a computer to execute a procedure of detecting phoneme data belonging to a consonant among a plurality of phoneme data and (c) a procedure of shortening and changing duration data of the detected phoneme data.
【請求項8】 前記手順(b)は、子音に属する音素デ
ータでありかつ対応するデュレーションデータが所定値
以上である音素データを検出する手順であり、 前記手順(c)は前記デュレーションデータを所定値だ
け短縮変換する手順である請求項7記載のプログラムを
記録した媒体。
8. The step (b) is a step of detecting phoneme data which is phoneme data belonging to a consonant and the corresponding duration data of which is a predetermined value or more, and the step (c) is a step of detecting the duration data by a predetermined value. The medium on which the program according to claim 7 is recorded, which is a procedure for performing a shortening conversion by a value.
JP14852397A 1997-05-22 1997-05-22 Data editing device Expired - Fee Related JP3518253B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14852397A JP3518253B2 (en) 1997-05-22 1997-05-22 Data editing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14852397A JP3518253B2 (en) 1997-05-22 1997-05-22 Data editing device

Publications (2)

Publication Number Publication Date
JPH10319993A JPH10319993A (en) 1998-12-04
JP3518253B2 true JP3518253B2 (en) 2004-04-12

Family

ID=15454690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14852397A Expired - Fee Related JP3518253B2 (en) 1997-05-22 1997-05-22 Data editing device

Country Status (1)

Country Link
JP (1) JP3518253B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3879402B2 (en) 2000-12-28 2007-02-14 ヤマハ株式会社 Singing synthesis method and apparatus, and recording medium
JP2002221978A (en) * 2001-01-26 2002-08-09 Yamaha Corp Vocal data forming device, vocal data forming method and singing tone synthesizer
JP3963141B2 (en) * 2002-03-22 2007-08-22 ヤマハ株式会社 SINGLE SYNTHESIS DEVICE, SINGE SYNTHESIS PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING SINGE SYNTHESIS PROGRAM
GB2391143A (en) * 2002-04-17 2004-01-28 Rhetorical Systems Ltd Method and apparatus for scultping synthesized speech
JP4631726B2 (en) * 2006-01-30 2011-02-16 ヤマハ株式会社 Singing composition apparatus and recording medium
JP5657212B2 (en) * 2009-02-17 2015-01-21 株式会社河合楽器製作所 Thai editing device and program
JP6728755B2 (en) 2015-03-25 2020-07-22 ヤマハ株式会社 Singing sound generator
JP2023092120A (en) * 2021-12-21 2023-07-03 カシオ計算機株式会社 Consonant length changing device, electronic musical instrument, musical instrument system, method and program

Also Published As

Publication number Publication date
JPH10319993A (en) 1998-12-04

Similar Documents

Publication Publication Date Title
JP3144273B2 (en) Automatic singing device
JP2921428B2 (en) Karaoke equipment
JP2838977B2 (en) Karaoke equipment
JP2004170618A (en) Data conversion format of sequence data, speech reproducing device, and server device
CN111696498A (en) Keyboard musical instrument and computer-implemented method of keyboard musical instrument
JP3518253B2 (en) Data editing device
JP4038836B2 (en) Karaoke equipment
JP3405123B2 (en) Audio data processing device and medium recording data processing program
JP4026446B2 (en) SINGLE SYNTHESIS METHOD, SINGE SYNTHESIS DEVICE, AND SINGE SYNTHESIS PROGRAM
JP3233036B2 (en) Singing sound synthesizer
JP3409644B2 (en) Data editing device and medium recording data editing program
JP5106437B2 (en) Karaoke apparatus, control method therefor, and control program therefor
JP4821801B2 (en) Audio data processing apparatus and medium recording program
JP2022065554A (en) Method for synthesizing voice and program
JP3265995B2 (en) Singing voice synthesis apparatus and method
JP2002221978A (en) Vocal data forming device, vocal data forming method and singing tone synthesizer
JP3239706B2 (en) Singing voice synthesizer
JP7276292B2 (en) Electronic musical instrument, electronic musical instrument control method, and program
EP0396141A2 (en) System for and method of synthesizing singing in real time
JP4148755B2 (en) Audio data processing apparatus and medium on which data processing program is recorded
WO2022190502A1 (en) Sound generation device, control method therefor, program, and electronic musical instrument
JP3173310B2 (en) Harmony generator
JP2004061753A (en) Method and device for synthesizing singing voice
JPH1031496A (en) Musical sound generating device
JP4296767B2 (en) Breath sound synthesis method, breath sound synthesis apparatus and program

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040106

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040119

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080206

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090206

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090206

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100206

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110206

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120206

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees