JPH10319955A - Voice data processor and medium recording data processing program - Google Patents

Voice data processor and medium recording data processing program

Info

Publication number
JPH10319955A
JPH10319955A JP9148522A JP14852297A JPH10319955A JP H10319955 A JPH10319955 A JP H10319955A JP 9148522 A JP9148522 A JP 9148522A JP 14852297 A JP14852297 A JP 14852297A JP H10319955 A JPH10319955 A JP H10319955A
Authority
JP
Japan
Prior art keywords
data
note
character
event
character string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9148522A
Other languages
Japanese (ja)
Other versions
JP3405123B2 (en
Inventor
Ayumi Fukada
アユミ 深田
Shigehiko Mizuno
成彦 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP14852297A priority Critical patent/JP3405123B2/en
Publication of JPH10319955A publication Critical patent/JPH10319955A/en
Application granted granted Critical
Publication of JP3405123B2 publication Critical patent/JP3405123B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Electrophonic Musical Instruments (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it possible to process text data including KANA (Japanese syllabary), etc., by retrieving plural kinds of characters as the delimition data indicating the delimition of the character strings from the character strings included in text data, allocating the character strings delimited by the retrieved characters to the data of one note in note data to from voice data. SOLUTION: Import processing allocates the text data 52 to playing data 51 and forms note plus data 53. The playing data 51 has note events N1 to N8 corresponding to eight notes. The text data 52 is broken down to text events according to text delimition signals and is allocated to the respective note events N1 to N8. The note plus data 53 deletes KANJI (Chinese characters) by taking read KANA and rubies into consideration and leaves only the KANA corresponding thereto. Namely, the processing of the text data 52 including the KANA or KANJI, etc., is made possible and, therefore, the input or edition of the text data 52 is simple.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音声データ処理技
術に関し、特に音声発音装置に音声を発音させるための
音声データの処理技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a voice data processing technique, and more particularly to a voice data processing technique for causing a voice generating device to generate a voice.

【0002】[0002]

【従来の技術】音声発音装置に供給する音声データの処
理を行うことができる音声データ処理装置が知られてい
る。音声発音装置は、例えばフォルマント音源等の音声
合成回路を備えている。フォルマント音源は、音声を周
波数解析することにより形成されるフォルマントを合成
することにより音声信号を生成する。
2. Description of the Related Art There is known a voice data processing device capable of processing voice data supplied to a voice generating device. The speech sounding device includes a speech synthesis circuit such as a formant sound source. The formant sound source generates an audio signal by synthesizing a formant formed by frequency-analyzing the audio.

【0003】音節は、いわゆる50音のうちの1音等で
あり、例えば「か」である。音節は、時間軸上の音素列
に分解することができる。例えば、音節「か」は、音素
列「CL(7.5ms)+kha(4×7.5ms)+
aj(無限長)」に分解することができる。音素は、例
えば「CL」、「kha」、「aj」である。フォルマ
ント音源は、音素列を入力することにより音声信号を生
成する。
[0003] A syllable is one of the so-called 50 sounds, for example, "ka". Syllables can be broken down into phoneme sequences on the time axis. For example, the syllable “ka” is obtained by the phoneme sequence “CL (7.5 ms) + kha (4 × 7.5 ms) +
aj (infinite length) ". The phonemes are, for example, “CL”, “kha”, and “aj”. The formant sound source generates an audio signal by inputting a phoneme sequence.

【0004】従来技術による音声データ処理装置とし
て、特開平9−50287号公報や特開平9−4417
9号公報が知られている。これらは、メロディデータと
歌詞データをメモリに記憶し、両方のデータをメモリか
ら順次読み出し、フォルマント音源へ供給する。フォル
マント音源は、データを受けて歌声を発生する。
[0004] Japanese Patent Application Laid-Open Nos. 9-50287 and 9-4417 disclose conventional audio data processing devices.
No. 9 is known. These store melody data and lyrics data in a memory, sequentially read out both data from the memory, and supply them to a formant sound source. The formant sound source receives the data and generates a singing voice.

【0005】データ処理装置として、音節の編集を行う
ことができるワードプロセッサが知られている。しか
し、音素の編集を行うことができるデータ処理装置がな
いため、音声データはマニュアル設定を行っていた。
[0005] As a data processing device, a word processor capable of editing syllables is known. However, since there is no data processing device capable of editing phonemes, voice data has been manually set.

【0006】[0006]

【発明が解決しようとする課題】特開平9−50287
号公報のデータ処理装置は、歌詞データをローマ字表記
で入力する必要があり、仮名又は漢字等を使うことがで
きないため、歌詞データの入力又は編集が不便である。
例えば、仮名又は漢字が混在した既存の歌詞データを使
用することができない。
Problems to be Solved by the Invention Japanese Patent Laid-Open No. 9-50287
In the data processor of the publication, it is necessary to input the lyrics data in Roman alphabet notation, and cannot use kana or kanji, so that input or editing of the lyrics data is inconvenient.
For example, it is not possible to use existing lyrics data in which kana or kanji are mixed.

【0007】また、各音符に歌詞データを割り当てるた
め、歌詞データ中に音符の区切り(歌詞区切り)記号を
設ける必要があるが、歌詞区切りは1つの記号(例えば
スペース「_」)のみに限定されている。そのため、改
行マーク(歌詞表示画面上において改行をする位置を示
すマーク)と副改行マーク(通常は利用されないが、表
示スペースが小さい等の表示器の都合により前記改行マ
ークまでの歌詞が1行に入りきらない場合に、改行マー
クよりも前で改行する位置を示すマーク)の2種類の改
行マークが含まれているカラオケ用の歌詞データにおい
て、改行マークのみを歌詞区切りとして用いることは可
能であっても、改行マークと副改行マークの両方を歌詞
区切りとして用いることはできない。
Also, in order to assign lyrics data to each note, it is necessary to provide a note delimiter (lyric delimiter) symbol in the lyrics data, but the lyrics delimiter is limited to only one symbol (for example, space "_"). ing. Therefore, a line feed mark (a mark indicating the position of a line feed on the lyrics display screen) and a sub-line feed mark (usually not used, but the lyrics up to the line feed mark are displayed on one line due to the display device such as a small display space. In the case of karaoke lyrics data including two types of line feed marks (a mark indicating the position of a line feed before the line feed mark when the line feed is not possible), it is possible to use only the line feed mark as a lyrics delimiter. However, both the line feed mark and the sub-line feed mark cannot be used as lyrics delimiters.

【0008】さらに、歌詞データ等は、独自のデータフ
ォーマットを有しており、歌詞データの再生装置として
専用の装置が必要となり、一般的なシーケンサ等での再
生ができない。
Further, the lyrics data and the like have a unique data format, and a dedicated device is required as a playback device for the lyrics data, and cannot be reproduced by a general sequencer or the like.

【0009】本発明の目的は、仮名等を含むテキストデ
ータを処理することができる音声データ処理装置又はコ
ンピュータプログラムの記録媒体を提供することであ
る。
An object of the present invention is to provide a voice data processing device or a computer program recording medium capable of processing text data including kana and the like.

【0010】本発明の他の目的は、音声データの編集を
容易に行うことができる音声データ処理装置又はコンピ
ュータプログラムの記録媒体を提供することである。
Another object of the present invention is to provide an audio data processing device or a recording medium for a computer program which can easily edit audio data.

【0011】本発明の他の目的は、汎用性のある音声デ
ータを処理することができる音声データ処理装置又はコ
ンピュータプログラムの記録媒体を提供することであ
る。
It is another object of the present invention to provide an audio data processing device or a computer program recording medium capable of processing general-purpose audio data.

【0012】[0012]

【課題を解決するための手段】本発明の一観点によれ
ば、文字列を含むテキストデータと、音符単位のデータ
を含むノートデータとを記憶する記憶手段と、複数種類
の文字を、文字列の区切りを示す区切りデータとして、
前記テキストデータ中に含まれる文字列の中から検索
し、該検索された文字で区切られる文字列を、前記ノー
トデータ中の1音符のデータに割り当てて音声データを
生成する生成手段とを有する音声データ処理装置が提供
される。
According to one aspect of the present invention, storage means for storing text data including a character string and note data including data in note units, and storing a plurality of types of characters in a character string As delimiter data indicating the delimiter of
Generating means for searching a character string included in the text data and assigning a character string delimited by the searched character to data of one note in the note data to generate audio data; A data processing device is provided.

【0013】本発明の他の観点によれば、文字列を含む
テキストデータと、音符単位のデータを含むノートデー
タとを記憶する記憶手段と、複数種類の文字を、呼気記
号として、前記テキストデータ中に含まれる文字列の中
から検索し、該検索された文字で区切られる文字列に呼
気マークを付加し、前記ノートデータ中の1音符のデー
タに割り当てて音声データを生成する生成手段とを有す
る音声データ処理装置。が提供される。
According to another aspect of the present invention, a storage means for storing text data including a character string and note data including data in units of notes, and a plurality of types of characters as exhalation symbols, Generating means for searching from among character strings included therein, adding an exhalation mark to a character string delimited by the searched character, and assigning it to data of one note in the note data to generate voice data. Data processing device having the same. Is provided.

【0014】本発明の他の観点によれば、非仮名とその
読み仮名又はルビが対になったデータを含むテキストデ
ータと音符単位のデータを含むノートデータとを記憶す
る記憶手段と、前記テキストデータ中の非仮名を破棄し
てその読み仮名又はルビのみを前記ノートデータ中の音
符のデータに割り当てて音声データを生成する生成手段
とを有する音声データ処理装置が提供される。
According to another aspect of the present invention, storage means for storing text data including data in which a non-kana and its reading kana or ruby are paired, and note data including data in note units, There is provided an audio data processing apparatus having a generating unit for generating audio data by discarding non-kana in data and assigning only the reading kana or ruby to note data in the note data.

【0015】本発明の他の観点によれば、テキストデー
タとノートデータとが組になった音声データを記憶する
記憶手段と、前記テキストデータとノートデータとの組
み合わせを変更して書き込みを行う変更手段とを有する
音声データ処理装置が提供される。
According to another aspect of the present invention, a storage means for storing audio data in which text data and note data are paired, and a change for writing by changing the combination of the text data and note data And an audio data processing device having means.

【0016】本発明の他の観点によれば、複数の文字か
らなる文字列を含むテキストデータと音符単位のデータ
を含むノートデータを記憶する記憶手段と、前記テキス
トデータ中の1文字を前記ノートデータ中の1音符のデ
ータに割り当てて音声データを生成する生成手段とを有
する音声データ処理装置が提供される。
According to another aspect of the present invention, storage means for storing text data including a character string composed of a plurality of characters and note data including data in note units, and storing one character in the text data in the note Generating means for generating audio data by allocating the data to one note in the data.

【0017】本発明の他の観点によれば、第1の文字列
データと第1のノートデータとが組になった第1のデー
タとそれに続く第2の文字列データと第2のノートデー
タとが組になった第2のデータを記憶する記憶手段と、
前記第1の文字列データ中の分割位置を指定する指定手
段と、前記第1の文字列データを前記分割位置で2つに
分割し、後部の文字列データを前記第2の文字列データ
に併合する処理手段とを有する音声データ処理装置が提
供される。
According to another aspect of the present invention, first data in which first character string data and first note data are paired, followed by second character string data and second note data Storage means for storing a second set of data,
Designating means for designating a division position in the first character string data; and dividing the first character string data into two at the division position, and converting the rear character string data into the second character string data. An audio data processing device having a merging processing means is provided.

【0018】本発明の他の観点によれば、文字データと
ノートデータとが組になった音声データを記憶する記憶
手段と、前記文字データが漢字、英数字又は記号である
ときには該文字データを発音するための仮名の候補を提
示する提示手段と、前記仮名の候補の中から1つの仮名
を指定し、前記文字データを該仮名に変更して前記記憶
手段に記憶させる変更手段とを有する音声データ処理装
置が提供される。
According to another aspect of the present invention, a storage means for storing voice data in which character data and note data are paired, and when the character data is a kanji, an alphanumeric character or a symbol, the character data is stored. Speech having presentation means for presenting kana candidates for pronunciation and changing means for designating one kana from the kana candidates, changing the character data to the kana, and storing the data in the storage means. A data processing device is provided.

【0019】本発明の他の観点によれば、歌詞データと
ノートデータとが組になった形式の音声データを記憶す
る記憶手段と、ノートデータの微小タイミング前に該ノ
ートデータと組になった歌詞データが位置するように、
前記音声データを変換して、歌詞データとノートデータ
とが独立した形式の音声データとして記録する記録手段
とを有する音声データ処理装置が提供される。
According to another aspect of the present invention, a storage means for storing voice data in a form in which lyric data and note data are paired, and a pair with the note data a minute before the note data. So that the lyrics data is located
There is provided an audio data processing apparatus having recording means for converting the audio data and recording the lyrics data and the note data as audio data in an independent format.

【0020】本発明の他の観点によれば、歌詞データと
ノートデータとが独立した形式の音声データであって、
ノートデータの微小タイミング前に該ノートデータと組
になった歌詞データが位置する音声データを記憶する記
憶手段と、前記音声データを記憶手段から読み出して、
前記歌詞データとノートデータとを組にした形式の音声
データを生成する生成手段とを有する音声データ処理装
置が提供される。
According to another aspect of the present invention, the lyrics data and the note data are audio data in independent formats,
Storage means for storing audio data in which the lyrics data paired with the note data is located before the minute timing of the note data, reading the audio data from the storage means,
There is provided an audio data processing apparatus having a generation unit for generating audio data in a format in which the lyrics data and the note data are combined.

【0021】[0021]

【発明の実施の形態】図1は、パーソナルコンピュータ
1と外部音源装置21との接続を示す図である。パーソ
ナルコンピュータ1は、本実施例による音声データ処理
装置を含む。パーソナルコンピュータ1は、シーケンサ
でもよい。
FIG. 1 is a diagram showing a connection between a personal computer 1 and an external tone generator 21. As shown in FIG. The personal computer 1 includes the audio data processing device according to the present embodiment. The personal computer 1 may be a sequencer.

【0022】まず、外部音源装置21の構成を説明す
る。検出回路33は、スイッチ34の操作を検出し、ス
イッチ信号を生成する。スイッチ34は、例えば各種パ
ラメータを設定するためのスイッチを含む。
First, the configuration of the external sound source device 21 will be described. The detection circuit 33 detects an operation of the switch 34 and generates a switch signal. The switch 34 includes, for example, a switch for setting various parameters.

【0023】バス22には、検出回路33の他、RAM
24、ROM25、CPU26、表示回路28、MID
Iインターフェース23、音声合成回路32、楽音波形
合成回路29が接続される。
The bus 22 includes a detection circuit 33 and a RAM
24, ROM 25, CPU 26, display circuit 28, MID
The I interface 23, the voice synthesis circuit 32, and the musical tone waveform synthesis circuit 29 are connected.

【0024】ROM25は、音声を合成するためのフォ
ルマントデータ、その他の各種データ及びコンピュータ
プログラムを記憶する。RAM24は、フラグ、バッフ
ァ等を記憶する。コンピュータプログラムは、ROM2
5に記憶させる代わりに、RAM24に記憶させてもよ
い。CPU26は、ROM25又はRAM24に記憶さ
れているコンピュータプログラムに従い、演算または制
御を行う。
The ROM 25 stores formant data for synthesizing speech, various other data, and computer programs. The RAM 24 stores flags, buffers, and the like. The computer program is ROM2
5 may be stored in the RAM 24. The CPU 26 performs calculation or control according to a computer program stored in the ROM 25 or the RAM 24.

【0025】CPU26は、MIDIインターフェース
23を介してパーソナルコンピュータ1から受信した演
奏データに基づいて楽音パラメータを生成し、楽音波形
合成回路29に供給する。楽音波形合成回路29は、供
給される楽音パラメータに応じて楽音信号を生成し、サ
ウンドシステム31に供給する。サウンドシステム31
は、D/A変換器およびスピーカを含み、供給されるデ
ジタル形式の楽音信号をアナログ形式に変換し、発音す
る。
The CPU 26 generates musical tone parameters based on performance data received from the personal computer 1 via the MIDI interface 23 and supplies the musical tone parameters to the musical tone waveform synthesis circuit 29. The musical sound waveform synthesis circuit 29 generates a musical sound signal according to the supplied musical sound parameter, and supplies it to the sound system 31. Sound system 31
Includes a D / A converter and a speaker, converts a supplied digital tone signal into an analog format, and generates a sound.

【0026】なお、楽音波形合成回路29は、波形メモ
リ方式、FM方式、物理モデル方式、高調波合成方式、
フォルマント合成方式、VCO+VCF+VCAのアナ
ログシンセサイザ方式等、どのような方式であってもよ
い。
The tone waveform synthesizer 29 includes a waveform memory system, an FM system, a physical model system, a harmonic synthesis system,
Any method such as a formant synthesis method or an analog synthesizer method of VCO + VCF + VCA may be used.

【0027】MIDIインターフェース23は、パーソ
ナルコンピュータ1のMIDIインターフェース8にM
IDIケーブルで接続される。外部音源装置21とパー
ソナルコンピュータ1は、MIDI通信を行うことがで
きる。
The MIDI interface 23 is connected to the MIDI interface 8 of the personal computer 1 by M.
Connected by IDI cable. The external sound source device 21 and the personal computer 1 can perform MIDI communication.

【0028】CPU26は、MIDIインターフェース
23を介して、パーソナルコンピュータ1から音声デー
タを受け取り、RAM24に格納する。音声データは、
ノート(音符)データと歌詞データを含む。
The CPU 26 receives audio data from the personal computer 1 via the MIDI interface 23 and stores it in the RAM 24. The audio data is
Includes note data and lyrics data.

【0029】CPU26は、RAM24に記憶されてい
る音声データを読み出し、ROM25に記憶されている
フォルマントデータ等に基づき、フォルマントデータや
ノートナンバ(音高)等を音声合成回路32に供給す
る。フォルマントデータは、例えばフォルマント中心周
波数データ、フォルマントバンド幅データ、フォルマン
トレベルデータ等である。
The CPU 26 reads out audio data stored in the RAM 24 and supplies formant data, note number (pitch) and the like to the audio synthesizing circuit 32 based on the formant data and the like stored in the ROM 25. The formant data is, for example, formant center frequency data, formant bandwidth data, formant level data, and the like.

【0030】音声合成回路32は、供給されるフォルマ
ントデータ等に応じて音声信号を生成する。音声信号
は、所定の音高を有し、歌声に相当する。音声合成回路
32は、フォルマント合成方式(フォルマント音源)で
もよいし、その他の方式でもよい。なお、音声合成回路
32の方式がフォルマント合成方式以外の場合は、供給
するデータもフォルマントデータではなく、その音声合
成方式に特有のデータとなる。
The voice synthesizing circuit 32 generates a voice signal according to the supplied formant data and the like. The audio signal has a predetermined pitch and corresponds to a singing voice. The voice synthesis circuit 32 may use a formant synthesis method (formant sound source) or another method. If the method of the voice synthesis circuit 32 is other than the formant synthesis method, the data to be supplied is not formant data but data specific to the voice synthesis method.

【0031】音声合成回路32がフォルマント音源であ
る場合を説明する。音声合成回路32には、音声データ
に応じて生成されたフォルマントデータ等が入力され
る。フォルマントデータは、フォルマント中心周波数デ
ータ、フォルマントレベルデータ、フォルマント帯域幅
データ等を含む。
The case where the speech synthesis circuit 32 is a formant sound source will be described. The formant data and the like generated according to the sound data are input to the sound synthesis circuit 32. The formant data includes formant center frequency data, formant level data, formant bandwidth data, and the like.

【0032】音声合成回路32は、有声音合成グループ
VTGと無声音合成グループUTGを有する。有声音グ
ループVTGは、フォルマントデータ等に応じて、第1
〜4の有声音フォルマントをそれぞれ形成するための有
声音合成部V1、V2、V3、V4を有する。無声音合
成グループUTGは、フォルマントデータ等に応じて、
第1〜4の無声音フォルマントをそれぞれ形成するため
の無声音合成部U1、U2、U3、U4を有する。
The voice synthesis circuit 32 has a voiced voice synthesis group VTG and an unvoiced voice synthesis group UTG. The voiced sound group VTG has a first group according to the formant data or the like.
To 4 voiced sound formants V1, V2, V3, and V4, respectively. The unvoiced sound synthesis group UTG, according to the formant data,
It has unvoiced sound synthesizers U1, U2, U3, and U4 for forming first to fourth unvoiced sound formants, respectively.

【0033】第1フォルマント生成ユニットTG1は第
1フォルマントを形成するための有声音合成部V1と無
声音合成部U1を有し、第2フォルマント生成ユニット
TG2は第2フォルマントを形成するための有声音合成
部V2と無声音合成部U2を有し、第3フォルマント生
成ユニットTG3は第3フォルマントを形成するための
有声音合成部V3と無声音合成部U3を有し、第4フォ
ルマント生成ユニットTG4は第4フォルマントを形成
するための有声音合成部V4と無声音合成部U4を有す
る。
The first formant generation unit TG1 has a voiced sound synthesis unit V1 and an unvoiced sound synthesis unit U1 for forming a first formant, and the second formant generation unit TG2 has a voiced sound synthesis for forming a second formant. The third formant generation unit TG3 includes a voiced sound synthesis unit V3 and an unvoiced sound synthesis unit U3 for forming a third formant, and the fourth formant generation unit TG4 includes a fourth formant generation unit TG4. Has a voiced sound synthesizer V4 and an unvoiced sound synthesizer U4.

【0034】合成部V1〜V4,U1〜U4は、それぞ
れ生成したフォルマントに対応する音声信号を出力す
る。それらの音声信号は加算され、サウンドシステム3
1に供給される。サウンドシステム31は、供給される
デジタル形式の音声信号をアナログ形式に変換し、発音
する。
The synthesizing units V1 to V4 and U1 to U4 output audio signals corresponding to the generated formants. These audio signals are added, and the sound system 3
1 is supplied. The sound system 31 converts the supplied digital audio signal into an analog audio signal and emits the sound.

【0035】フォルマント音源のより具体的な構成は、
例えば特開平3−200299号公報の第1図に示され
ている。
A more specific configuration of the formant sound source is as follows.
For example, it is shown in FIG. 1 of JP-A-3-200299.

【0036】なお、音声合成回路32は、4系統のフォ
ルマント生成ユニットTG1〜TG4を有する場合に限
定されない。それ以上又はそれ以下の系統のフォルマン
ト生成ユニットを有するものでもよい。
The voice synthesizing circuit 32 is not limited to having four formant generation units TG1 to TG4. It may have more or less systems of formant generation units.

【0037】破裂音等の特殊な音は、専用のユニットを
設けるようにしてもよい。また、発音チャンネルを複数
用意し、2声以上の歌唱を発生させることができるよう
にしてもよい。この場合、1つの回路を時分割で使用す
ることによって複数の発音チャンネルを形成するような
ものでもよいし、1つの発音チャンネルが1つの回路で
構成されるような形式のものであってもよい。
For a special sound such as a popping sound, a dedicated unit may be provided. Alternatively, a plurality of pronunciation channels may be prepared so that a singing of two or more voices can be generated. In this case, a plurality of tone generation channels may be formed by using one circuit in a time-division manner, or a type in which one tone generation channel is constituted by one circuit may be used. .

【0038】音声合成回路32と楽音波形合成回路29
は、専用のハードウエアを用いて構成するものに限ら
ず、DSP+マイクロプログラムを用いて構成してもよ
いし、CPU+ソフトウェアのプログラムで構成するよ
うにしてもよい。
Speech synthesis circuit 32 and tone wave synthesis circuit 29
Is not limited to a configuration using dedicated hardware, but may be configured using a DSP + microprogram, or may be configured using a CPU + software program.

【0039】次に、パーソナルコンピュータ1の構成を
説明する。検出回路11は、キーボード12上のキー
(数字キーや文字キー等)入力を検出し、キー信号を生
成する。検出回路9は、マウス10の移動操作やスイッ
チ(右ボタン、左ボタン等)操作を検出し、マウス信号
を生成する。操作者は、マウス10又はキーボード12
を用いて、音声データの編集を行うことができる。
Next, the configuration of the personal computer 1 will be described. The detection circuit 11 detects an input of a key (numerical key, character key, or the like) on the keyboard 12 and generates a key signal. The detection circuit 9 detects a moving operation of the mouse 10 and an operation of a switch (right button, left button, etc.) and generates a mouse signal. The operator can use the mouse 10 or the keyboard 12
Can be used to edit audio data.

【0040】表示回路7には、音声データ等を編集する
ための編集画面を表示することができる。操作者は、表
示回路7上の編集画面を参照しながら音声データの編集
を行うことができる。
The display circuit 7 can display an editing screen for editing audio data and the like. The operator can edit the audio data while referring to the editing screen on the display circuit 7.

【0041】バス2には、検出回路11、検出回路9及
び表示回路7の他、MIDIインターフェース8、RA
M3、ROM4、CPU5、外部記憶装置13、通信イ
ンターフェース14が接続される。
The bus 2 includes a detection circuit 11, a detection circuit 9, a display circuit 7, a MIDI interface 8, an RA
M3, ROM 4, CPU 5, external storage device 13, and communication interface 14 are connected.

【0042】ROM4は、各種パラメータ及びコンピュ
ータプログラムを記憶する。RAM3は、フラグ、バッ
ファ、演奏データ、音声データ等を記憶する。また、R
AM3は、外部記憶装置13、又は通信インターフェー
ス14を介して外部から供給されたコンピュータプログ
ラムや演奏データ、音声データ等を記憶することもでき
る。CPU5は、RAM3又はROM4に記憶されてい
るコンピュータプログラムに従い、音声データの編集又
は処理等のための演算または制御を行う。
The ROM 4 stores various parameters and computer programs. The RAM 3 stores flags, buffers, performance data, audio data, and the like. Also, R
The AM 3 can also store computer programs, performance data, audio data, and the like supplied from the outside via the external storage device 13 or the communication interface 14. The CPU 5 performs calculations or controls for editing or processing audio data in accordance with a computer program stored in the RAM 3 or the ROM 4.

【0043】タイマ6は、CPU5に時間情報を供給す
る。CPU5は、当該時間情報に応じて、所定時間間隔
で割り込み処理を行うことができる。
The timer 6 supplies time information to the CPU 5. The CPU 5 can perform an interrupt process at predetermined time intervals according to the time information.

【0044】MIDIインターフェース8は、上記のよ
うに、外部音源装置21のMIDIインターフェース2
3にMIDIケーブルで接続される。パーソナルコンピ
ュータ1は、MIDIインターフェース8を介して、演
奏データや音声データを外部音源装置21に送信するこ
とができる。
As described above, the MIDI interface 8 is connected to the MIDI interface 2 of the external tone generator 21.
3 is connected by a MIDI cable. The personal computer 1 can transmit performance data and audio data to the external sound source device 21 via the MIDI interface 8.

【0045】通信インターフェース14は、ローカルエ
リアネットワーク(LAN)、インターネット、電話回
線等の通信ネットワーク41に接続される。通信ネット
ワーク41には、サーバコンピュータ42が接続されて
いる。パーソナルコンピュータ1は、通信ネットワーク
41を介して、サーバコンピュータ42から音声データ
又はコンピュータプログラムを受信することができる。
The communication interface 14 is connected to a communication network 41 such as a local area network (LAN), the Internet, and a telephone line. A server computer 42 is connected to the communication network 41. The personal computer 1 can receive voice data or a computer program from the server computer 42 via the communication network 41.

【0046】外部記憶装置13は、外部記憶装置用のイ
ンターフェースを含み、そのインターフェースを介して
バス2に接続される。外部記憶装置13は、例えばフロ
ッピディスクドライブ(FDD)、ハードディスクドラ
イブ(HDD)、光磁気ディスク(MO)ドライブ、C
D−ROM(コンパクトディスク−リードオンリィメモ
リ)ドライブ、デジタル多目的ディスク(DVD)装置
等である。演奏データや音声データは、外部記憶装置1
3又はRAM3に記憶される。
The external storage device 13 includes an interface for the external storage device, and is connected to the bus 2 via the interface. The external storage device 13 includes, for example, a floppy disk drive (FDD), a hard disk drive (HDD), a magneto-optical disk (MO) drive,
D-ROM (compact disk-read only memory) drive, digital versatile disk (DVD) device, and the like. Performance data and audio data are stored in the external storage device 1
3 or the RAM 3.

【0047】コンピュータプログラム等をROM4に記
憶させずに、外部記憶装置13(例えばハードディス
ク)に記憶させることもできる。ハードディスクからR
AM3にコンピュータプログラム等を読み出すことによ
り、ROM4にコンピュータプログラム等を記憶させて
いる場合と同様の動作をCPU5にさせることができ
る。このようにすると、CD−ROM等の他の外部記憶
媒体からハードディスクにコンピュータプログラム等を
コピーすることでコンピュータプログラム等の追加やバ
ージョンアップ等が容易に行える。
The computer program or the like may be stored in the external storage device 13 (for example, a hard disk) without being stored in the ROM 4. R from hard disk
By reading a computer program or the like into the AM 3, the CPU 5 can cause the CPU 5 to perform the same operation as when the computer program or the like is stored in the ROM 4. By doing so, the computer program or the like can be easily added or upgraded by copying the computer program or the like from another external storage medium such as a CD-ROM to the hard disk.

【0048】通信インターフェース14は、ローカルエ
リアネットワーク(LAN)やインターネット、電話回
線等の通信ネットワーク41に接続されており、該通信
ネットワーク41を介して、サーバコンピュータ42と
接続される。外部記憶装置13内にコンピュータプログ
ラム等が記憶されていない場合、サーバコンピュータ4
2からコンピュータプログラム等をダウンロードするこ
とができる。クライアントとなるパーソナルコンピュー
タ1は、通信インターフェース14及び通信ネットワー
ク41を介してサーバコンピュータ42へとコンピュー
タプログラム等のダウンロードを要求するコマンドを送
信する。サーバコンピュータ42は、このコマンドを受
け、要求されたコンピュータプログラム等を、通信ネッ
トワーク41を介してパーソナルコンピュータ1へと配
信し、パーソナルコンピュータ1が通信インターフェー
ス14を介して、これらコンピュータプログラム等を受
信して外部記憶装置13内に蓄積することにより、ダウ
ンロードが完了する。
The communication interface 14 is connected to a communication network 41 such as a local area network (LAN), the Internet, or a telephone line, and is connected to a server computer 42 via the communication network 41. If no computer program or the like is stored in the external storage device 13, the server computer 4
2 can download a computer program or the like. The personal computer 1 serving as a client transmits a command for requesting download of a computer program or the like to the server computer 42 via the communication interface 14 and the communication network 41. The server computer 42 receives the command, distributes the requested computer program and the like to the personal computer 1 via the communication network 41, and the personal computer 1 receives the computer program and the like via the communication interface 14. Thus, the data is stored in the external storage device 13 to complete the download.

【0049】パーソナルコンピュータ1は、RAM3に
記憶している演奏データや音声データを、所定のテンポ
にしたがって再生し、再生した演奏データや音声データ
をMIDIインターフェース8を介して外部音源装置2
1へと送信する。外部音源装置21は、送信されてきた
演奏データや音声データをMIDIインターフェース2
3を介して受信し、受信した演奏データを楽音波形合成
回路29へ供給することにより伴奏楽音信号を形成する
とともに、受信した音声データを音声合成回路32へ供
給することにより歌唱信号を形成する。すなわち、パー
ソナルコンピュータ1と外部音源装置21により、伴奏
楽音を伴った歌唱を生成するシステムが構成される。
The personal computer 1 reproduces the performance data and audio data stored in the RAM 3 according to a predetermined tempo, and transmits the reproduced performance data and audio data to the external tone generator 2 via the MIDI interface 8.
Send to 1. The external sound source device 21 transmits the transmitted performance data and audio data to the MIDI interface 2.
3 and supplies the received performance data to the musical tone waveform synthesis circuit 29 to form an accompaniment musical tone signal, and supplies the received voice data to the voice synthesis circuit 32 to form a singing signal. That is, the personal computer 1 and the external sound source device 21 constitute a system for generating a singing accompanied by accompaniment music.

【0050】次に、音声データ処理装置(パーソナルコ
ンピュータ1)が行う処理を説明する。
Next, the processing performed by the audio data processing device (personal computer 1) will be described.

【0051】図2は、インポート処理を示す図である。
インポート処理は、演奏データ51にテキストデータ
(歌詞データ)52を割り当て、ノートプラスデータ5
3を生成する処理である。本明細書では、演奏データ5
1、テキストデータ52、ノートプラスデータ53のい
ずれをも音声データという。
FIG. 2 is a diagram showing the import process.
In the import processing, text data (lyrics data) 52 is assigned to the performance data 51, and the note plus data 5
3 is a process of generating the C.3. In this specification, the performance data 5
1, all of the text data 52 and the note plus data 53 are called audio data.

【0052】演奏データ51は、例えば、8つのノート
(音符)に対応するノートイベントN1〜N8を有す
る。ノートイベントN1〜N8の各々は、例えばノート
オンタイミングデータ、ノートナンバ(音高)、ベロシ
ティ(音量)、ゲートタイム(ノートオンからノートオ
フまでの時間)を含む。
The performance data 51 has, for example, note events N1 to N8 corresponding to eight notes (notes). Each of the note events N1 to N8 includes, for example, note-on timing data, note number (pitch), velocity (volume), and gate time (time from note-on to note-off).

【0053】テキストデータ52は、例えば「赤(あ
か)_い/夕日〔ゆう!ひ〕_が¥」である。ここで、
()内は読み仮名を示し、〔〕内はルビを示し、「_,
!」等は歌詞区切り記号を示し、「/,¥」等は呼気記
号を示す。
The text data 52 is, for example, “red (red) _i / sunset [yu! Hi] _ is ¥”. here,
() Indicates reading kana, [] indicates ruby, and “_,
! "And the like indicate lyrics separators, and" /, ¥ "and the like indicate breath symbols.

【0054】呼気記号は、息継ぎを示す記号である。呼
気記号があるときは、その前の歌詞データはゲートタイ
ムだけ発音され、その後、無音状態になる。呼気記号が
ないときには、ある歌詞データとその次の歌詞データと
が滑らかにつながるように発音される。すなわち、ゲー
ムタイムが無視される。
The exhalation symbol is a symbol indicating breathing. When there is an exhalation symbol, the preceding lyrics data is pronounced only for the gate time, and thereafter, it is in a silent state. When there is no exhalation symbol, a certain lyric data and the next lyric data are pronounced so as to be smoothly connected. That is, the game time is ignored.

【0055】歌詞区切り記号は、1つの音符(ノートイ
ベント)に対応する歌詞データ(第1の歌詞イベント)
とその次の音符に対応する歌詞データ(第2の歌詞イベ
ント)の間に挿入される。歌詞データ52は、歌詞区切
り記号に従い、歌詞イベントに分解され、各ノートイベ
ントN1〜N8に割り当てられる。例えば、「N1,あ
か」、「N2,い▽」、「N3,ゆう」、「N4,
ひ」、「N5,が▽」のように割り当てられる。ここ
で、「▽」は、呼気記号「/,¥」に対応する呼気デー
タであり、息継ぎを示すとともに、「N2,い▽」の例
でも判るとおり、歌詞区切りの役割も果たしている。こ
のノートイベントと歌詞(文字列)イベントあるいは音
素列イベント(音素列イベントについては後述)の組を
ノートプラスイベント(ノートに対して歌詞イベントが
プラスされたイベント)と呼ぶ。ノートプラスデータ5
3は、ノートプラスイベントの集まりである。
The lyrics separator is lyrics data (first lyrics event) corresponding to one note (note event).
And the lyrics data (second lyrics event) corresponding to the next note. The lyric data 52 is decomposed into lyric events according to the lyric delimiters, and is assigned to each of the note events N1 to N8. For example, “N1, red”, “N2, ▽”, “N3, Yu”, “N4,
"N" and "N5 is ▽". Here, “▽” is exhalation data corresponding to the exhalation symbol “/, ¥”, indicates breathing, and also plays a role of lyrics separation as can be seen from the example of “N2, ▽”. A set of the note event and a lyric (character string) event or a phoneme string event (a phoneme string event will be described later) is called a note plus event (an event in which a lyric event is added to a note). Note Plus Data 5
3 is a group of note plus events.

【0056】ノートプラスデータ53は、読み仮名及び
ルビを考慮し、漢字を削除してそれに対応する仮名のみ
を残す。読み仮名記号「()」があるときには、()の
前の漢字「赤」及び読み仮名記号「()」を削除し
て()内の仮名「かな」を残す。ルビ記号「〔〕」の場
合も同様である。
In the note plus data 53, in consideration of the reading kana and ruby, the kanji is deleted and only the corresponding kana is left. When there is a reading kana symbol "()", the kanji "red" and the reading kana symbol "()" before () are deleted, and the kana "kana" in () is left. The same applies to the case of the ruby symbol “[]”.

【0057】ノートプラスデータ53中の仮名は、音素
列に変換される。例えば、仮名「か」は、音素列「CL
(7.5ms)+kha(4×7.5ms)+aj(無
限長)」に変換される。「か」等の音節は、時間軸上の
音素列に分解することができる。音素は、例えば「C
L」、「kha」、「aj」である。
The kana in the note plus data 53 is converted into a phoneme string. For example, the pseudonym “ka” is replaced by the phoneme string “CL
(7.5 ms) + kha (4 × 7.5 ms) + aj (infinite length) ”. Syllables such as "ka" can be decomposed into phoneme strings on the time axis. The phoneme is, for example, "C
L "," kha ", and" aj ".

【0058】パーソナルコンピュータ1は、仮名と音素
列との間で変換を行うためのテーブルを記憶している。
このテーブルを使い、仮名から音素列への変換を行うこ
とができる。しかし、漢字や記号や英数字等から音素列
への変換を行うことはできない。なぜなら、漢字や記号
や英数字等は、読み方が複数通り存在する可能性がある
からである。
The personal computer 1 stores a table for converting between a pseudonym and a phoneme sequence.
Using this table, conversion from kana to phoneme strings can be performed. However, conversion from kanji, symbols, alphanumeric characters, and the like to phoneme strings cannot be performed. This is because kanji, symbols, alphanumeric characters, and the like may have multiple ways of reading.

【0059】仮名は音素列へ変換され、漢字や記号等は
そのまま残される。パーソナルコンピュータ1は、漢字
等から仮名へ変換を行うための辞書を記憶している。こ
の辞書を用いて、漢字等を仮名に変換し、さらにその仮
名を音素列に変換することができる。パーソナルコンピ
ュータ1は、音素列等を外部音源装置21(図1)に供
給する。外部音源装置21は、音素列等を受けて、音声
を発音する。
The kana is converted into a phoneme string, and kanji and symbols are left as they are. The personal computer 1 stores a dictionary for converting kanji and the like to kana. Using this dictionary, kanji and the like can be converted into kana, and the kana can be converted into phoneme strings. The personal computer 1 supplies a phoneme string or the like to the external sound source device 21 (FIG. 1). The external sound source device 21 receives a phoneme string or the like and generates a sound.

【0060】パーソナルコンピュータ1は、歌詞データ
としてテキストデータを使用することができる。例えば
カラオケ用のテキストデータ等、既存のテキストデータ
を使用することができる。
The personal computer 1 can use text data as lyrics data. For example, existing text data such as text data for karaoke can be used.

【0061】また、歌詞区切り記号は「_,!」等であ
り、呼気記号は「/,¥」等であり、いずれも複数種類
設定することができる。例えば、カラオケ用のテキスト
データを使用する場合、改行マークと副改行マークの両
方を歌詞区切り記号とし、改ページマークを呼気記号と
して設定することができる。歌詞区切り記号を複数種類
設定することができるので、改行マークと副改行マーク
の両方を歌詞区切り記号として使用することができる。
The lyrics delimiter is "_ ,!" and the like, and the exhalation symbol is "/, $" and the like. For example, when karaoke text data is used, both a line feed mark and a sub line feed mark can be set as lyrics delimiters, and a page break mark can be set as a breath mark. Since a plurality of types of lyrics delimiters can be set, both a line feed mark and a sub-line feed mark can be used as lyrics delimiters.

【0062】改行マークは、歌詞を画面に表示する際
に、歌詞の1行分の区切りを示すマークである。副改行
マークは、小さい画面に表示する際にのみ用いる改行の
ためのマークである。すなわち、通常画面では改行マー
クのみで改行を行い、小画面では改行マークと副改行マ
ークの両方で改行を行う。例えば、改行マークとして
「_」を使用し、副改行マークとして「!」を使用する
ことができる。なお、歌詞区切り記号や呼気記号は、改
行マークや福改行マークのように本来は他の用途に用い
るために挿入された記号をこれら歌詞区切り記号や呼気
記号として流用する場合に限らず、ユーザが任意に設定
し挿入した記号を、歌詞区切り記号や呼気記号としても
よい。
The line break mark is a mark indicating a line break of the lyrics when the lyrics are displayed on the screen. The sub-line feed mark is a mark for line feed used only when displaying on a small screen. That is, a line break is performed only with a line break mark on a normal screen, and a line break is performed with both a line break mark and a sub-line break mark on a small screen. For example, “_” can be used as a line feed mark, and “!” Can be used as a sub line feed mark. The lyrics delimiter and exhalation symbol are not limited to the case where a symbol inserted for use for another purpose, such as a line feed mark or a line break mark, is originally used as the lyrics delimiter or exhalation symbol. The symbol set and inserted arbitrarily may be used as a lyrics separator or a breath symbol.

【0063】図3は、パーソナルコンピュータ1のCP
Uが行うテキストインポート処理を示すフローチャート
である。テキストインポート処理は、上記のように(図
2)、演奏データ51にテキストデータ52を割り当て
て、ノートプラスデータ53を生成する処理である。
FIG. 3 shows the CP of the personal computer 1.
9 is a flowchart illustrating a text import process performed by U. As described above (FIG. 2), the text import process is a process of assigning the text data 52 to the performance data 51 and generating the note plus data 53.

【0064】ステップSA1では、インポートするテキ
ストファイルを選択する。テキストファイルはテキスト
データ52(図2)を含み、外部記憶装置13(図1)
等に記憶される。操作者は、マウス10等を用いて、1
つ又は複数のテキストファイルの中から1つを選択する
ことができる。
At step SA1, a text file to be imported is selected. The text file includes text data 52 (FIG. 2) and is stored in the external storage device 13 (FIG. 1).
And so on. The operator uses the mouse 10 or the like to
One or a plurality of text files can be selected.

【0065】ステップSA2では、演奏データ51中の
最初のノートイベントN1の位置にポインタをセットす
る。演奏データ51は、RAM4又は外部記憶装置13
(図1)等に記憶される。
At step SA2, a pointer is set at the position of the first note event N1 in the performance data 51. The performance data 51 is stored in the RAM 4 or the external storage device 13.
(FIG. 1).

【0066】ステップSA3では、テキストデータ52
中の最初の文字コードの位置にポインタをセットする。
例えば、テキストデータ52中の「赤」の位置にポイン
タをセットする。
At Step SA3, the text data 52
Set the pointer to the position of the first character code inside.
For example, the pointer is set at the position of “red” in the text data 52.

【0067】ステップSA4では、当該文字コードが呼
気記号として設定されている文字コードのいずれかと一
致するか否かをチェックする。例えば、呼気記号とし
て、「/,¥」が設定されている。一致しないときに
は、NOの矢印に従い、ステップSA5へ進む。
At step SA4, it is checked whether or not the character code matches one of the character codes set as the breath symbol. For example, “/, ¥” is set as the breath symbol. If they do not match, the flow advances to step SA5 according to the NO arrow.

【0068】ステップSA5では、当該文字コードが歌
詞区切り記号として設定されている文字コードのいずれ
かと一致するか否かをチェックする。例えば、歌詞区切
り記号として、「_,!」が設定されている。一致しな
いときには、NOの矢印に従い、ステップSA6へ進
む。
At step SA5, it is checked whether or not the character code matches one of the character codes set as the lyrics delimiter. For example, “_ ,!” is set as the lyrics separator. If they do not match, the flow advances to step SA6 according to the NO arrow.

【0069】ステップSA6では、当該文字コードを文
字列レジスタの内容に追加する。文字列レジスタは、1
音符に対応する1又は複数の文字コード(以下、歌詞イ
ベントという)を記憶するためのレジスタであり、初期
時には何も記憶していない。
At step SA6, the character code is added to the contents of the character string register. String register is 1
This is a register for storing one or more character codes (hereinafter, referred to as lyric events) corresponding to notes, and initially stores nothing.

【0070】ステップSA7では、次の文字コードの位
置にポインタをセットする。例えば、テキストデータ5
2中の「(」の位置にポインタをセットする。その後、
ステップSA4へ戻り、上記の処理を繰り返す。
At step SA7, a pointer is set at the position of the next character code. For example, text data 5
The pointer is set at the position of “(” in 2. Then,
Returning to step SA4, the above processing is repeated.

【0071】ステップSA7でセットされたポインタの
位置における文字コードが「_」又は「!」であった場
合は、ステップSA4を介して、ステップSA5へ進
み、文字コード「_」又は「!」が歌詞区切り記号であ
ると判断し、YESの矢印に従いステップSA9へ進
む。
If the character code at the position of the pointer set in step SA7 is "_" or "!", The flow advances to step SA5 via step SA4, where the character code "_" or "!" It is determined that it is a lyric delimiter, and the flow advances to step SA9 according to the YES arrow.

【0072】一方、ステップSA7でセットされたポイ
ンタの位置における文字コードが「/」又は「¥」あっ
た場合は、ステップSA4で文字コード「/」又は
「¥」が呼気記号であると判断し、YESの矢印に従い
ステップSA8へ進む。ステップSA8では、呼気マー
ク「▽」を文字列レジスタの内容に追加する。その後、
ステップSA9へ進む。
On the other hand, if the character code at the position of the pointer set in step SA7 is "/" or "$", it is determined in step SA4 that the character code "/" or "$" is a breath symbol. The process proceeds to Step SA8 according to the arrow of YES. In step SA8, an exhalation mark "@" is added to the contents of the character string register. afterwards,
Proceed to step SA9.

【0073】ステップSA9では、読み仮名及びルビ処
理を行う。具体的には、文字列レジスタに格納された歌
詞イベント内に読み仮名又はルビが含まれている場合に
は、漢字等を削除して仮名を残す処理である。この処理
の詳細は、後に図4のフローチャートを参照しながら説
明する。その後、ステップSA10へ進む。
At step SA9, a reading pseudonym and ruby processing are performed. Specifically, when the lyric event stored in the character string register includes a reading kana or ruby, kanji or the like is deleted to leave a kana. Details of this processing will be described later with reference to the flowchart of FIG. Thereafter, the flow advances to Step SA10.

【0074】ステップSA10では、文字列レジスタの
内容をポインタが位置するノートイベントに付加して、
ノートプラスイベントを生成する。例えば、文字列レジ
スタ内の歌詞イベント「あか」をノートイベントN1に
付加して、ノートプラスイベント「N1,あか」を生成
する。
At step SA10, the contents of the character string register are added to the note event where the pointer is located,
Generate a note plus event. For example, the lyric event “Aka” in the character string register is added to the note event N1 to generate the note plus event “N1, Aka”.

【0075】ステップSA11では、テキストデータ5
2の続きがあるか否かをチェックする。すなわち、テキ
ストデータ52が終わりか否かをチェックする。終わり
でないときには、YESの矢印に従い、ステップSA1
2へ進む。
At step SA11, the text data 5
Check if there is a continuation of 2. That is, it is checked whether the text data 52 ends. If not, follow the arrow YES and follow step SA1.
Proceed to 2.

【0076】ステップSA12では、文字列レジスタの
内容をクリアし、次の歌詞イベントの格納に備える。
At step SA12, the contents of the character string register are cleared to prepare for storing the next lyrics event.

【0077】ステップSA13では、演奏データ51中
の次のノートイベントの位置にポインタをセットする。
例えば、ノートイベントN2の位置にポインタをセット
する。
At step SA13, a pointer is set at the position of the next note event in the performance data 51.
For example, a pointer is set at the position of the note event N2.

【0078】ステップSA14では、テキストデータ5
2中の次の文字コードの位置にポインタをセットする。
例えば、文字コード「い」の位置にポインタをセットす
る。その後、ステップSA4へ戻り、上記の処理を繰り
返す。
At Step SA14, the text data 5
The pointer is set to the position of the next character code in 2.
For example, a pointer is set at the position of the character code "i". Thereafter, the flow returns to step SA4, and the above processing is repeated.

【0079】テキストデータ52の最後の文字コードの
処理が終了すると、ステップSA11でNOの矢印に従
い、テキストインポート処理を終了する。この処理によ
り、ノートプラスデータ53が生成される。
When the processing of the last character code of the text data 52 is completed, the text import processing is completed according to a NO arrow in step SA11. By this processing, the note plus data 53 is generated.

【0080】なお、上記のフローチャートでは、テキス
トファイル中のテキストデータ52をインポートする場
合を説明したが、スタンダードMIDIファイル中の所
定トラックに含まれるテキストをインポートするように
してもよい。
In the above-described flowchart, the case where the text data 52 in the text file is imported has been described, but text included in a predetermined track in the standard MIDI file may be imported.

【0081】図4は、図3のステップSA9に示す読み
仮名及びルビ処理の詳細を示すフローチャートである。
FIG. 4 is a flowchart showing details of the reading kana and ruby processing shown in step SA9 of FIG.

【0082】ステップSB1では、文字列レジスタ中に
()又は〔〕に囲まれた仮名の文字コードがあるか否か
をチェックする。例えば、テキストデータ52中の
「(あか)」又は「〔ゆうひ〕」がこれに該当する。
At step SB1, it is checked whether or not there is a character code of a kana surrounded by () or [] in the character string register. For example, “(red)” or “[Yuhi]” in the text data 52 corresponds to this.

【0083】また、「夕日〔ゆう!ひ〕_」の場合は、
文字列「夕日〔ゆう」と文字列「ひ〕」との両方もこれ
に該当する。すなわち、()又は〔〕のいずれかの片括
弧に囲まれた仮名文字があればこれに該当する。
In the case of "sunset [Yu! Hi] _",
Both the character string "sunset (Yu)" and the character string "hi" correspond to this. That is, if there is a kana character enclosed in single parentheses of () or [], this corresponds to this.

【0084】当該文字コードがあるときには、YESの
矢印に従い、ステップSB2へ進む。当該文字コードが
ないときには、NOの矢印に従い、読み仮名及びルビ処
理を終了する。
When the character code is present, the flow advances to step SB2 according to the YES arrow. If there is no such character code, the reading kana and ruby processing are terminated according to the arrow of NO.

【0085】ステップSB2では、文字列レジスタ中の
()又は〔〕の前にある非仮名の文字コードを削除す
る。非仮名の文字コードは、漢字、記号、英数字を含
む。例えば、テキストデータ52中の「赤」や「夕日」
を削除する。
At step SB2, the character code of the non-kana character before () or [] in the character string register is deleted. Non-kana character codes include kanji, symbols, and alphanumeric characters. For example, “red” or “sunset” in the text data 52
Remove.

【0086】ステップSB3では、文字列レジスタ中の
()又は〔〕を削除する。その結果、例えば、文字列
「夕日〔ゆう」は「ゆう」に変換され、文字列「ひ〕」
は「ひ」に変換される。その後、読み仮名及びルビ処理
を終了し、図3のテキストインポート処理に戻る。
At step SB3, () or [] in the character string register is deleted. As a result, for example, the character string “sunset [Yu] is converted to“ Yu ”, and the character string“ hi ”
Is converted to "hi". Thereafter, the reading kana and ruby processing ends, and the process returns to the text import processing of FIG.

【0087】上記の処理により、読み仮名やルビが振ら
れた漢字等は、漢字等が削除されて仮名が残る。漢字等
は、発音に不必要な文字コードである。
By the above processing, the kanji and the like of the kanji and the like to which the reading kana and the ruby are assigned are deleted and the kana remains. Kanji and the like are character codes that are unnecessary for pronunciation.

【0088】図5は、パーソナルコンピュータ1のCP
Uが行う音素列変換処理を示すフローチャートである。
音素列変換処理は、ノートプラスデータ53(図2)を
生成した後に、歌詞イベントを音素列に変換する処理で
ある。
FIG. 5 shows the CP of the personal computer 1.
It is a flowchart which shows the phoneme string conversion process which U performs.
The phoneme string conversion process is a process of converting the lyric event into a phoneme string after generating the note plus data 53 (FIG. 2).

【0089】表示回路7においては、1つのノートプラ
スイベントが1行に表示されている。すなわち、1つの
行は1つのノートプラスイベントに対応する。ステップ
SC1では、ノートプラスデータ53中から変換する行
を選択する。操作者は、表示回路7に表示された各行の
表示内容を参照し、マウス10等を用いて、1行又は複
数行(すなわち1又は複数のノートプラスイベント)を
選択することができる。
In the display circuit 7, one note plus event is displayed on one line. That is, one row corresponds to one note plus event. In step SC1, a line to be converted is selected from the note plus data 53. The operator can select one line or a plurality of lines (that is, one or a plurality of note plus events) by using the mouse 10 or the like with reference to the display contents of each line displayed on the display circuit 7.

【0090】ステップSC2では、選択された行の中の
第1行目の位置にポインタをセットする。例えば、ノー
トプラスイベント「N1,あか」の位置にポインタをセ
ットする。
At step SC2, a pointer is set at the position of the first line in the selected line. For example, the pointer is set at the position of the note plus event “N1, red”.

【0091】ステップSC3では、当該行の文字列(歌
詞イベント)は仮名のみか否かをチェックする。仮名の
みのときは、音素列変換を行うため、YESの矢印に従
いステップSC4へ進む。仮名のみでないときには、N
Oの矢印に従い、音素列変換を行わずにステップSC6
へ進む。なお、仮名以外に呼気記号も含まれている場合
は、仮名のみと判断する。
At step SC3, it is checked whether or not the character string (lyric event) of the line is a kana only. If there is only a kana, the process proceeds to step SC4 according to a YES arrow to perform phoneme sequence conversion. If not only kana, N
According to the arrow O, without performing the phoneme sequence conversion, step SC6
Proceed to. If a breath symbol is included in addition to the pseudonym, it is determined that only the pseudonym is included.

【0092】ステップSC4では、仮名−音素列テーブ
ルを参照して、当該文字列に対応する音素列を求める。
例えば、文字列「あか」に対応する音素列を求める。
In step SC4, a phoneme string corresponding to the character string is determined with reference to a kana-phoneme string table.
For example, a phoneme string corresponding to the character string "red" is obtained.

【0093】ステップSC5では、文字列と音素列との
置き換えを行う。すなわち、ノートプラスデータ53中
では、文字列「あか」が削除され、それに対応する音素
列が書き込まれる。その後、ステップSC6へ進む。
At step SC5, a character string is replaced with a phoneme string. That is, in the note plus data 53, the character string "red" is deleted, and the corresponding phoneme string is written. Thereafter, the process proceeds to Step SC6.

【0094】ステップSC6では、選択範囲行の中に次
の行があるか否かをチェックする。選択範囲行が1行の
みの場合は次の行がないので、NOの矢印に従い、音素
列変換処理を終了する。次の行があるときには、YES
の矢印に従い、ステップSC7へ進む。
At Step SC6, it is checked whether or not the next line exists in the selected range line. If there is only one selection range row, there is no next row, so the phoneme string conversion processing is terminated according to the arrow of NO. YES if there is a next line
Then, the flow advances to Step SC7.

【0095】ステップSC7では、次の行の位置にポイ
ンタをセットする。例えば、ノートプラスイベント「N
2,い▽」の位置にポインタをセットする。その後、ス
テップSC3へ戻り、上記の処理を繰り返す。呼気記号
「▽」は音素列に変換されない。仮名「い」のみが音素
列に変換される。
At step SC7, a pointer is set at the position of the next line. For example, note plus event "N
The pointer is set at the position of "2, ii". Thereafter, the flow returns to step SC3, and the above processing is repeated. The breath symbol “▽” is not converted into a phoneme sequence. Only the pseudonym "i" is converted to a phoneme sequence.

【0096】全ての行の処理が終了すると、ステップS
C6においてNOの矢印に従い、音素列変換処理を終了
する。後の処理で、変換された音素列は、外部音源装置
21(図1)へ供給され、発音される。
When the processing for all the rows is completed, step S
In step C6, the phoneme sequence conversion process is ended according to the arrow of NO. In a later process, the converted phoneme sequence is supplied to the external sound source device 21 (FIG. 1) and is emitted.

【0097】なお、音素列に変換された後は、当該音素
列を再び文字列に変換して、音素列と文字列の両方を表
示回路7上の画面に表示する。操作者は、文字列とそれ
に対応する音素列を知ることができる。また、音素列の
変換が正常に行われたか否かを知ることもできる。
After being converted into a phoneme string, the phoneme string is converted again into a character string, and both the phoneme string and the character string are displayed on a screen on the display circuit 7. The operator can know the character string and the corresponding phoneme string. It is also possible to know whether or not the phoneme string conversion has been performed normally.

【0098】次に、空白行挿入処理を説明する。上記の
ように、ノートイベントに歌詞イベントを割り当てた
後、歌詞の間に新たな歌詞を挿入したい場合がある。例
えば、歌詞の一部分が欠落しており、該欠落部分以降の
歌詞が前方に詰まった状態でノートイベントと歌詞イベ
ントが対応づけられてしまい、結果として、ノートイベ
ントと歌詞イベントの対応が間違った状態でノートプラ
スイベントが生成されてしまった場合等である。その場
合に、所望の場所に空白行を挿入し、その空白行に新た
な歌詞を埋めればよい。
Next, the blank line insertion processing will be described. As described above, after assigning a lyric event to a note event, there may be a case where it is desired to insert a new lyric between the lyrics. For example, a part of the lyrics is missing, and the note event and the lyrics event are associated with each other in a state where the lyrics after the missing part are packed forward. As a result, the correspondence between the note event and the lyrics event is incorrect. And a note plus event has been generated. In that case, a blank line may be inserted at a desired location, and new lyrics may be embedded in the blank line.

【0099】図6(A)〜(D)は、空白行挿入処理を
説明するための図である。図6(A)は、ノートプラス
データの例を示す。ノートプラスデータは、例えば8行
のノートプラスイベントを有する。第1行目のノートプ
ラスイベントは、ノートイベントN1と歌詞イベントL
1を有する。
FIGS. 6A to 6D are diagrams for explaining blank line insertion processing. FIG. 6A shows an example of note plus data. The note plus data has, for example, eight lines of note plus events. The note plus event on the first line is a note event N1 and a lyrics event L
One.

【0100】操作者は、マウス等を用いて、空白行を挿
入したい位置PTと行数LLを指定することができる。
例えば、挿入位置PTとして第3行目を指定し、挿入行
数LLとして2行を指定することができる。
The operator can use a mouse or the like to specify the position PT where the blank line is to be inserted and the number of lines LL.
For example, the third line can be specified as the insertion position PT, and two lines can be specified as the number LL of insertion lines.

【0101】まず、図6(B)のバッファに、挿入位置
PT以降の歌詞イベントL3〜L8をコピーする。な
お、バッファ内には、空白行が含まれていてもよい。
First, the lyrics events L3 to L8 after the insertion position PT are copied to the buffer shown in FIG. 6B. Note that a blank line may be included in the buffer.

【0102】次に、図6(C)に示すように、図6
(A)のノートプラスデータの挿入位置PT(第3行
目)から挿入行数LL(2行)だけ歌詞イベントを消去
する。すなわち、歌詞イベントL3及びL4を消去す
る。
Next, as shown in FIG.
The lyrics event is erased from the insertion position PT (third line) of the note plus data of (A) by the number of inserted lines LL (two lines). That is, the lyrics events L3 and L4 are deleted.

【0103】次に、図6(D)に示すように、図6
(C)のノートプラスデータ中の第5行目以降にバッフ
ァ(図6(B))内の歌詞イベントをコピーする。ただ
し、ノートイベントN8よりも後ろにはノートイベント
がないので、ノートイベントN8に残りの歌詞イベント
がまとめて割り当てられる。すなわち、ノートイベント
N8には、歌詞イベントL6〜L8が割り当てられる。
Next, as shown in FIG.
The lyrics event in the buffer (FIG. 6B) is copied to the fifth and subsequent lines in the note plus data of (C). However, since there is no note event after the note event N8, the remaining lyrics events are collectively assigned to the note event N8. That is, the lyric events L6 to L8 are assigned to the note event N8.

【0104】図6(D)のノートプラスデータでは、ノ
ートイベントN3及びN4に空白行の歌詞イベントが割
り当てられる。結果として、2行の空白行が挿入された
ことになる。そして、空白行挿入箇所以降のノートプラ
スイベントは、ノートイベントと歌詞イベントの対応づ
けが変更された状態となる。なお、空白行については、
歌詞イベントが消去されたため、ノートプラスイベント
ではなく、通常のノートイベントとなる。
In the note plus data of FIG. 6D, a lyric event in a blank line is assigned to the note events N3 and N4. As a result, two blank lines have been inserted. Then, the note plus event after the blank line insertion point is in a state where the association between the note event and the lyrics event has been changed. For blank lines,
Since the lyric event has been deleted, it becomes a normal note event instead of a note plus event.

【0105】図7は、上記の空白行挿入処理を実現する
ためのフローチャートである。ステップSD1では、空
白行の挿入位置PTと挿入行LLを指定する。
FIG. 7 is a flowchart for realizing the above-described blank line insertion processing. In step SD1, a blank line insertion position PT and an insertion line LL are specified.

【0106】ステップSD2では、挿入位置PT以降の
歌詞イベント(音素列/文字列)をバッファ(図6
(B))にコピーする。
At step SD2, the lyric event (phoneme string / character string) after the insertion position PT is buffered (FIG. 6).
(B)).

【0107】ステップSD3では、挿入位置PTから挿
入行数LL分の歌詞イベントを消去する(図6
(C))。
At step SD3, the lyric event corresponding to the number LL of inserted lines is deleted from the insertion position PT (FIG. 6).
(C)).

【0108】ステップSD4では、バッファ(図6
(B))の歌詞イベントを、挿入位置PTから挿入行数
LL分より後ろのノートイベントに割り当てる。このと
き、割り当てるべきノートイベントが無くなったにもか
かわらず歌詞イベントがバッファ内に残っているとき
は、残りの歌詞イベントを全て最後のノートイベントに
追加する。以上で、空白行の挿入処理を終了する。
In step SD4, a buffer (FIG. 6)
The lyric event of (B)) is assigned to a note event after the insertion line number LL from the insertion position PT. At this time, if the lyrics event remains in the buffer even though there are no more note events to be assigned, all the remaining lyrics events are added to the last note event. This completes the blank line insertion process.

【0109】なお、図6(A)のノートプラスデータに
空白行を挿入して図6(D)のノートプラスデータを生
成する方法は上記以外の方法でもよい。
The method of generating the note-plus data of FIG. 6D by inserting a blank line into the note-plus data of FIG. 6A may be a method other than the above.

【0110】図8(A)〜(F)は、歌詞イベント挿入
処理を説明するための図である。図8(A)は、ノート
プラスデータの例を示す。操作者は、マウス等を用い
て、挿入したい歌詞イベントの範囲RGを指定すること
ができる。例えば、範囲RGとして、歌詞イベントL5
及びL6を指定することができる。
FIGS. 8A to 8F are views for explaining the lyrics event insertion processing. FIG. 8A shows an example of note plus data. The operator can specify the range RG of the lyric event to be inserted using a mouse or the like. For example, as the range RG, the lyrics event L5
And L6 can be specified.

【0111】まず、図8(B)のクリップボードに、範
囲RG内の歌詞イベントL5及びL6をコピーする。
First, the lyric events L5 and L6 in the range RG are copied to the clipboard shown in FIG. 8B.

【0112】次に、図8(C)に示すように、操作者
は、マウス等を用いて、挿入位置PTを指定することが
できる。例えば、挿入位置PTとして、第3行目のノー
トプラスイベント「N3,L3」を指定することができ
る。
Next, as shown in FIG. 8C, the operator can designate the insertion position PT using a mouse or the like. For example, the note plus event “N3, L3” on the third line can be specified as the insertion position PT.

【0113】次に、図8(D)のバッファに、挿入位置
PT以降の歌詞イベントL3〜L8をコピーする。
Next, the lyrics events L3 to L8 after the insertion position PT are copied to the buffer shown in FIG. 8D.

【0114】次に、図8(E)に示すように、図8
(C)の挿入位置PT以降のノートイベントN3及びN
4に、クリップボード(図8(B))の歌詞イベントL
5及びL6を割り当てる。
Next, as shown in FIG.
(C) Note events N3 and N after the insertion position PT
4, the lyrics event L on the clipboard (FIG. 8B)
5 and L6 are assigned.

【0115】次に、図8(F)に示すように、図8
(E)のノートプラスデータ中の第5行目「N5,L
5」以降に、バッファ(図8(D))内の歌詞イベント
L3〜L8を割り当てる。ただし、ノートイベントN8
よりも後ろにはノートイベントがないので、ノートイベ
ントN8に残りの歌詞イベントL6〜8をまとめて割り
当てる。その結果、図8(F)のノートプラスデータに
は、挿入位置PTに歌詞イベントL5及びL6が挿入さ
れたことになる。
Next, as shown in FIG.
The fifth line “N5, L” in the note plus data of (E)
After "5", lyrics events L3 to L8 in the buffer (FIG. 8D) are assigned. However, note event N8
Since there is no note event after that, the remaining lyrics events L6 to L8 are collectively assigned to the note event N8. As a result, the lyrics events L5 and L6 are inserted at the insertion position PT in the note plus data in FIG.

【0116】図9は、上記の歌詞イベント挿入処理を実
現するためのフローチャートである。
FIG. 9 is a flowchart for realizing the above-described lyric event insertion processing.

【0117】ステップSE1では、任意行数RGの歌詞
イベントを指定し(図8(A))、クリップボード(図
8(B))にコピーする。
In step SE1, a lyric event having an arbitrary number of lines RG is designated (FIG. 8A) and copied to the clipboard (FIG. 8B).

【0118】ステップSE2では、歌詞イベントの挿入
位置PTを指定する(図8(C))。
In step SE2, the insertion position PT of the lyric event is designated (FIG. 8C).

【0119】ステップSE3では、挿入位置PT以降の
歌詞イベントをバッファ(図8(D))にコピーする。
At step SE3, the lyric event after the insertion position PT is copied to the buffer (FIG. 8D).

【0120】ステップSE4では、クリップボード(図
8(B))の歌詞イベントを、挿入位置PTから挿入行
数RG分だけノートプラスデータに割り当てる(図8
(E))。
At step SE4, the lyric event on the clipboard (FIG. 8B) is allocated to the note plus data by the number of insertion lines RG from the insertion position PT (FIG. 8).
(E)).

【0121】ステップSE5では、バッファ(図8
(D))の歌詞イベントを、挿入位置PTから挿入行数
RG分より後ろのノートプラスデータに割り当てる(図
8(F))。以上で、歌詞イベント挿入処理を終了す
る。
At step SE5, the buffer (FIG. 8)
The lyrics event of (D)) is assigned to the note plus data after the insertion line number RG from the insertion position PT (FIG. 8 (F)). Thus, the lyric event insertion processing ends.

【0122】なお、図8(A)のノートプラスデータに
所望の歌詞イベントを挿入して、図8(F)のノートプ
ラスデータを生成する方法は上記以外の方法でもよい。
Note that a method other than the above may be used to insert the desired lyric event into the note plus data shown in FIG. 8A and generate the note plus data shown in FIG. 8F.

【0123】図10(A)〜(E)は、歌詞イベント削
除処理を説明するための図である。図10(A)は、ノ
ートプラスデータの例を示す。操作者は、マウス等を用
いて、削除したい歌詞イベントの範囲RGを指定するこ
とができる。例えば、範囲RGとして、歌詞イベントL
3及びL4を指定することができる。
FIGS. 10A to 10E are diagrams for explaining the lyrics event deletion processing. FIG. 10A shows an example of note plus data. The operator can specify the range RG of the lyrics event to be deleted using a mouse or the like. For example, as a range RG, a lyrics event L
3 and L4 can be specified.

【0124】まず、図10(B)のクリップボードに、
範囲RG内の歌詞イベントL3及びL4をコピーする。
このクリップボードの内容は、この後の処理で使用する
ことはないが、必要に応じて図8(B)のクリップボー
ドとして使用することができる。
First, the clipboard shown in FIG.
The lyrics events L3 and L4 within the range RG are copied.
The contents of this clipboard are not used in the subsequent processing, but can be used as the clipboard in FIG. 8B as needed.

【0125】次に、図10(C)のバッファに、範囲R
Gより後ろの歌詞イベントL5〜L8をコピーする。
Next, in the buffer shown in FIG.
The lyrics events L5 to L8 behind G are copied.

【0126】次に、図10(D)に示すように、図10
(A)の範囲RG以降の歌詞イベントL3〜L8を削除
する。
Next, as shown in FIG.
The lyrics events L3 to L8 after the range RG in (A) are deleted.

【0127】次に、図10(E)に示すように、図10
(D)の範囲RG以降のノートイベントN3〜N8に、
バッファ(図10(C))内の歌詞イベントL5〜L8
を割り当てる。ただし、歌詞イベントL3及びL4を削
除したため、最後のノートイベントN7及びN8には空
白行の歌詞イベントが割り当てられる。図10(E)の
ノートプラスデータでは、歌詞イベントL3及びN4が
削除されたため、歌詞イベントL2の次に歌詞イベント
L5が続く。
Next, as shown in FIG.
In note events N3 to N8 after the range RG in (D),
Lyrics events L5 to L8 in the buffer (FIG. 10C)
Assign. However, since the lyrics events L3 and L4 have been deleted, the final note events N7 and N8 are assigned the lyrics events in blank lines. In the note plus data of FIG. 10E, the lyric event L3 follows the lyric event L2 because the lyric event L3 and N4 have been deleted.

【0128】図11は、上記の歌詞イベント削除処理を
実現するためのフローチャートである。
FIG. 11 is a flowchart for realizing the above-mentioned lyric event deletion processing.

【0129】ステップSF1では、削除すべき任意行数
RGの歌詞イベントを指定し(図10(A))、クリッ
プボード(図10(B))にコピーする。
In step SF1, a lyric event having an arbitrary number of lines RG to be deleted is designated (FIG. 10A) and copied to the clipboard (FIG. 10B).

【0130】ステップSF2では、削除される行RGよ
り後ろの歌詞イベントをバッファ(図10(C))にコ
ピーする。
In step SF2, the lyric event after the line RG to be deleted is copied to the buffer (FIG. 10C).

【0131】ステップSF3では、削除される行RG以
降の歌詞データを消去する(図10(D))。
In step SF3, the lyrics data after the line RG to be deleted is deleted (FIG. 10D).

【0132】ステップSF4では、バッファ(図10
(C))の歌詞イベントを、削除行RG以降のノートプ
ラスデータに割り当てる(図10(E))。以上で、歌
詞イベント削除処理を終了する。
In step SF4, a buffer (FIG. 10)
The lyric event of (C)) is assigned to the note plus data after the deleted line RG (FIG. 10E). Thus, the lyric event deletion processing ends.

【0133】歌詞イベント削除処理は、演奏データをア
レンジしてノートイベントの数が少なくなったり、歌詞
データの入力ミスにより歌詞イベントの数が多くなった
場合等に有効な処理である。
The lyric event deletion process is effective when the performance data is arranged and the number of note events decreases, or when the number of lyric events increases due to erroneous input of the lyric data.

【0134】なお、図10(A)のノートプラスデータ
から所望の歌詞イベントを削除して図10(E)のノー
トプラスデータを生成する方法は上記以外の方法でもよ
い。
The method for generating the note-plus data shown in FIG. 10E by deleting a desired lyric event from the note-plus data shown in FIG. 10A may be a method other than the above.

【0135】図12(A)〜(D)は、第1の歌詞自動
割り当て処理を説明するための図である。
FIGS. 12A to 12D are diagrams for explaining the first lyrics automatic assignment processing.

【0136】図12(A)は、ノートプラスデータの例
を示す。操作者は、マウス等を用いて、自動割り当てを
行いたいノートプラスイベントの範囲RGを指定するこ
とができる。例えば、範囲RGとして、第2〜6のノー
トプラスイベントを指定することができる。
FIG. 12A shows an example of note plus data. The operator can use a mouse or the like to specify the range RG of the note plus event to be automatically assigned. For example, the second to sixth note plus events can be designated as the range RG.

【0137】まず、図12(B)のバッファに、範囲R
G内の歌詞イベント「いうえおかきく」をコピーする。
First, in the buffer shown in FIG.
Copy the lyrics event “Iue Okakiku” in G.

【0138】次に、図12(C)に示すように、図12
(A)の範囲RG内の歌詞イベントを削除する。
Next, as shown in FIG.
The lyrics event in the range RG of (A) is deleted.

【0139】次に、図12(D)に示すように、図12
(D)の範囲RG内のノートイベントN2〜N6に、バ
ッファ(図12(B))内の歌詞イベント「いうえおか
きく」を1文字ずつ割り当てる。ただし、最後のノート
イベントN6には、残りの文字列「かきく」を割り当て
る。図12(D)のノートプラスデータでは、範囲RG
内のノートイベントN2〜N5にそれぞれ1文字ずつ割
り当てられ、ノートイベントN6に3文字「かきく」が
割り当てられる。基本的に、1音符に1文字(音節)が
割り当てられる。
Next, as shown in FIG.
The lyric event “Iue Okakiku” in the buffer (FIG. 12B) is assigned one character at a time to the note events N2 to N6 in the range RG of (D). However, the remaining character string “Kakiku” is assigned to the last note event N6. In the note plus data of FIG.
One character is assigned to each of the note events N2 to N5, and three characters “Kakiku” are assigned to the note event N6. Basically, one character (syllable) is assigned to one note.

【0140】第1の歌詞自動割り当て処理は、範囲RG
の行数内で、すなわち、行数を増減させることなく、各
行に自動的に歌詞イベントを割り当てる処理である。
The first lyrics automatic assignment processing is performed in the range RG
Is a process of automatically assigning a lyric event to each line without increasing or decreasing the number of lines.

【0141】図13は、上記の第1の歌詞自動割り当て
処理を実現するためのフローチャートである。
FIG. 13 is a flowchart for realizing the above-mentioned first automatic lyrics assigning process.

【0142】ステップSG1では、歌詞を自動割り当て
する複数行RGを選択する(図12(A))。
At step SG1, a plurality of lines RG to which lyrics are automatically assigned are selected (FIG. 12A).

【0143】ステップSG2では、選択された複数行R
Gに含まれる歌詞イベントをバッファ(図12(B))
にコピーする。ただし、歌詞イベントが音素列により構
成されているときには、バッファ中の音素列を文字デー
タに変換する。
At step SG2, the selected row R
Buffer the lyrics event contained in G (FIG. 12 (B))
Copy to However, when the lyrics event is composed of phoneme strings, the phoneme strings in the buffer are converted into character data.

【0144】ステップSG3では、選択された複数行R
G内の歌詞イベントを消去する(図12(C))。
At step SG3, the selected plural rows R
The lyric event in G is deleted (FIG. 12C).

【0145】ステップSG4では、バッファ(図12
(B))内の文字列データを、選択された複数行RGの
ノートプラスデータに割り当てる(図12(D))。以
上で、第1の歌詞自動割り当て処理を終了する。
In step SG4, the buffer (FIG. 12)
The character string data in (B)) is assigned to the note-plus data of the selected plurality of rows RG (FIG. 12D). This is the end of the first lyrics automatic assignment processing.

【0146】図14(A)、(B)は、空白行自動挿入
処理を説明するための図である。図14(A)は、ノー
トプラスデータの例を示す。操作者は、マウス等を用い
て、空白行を挿入したい行RGを選択することができ
る。例えば、選択行RGとして、第4行のノートプラス
イベントを指定することができる。
FIGS. 14A and 14B are diagrams for explaining blank line automatic insertion processing. FIG. 14A shows an example of note plus data. The operator can select a row RG into which a blank row is to be inserted using a mouse or the like. For example, a note plus event in the fourth row can be specified as the selected row RG.

【0147】まず、選択行RG内の歌詞イベントを構成
する文字数をカウントする。例えば、歌詞イベント「お
かきく」の文字数は4文字である。
First, the number of characters constituting the lyrics event in the selected row RG is counted. For example, the number of characters in the lyric event “Okakiku” is four.

【0148】次に、図14(B)に示すように、「当該
文字数−1」行の空白行を、選択行RGの位置に挿入す
る。例えば、4−1=3行の空白行を挿入する。選択行
RG以降のノートイベントN4〜N6には空白行が割り
当てられ、ノートイベントN7に歌詞イベント「おかき
く」が割り当てられる。
Next, as shown in FIG. 14B, a blank line of "the number of characters-1" is inserted at the position of the selected line RG. For example, 4-1 = 3 blank lines are inserted. A blank line is assigned to the note events N4 to N6 after the selected line RG, and a lyric event “Okakiku” is assigned to the note event N7.

【0149】なお、選択行RGの歌詞イベント「おかき
く」の前に空白行を挿入する場合に限定されず、歌詞イ
ベント「おかきく」の後ろに空白行を挿入してもよい。
Note that the present invention is not limited to the case where a blank line is inserted before the lyric event “Okakiku” of the selected line RG, and a blank line may be inserted after the lyric event “Okakiku”.

【0150】この後、第4行〜第7行を選択して、図1
2に示した第1の歌詞自動割り当て処理を行えば、当該
空白行に歌詞イベントを割り当てることができる。具体
的には、「N4,お」、「N5,か」、「N6,き」、
「N7,く」のように割り当てることができる。
Thereafter, the fourth to seventh rows are selected, and FIG.
By performing the first lyrics automatic assignment process shown in FIG. 2, a lyrics event can be assigned to the blank line. Specifically, "N4,""N5,""N6,"
It can be assigned as “N7, ku”.

【0151】図15は、上記の空白行自動挿入処理を実
現するためのフローチャートである。
FIG. 15 is a flowchart for realizing the above-described blank line automatic insertion processing.

【0152】ステップSH1では、空白行を自動挿入す
る行RGを選択する(図14(A))。
In step SH1, a row RG for automatically inserting a blank row is selected (FIG. 14A).

【0153】ステップSH2では、選択された行RG内
の歌詞イベントの文字数を検出する。歌詞イベントが音
素列により構成されるときには、音素列を文字に換算し
てから文字数を検出する。
At step SH2, the number of characters of the lyric event in the selected row RG is detected. When the lyric event is composed of a phoneme sequence, the phoneme sequence is converted into characters and then the number of characters is detected.

【0154】ステップSH3では、「文字数−1」の行
数の空白行を選択行RGの位置に挿入する。この挿入
は、上記空白行挿入と同様に、バッファを用いて行うこ
とができる。以上で、空白行自動挿入処理を終了する。
At step SH3, blank lines of the number of "number of characters-1" are inserted at the position of the selected line RG. This insertion can be performed using a buffer, similarly to the blank line insertion. This completes the blank line automatic insertion process.

【0155】図16(A)〜(D)は、第2の歌詞自動
割り当て処理を説明するための図である。
FIGS. 16A to 16D are views for explaining the second lyrics automatic assignment processing.

【0156】図16(A)は、ノートプラスデータの例
を示す。操作者は、マウス等を用いて、自動割り当てを
行いたいノートプラスイベントの範囲RGを指定するこ
とができる。例えば、範囲RGとして、第2〜6のノー
トプラスイベントを指定することができる。
FIG. 16A shows an example of note plus data. The operator can use a mouse or the like to specify the range RG of the note plus event to be automatically assigned. For example, the second to sixth note plus events can be designated as the range RG.

【0157】まず、図16(B)のバッファに、範囲R
G内の歌詞イベント「いうえおかきく」をコピーする。
First, in the buffer shown in FIG.
Copy the lyrics event “Iue Okakiku” in G.

【0158】次に、図16(C)に示すように、バッフ
ァ内の文字数(7文字)が範囲RGの行数(5行)より
も2文字多いので、2行の空白行を範囲RGの位置に挿
入する。
Next, as shown in FIG. 16C, the number of characters (7 characters) in the buffer is two characters larger than the number of lines (5 lines) in the range RG, so that two blank lines are added to the range RG. Insert in position.

【0159】次に、図16(D)に示すように、選択行
RGの位置からバッファ(図16(B))内の文字数
(7文字)までの数のノートイベントN2〜N8に、バ
ッファ内の文字列「いうえおかきく」を1文字ずつ割り
当てる。ノートイベントN2〜N8には、それぞれ1文
字の歌詞イベントが割り当てられる。
Next, as shown in FIG. 16D, the number of note events N2 to N8 from the position of the selected row RG to the number of characters (seven characters) in the buffer (FIG. 16B) is added to the buffer event. Is assigned one character at a time. A lyric event of one character is assigned to each of the note events N2 to N8.

【0160】第2の歌詞自動割り当て処理は、選択され
た行RGに含まれる全ての文字が、必ず1ノートイベン
トに付き1文字割り当てられるようにする処理である。
The second lyrics automatic assignment process is a process for ensuring that all characters included in the selected line RG are assigned one character per one note event.

【0161】図17は、上記の第2の歌詞自動割り当て
処理を実現するためのフローチャートである。
FIG. 17 is a flowchart for realizing the second lyrics automatic allocation process.

【0162】ステップSI1では、歌詞を自動割り当て
する複数行RGのノートプラスイベントを選択する(図
16(A))。
In step SI1, a note plus event of a plurality of lines RG to which lyrics are automatically assigned is selected (FIG. 16A).

【0163】ステップSI2では、選択された複数行R
G内の歌詞イベントをバッファ(図16(B))にコピ
ーする。ただし、歌詞イベントが音素列により構成され
ているときには、バッファ中の音素列を文字データに変
換する。
In step SI2, the selected plural rows R
The lyric event in G is copied to the buffer (FIG. 16B). However, when the lyrics event is composed of phoneme strings, the phoneme strings in the buffer are converted into character data.

【0164】ステップSI3では、バッファ内の文字数
を検出する。ステップSI4では、選択された行数RG
と検出された文字数を比較する。
At Step SI3, the number of characters in the buffer is detected. In step SI4, the selected row number RG
And the number of characters detected.

【0165】ステップSI5では、比較した行数が等し
いか、多いか、少ないかをチェックする。行数が多いと
きにはステップSI6へ進み、余分な行数を削除し、ス
テップSI8へ進む。行数が少ないときにはステップS
I7へ進み、足りない行数を挿入し(図16(C))、
ステップSI8へ進む。行数が等しいときには、行数を
変更せずに、ステップSI8へ進む。
At step SI5, it is checked whether the number of compared rows is equal, large or small. If the number of lines is large, the process proceeds to step SI6, where the number of extra lines is deleted, and the process proceeds to step SI8. Step S when the number of rows is small
Proceed to I7 and insert the number of missing lines (FIG. 16C),
Proceed to step SI8. When the number of rows is equal, the process proceeds to step SI8 without changing the number of rows.

【0166】ステップSI8では、バッファ内の文字列
データを、選択行RGの先頭行から、選択行RGの行数
だけ、又は削除後の行数だけ、又は挿入後の行数だけ、
ノートプラスイベントに割り当てる(図16(D))。
以上で、第2の歌詞自動割り当て処理を終了する。
In step SI8, the character string data in the buffer is transferred from the head row of the selected row RG by the number of selected rows RG, by the number of deleted rows, or by the number of inserted rows.
It is assigned to the note plus event (FIG. 16D).
With the above, the second lyrics automatic assignment processing ends.

【0167】図18(A)〜(D)は、複数行併合処理
を説明するための図である。図18(A)は、ノートプ
ラスデータの例を示す。ノートプラスデータは、ノート
プラスイベント「N1,あ」、「N2,い」、「N3,
う」、「N4,え」、「N5,お」を有する。
FIGS. 18A to 18D are diagrams for explaining a plurality of rows merging process. FIG. 18A shows an example of note plus data. The note plus data includes the note plus events "N1, A", "N2, I", "N3,"
"," N4, eh ", and" N5, oh ".

【0168】操作者は、マウス等を用いて、併合するノ
ートプラスイベントの範囲RGを指定することができ
る。例えば、範囲RGとして、第2及び3のノートプラ
スイベントを指定することができる。
The operator can specify the range RG of the note plus event to be merged using a mouse or the like. For example, the second and third note plus events can be designated as the range RG.

【0169】まず、図18(B)のバッファに、範囲R
G内の歌詞イベント「いう」をコピーする。
First, the range R is stored in the buffer shown in FIG.
Copy the lyric event “say” in G.

【0170】次に、図18(C)に示すように、範囲R
G内の先頭行の歌詞イベント「い」だけを残し、残りの
行の歌詞イベント「う」を削除する。範囲RGより後ろ
の歌詞イベント「え、お」は、前の行に詰められる。ノ
ートプラスデータは、ノートプラスイベント「N1,
あ」、「N2,い」、「N3,え」、「N4,お」、
「N5,_」を有する。
Next, as shown in FIG.
Only the lyric event “I” on the first line in G is left, and the lyric event “U” on the remaining lines is deleted. The lyric event "E, O" after the range RG is packed into the previous line. Note plus data is for note plus event "N1,
"A", "N2, I", "N3, E", "N4, O",
“N5, _”.

【0171】次に、図18(D)に示すように、範囲R
G内の先頭行のノートイベントN2に、バッファ内の文
字列「いう」を割り当てる。第2のノートイベントN2
には、範囲RG内の歌詞イベント「いう」が併合されて
割り当てられる。
Next, as shown in FIG.
The character string “say” in the buffer is assigned to the note event N2 of the first line in G. Second note event N2
, A lyric event “say” in the range RG is merged and assigned.

【0172】上記の第1又は第2の歌詞自動割り当て処
理では、1つのノートイベントに1文字の歌詞イベント
が割り当てたが、その後にこの複数行併合処理を利用す
ることにより、1つのノートイベントに2文字以上の歌
詞イベントを割り当てるように修正することができる。
In the above-described first or second automatic lyric allocation processing, a single-character lyric event is allocated to one note event. Thereafter, by using this multiple-line merging processing, it can be assigned to one note event. It can be modified to assign lyric events of two or more characters.

【0173】図19は、上記の複数行併合処理を実現す
るためのフローチャートである。ステップSJ1では、
歌詞イベントを併合する複数行RGを選択する(図18
(A))。
FIG. 19 is a flowchart for realizing the above-described multiple-row merging process. In step SJ1,
Select multiple lines RG to merge lyrics events (FIG. 18)
(A)).

【0174】ステップSJ2では、選択された複数行R
G内の歌詞イベントをバッファ(図18(B))にコピ
ーする。ただし、歌詞イベントが音素列により構成され
ているときには、バッファ中の音素列を文字データに変
換する。
In step SJ2, the selected plural rows R
The lyric event in G is copied to the buffer (FIG. 18B). However, when the lyrics event is composed of phoneme strings, the phoneme strings in the buffer are converted into character data.

【0175】ステップSJ3では、選択された複数行R
Gのうち、1行を残して残りの行の歌詞イベントを削除
する(図18(C))。削除された後の歌詞イベント
は、前の行に詰められる。
At step SJ3, the selected plural rows R
Of G, the lyric event of the remaining line is deleted except one line (FIG. 18C). Lyrics events after deletion are padded to the previous line.

【0176】ステップSJ4では、バッファ内の文字列
データを、範囲RG内の残った行のノートプラスデータ
内のノートイベントに割り当てる(図18(D))。以
上で、複数行併合処理を終了する。
In step SJ4, the character string data in the buffer is assigned to the note event in the note plus data of the remaining line in the range RG (FIG. 18 (D)). This is the end of the multiple-row merging process.

【0177】図20(A)、(B)は、歌詞イベント分
割処理を説明するための図である。図20(A)は、ノ
ートプラスデータの例を示す。ノートプラスデータは、
ノートプラスイベント「N1,あ」、「N2,いう」、
「N3,え」を有する。
FIGS. 20A and 20B are diagrams for explaining the lyrics event division processing. FIG. 20A shows an example of note plus data. Note Plus data is
Note plus events "N1, A", "N2, say",
"N3, h".

【0178】操作者は、マウス等を用いて、歌詞イベン
トの分割を行いたい行RGを選択し、その行内で分割を
行いたい文字位置にカーソルCSを設定する。例えば、
範囲RGとして、第2のノートプラスイベント「N2,
いう」を選択し、カーソルCSを「い」と「う」の間に
設定する。その後、操作者がリターンキー(実行キー)
を操作することにより、以下の分割処理が行われる。
The operator uses a mouse or the like to select a line RG where the lyric event is to be divided, and sets the cursor CS at a character position within the line where the lyric event is to be divided. For example,
As the range RG, the second note plus event “N2,
Is selected, and the cursor CS is set between "i" and "u". After that, the operator presses the return key (execute key).
Is operated, the following division processing is performed.

【0179】図20(B)に示すように、文字「い」と
「う」とが分割される。ノートプラスデータは、ノート
プラスイベント「N1,あ」、「N2,い」、「N3,
うえ」を有する。カーソルCSの後ろの文字「う」は、
選択行RGの後ろの行の歌詞イベント「え」と併合され
る。
As shown in FIG. 20B, the characters "i" and "u" are divided. The note plus data includes the note plus events "N1, A", "N2, I", "N3,"
"". The character "U" after the cursor CS is
This is merged with the lyric event “e” in the line after the selected line RG.

【0180】空白行の歌詞イベントを多数挿入しておき
(図6)、先頭から順番に歌詞を割り当てる際に便利で
ある。
It is convenient to insert a large number of lyric events in blank lines (FIG. 6) and assign lyrics in order from the beginning.

【0181】図21は、上記の歌詞イベント分割処理を
実現するためのフローチャートである。
FIG. 21 is a flowchart for realizing the above-mentioned lyrics event division processing.

【0182】ステップSK1では、分割する歌詞イベン
トを含む行RGを選択する(図20(A))。
At step SK1, a row RG containing the lyrics event to be divided is selected (FIG. 20A).

【0183】ステップSK2では、マウス操作等により
分割位置にカーソルCSを設定する(図20(A))。
At step SK2, the cursor CS is set at the division position by mouse operation or the like (FIG. 20A).

【0184】ステップSK3では、リターンキーの操作
に応じて、分割位置以降の歌詞イベントをその次の行の
ノートプラスデータ内の歌詞イベントに追加する(図2
0(B))。以上で、歌詞イベント分割処理を終了す
る。
In step SK3, in response to the operation of the return key, the lyric event after the division position is added to the lyric event in the note plus data of the next line (FIG. 2).
0 (B)). Thus, the lyric event division processing ends.

【0185】図22(A)〜(C)は、仮名変換処理を
説明するための図である。図22(A)は、ノートプラ
スデータの例を示す。ノートプラスデータは、ノートプ
ラスイベント「N1,あか」、「N2,い」、「N3,
夕」、「N4,日」を有する。
FIGS. 22A to 22C are diagrams for explaining the kana conversion process. FIG. 22A shows an example of note plus data. The note plus data includes the note plus events “N1, Aka”, “N2, I”, “N3,
Evening "and" N4, Sun ".

【0186】操作者は、マウスを用いて、仮名変換を行
いたい歌詞イベント「夕」の位置にマウスポインタ71
を移動し、マウスの右ボタンをクリックする。
The operator uses the mouse to move the mouse pointer 71 to the position of the lyric event “evening” where the kana conversion is to be performed.
Move and click the right mouse button.

【0187】図22(B)に示すように、歌詞イベント
「夕」の読み仮名候補がメニュー72に表示される。メ
ニュー72には、例えば「ゆう」、「せき」が表示され
る。操作者は、適切な読み仮名である文字列「ゆう」の
位置にマウスポインタ71を移動させ、マウスの左ボタ
ンをクリックする。
As shown in FIG. 22B, the reading kana candidate of the lyric event “evening” is displayed on the menu 72. In the menu 72, for example, "Yu" and "Cough" are displayed. The operator moves the mouse pointer 71 to the position of the character string “Yu”, which is an appropriate reading kana, and clicks the left mouse button.

【0188】図22(C)に示すように、ノートイベン
トN3に割り当てられる歌詞イベントは漢字「夕」から
仮名「ゆう」に変換される。漢字の他、英数字や記号等
も仮名に変換することができる。漢字や英数字等を仮名
に変換すれば、その後に仮名から音素列に変換すること
ができるので(図5)、音素列の発音が可能になる。
As shown in FIG. 22C, the lyric event assigned to the note event N3 is converted from the kanji character "Yu" to the pseudonym "Yu". In addition to kanji, alphanumeric characters and symbols can be converted to kana. If kanji or alphanumeric characters are converted to kana, then kana can be converted to phoneme strings (FIG. 5), so that phoneme strings can be pronounced.

【0189】図23は、上記の仮名変換処理を実現する
ためのフローチャートである。ステップSL1では、仮
名変換する文字の行をマウスポインタ71で指定する
(図22(A))。
FIG. 23 is a flowchart for realizing the above-described kana conversion processing. In step SL1, a line of a character to be converted to a kana is designated by the mouse pointer 71 (FIG. 22A).

【0190】ステップSL2では、マウスの右ボタンが
クリックされると、選択文字に対応する読み仮名をデー
タベースから検索し、読み仮名候補として表示する(図
22(B))。データベースは、漢字等から仮名への変
換するための辞書であり、外部記憶装置13又はRAM
3等に記憶される。
At step SL2, when the right button of the mouse is clicked, the reading kana corresponding to the selected character is searched from the database and displayed as a reading kana candidate (FIG. 22B). The database is a dictionary for converting kanji and the like to kana, and is stored in the external storage device 13 or the RAM.
3 and so on.

【0191】ステップSL3では、読み仮名候補のいず
れかをマウスポインタ71で指定する(図22
(B))。
At step SL3, one of the reading kana candidates is designated by the mouse pointer 71 (FIG. 22).
(B)).

【0192】ステップSL4では、マウスの左ボタンが
クリックされると、指定された読み仮名候補を指定行の
文字列として、ノートプラスデータ内のノートイベント
に割り当てる(図22(C))。以上で、仮名変換処理
を終了する。
In step SL4, when the left button of the mouse is clicked, the designated kana candidate is assigned to the note event in the note plus data as the character string of the designated line (FIG. 22 (C)). Thus, the kana conversion process ends.

【0193】以上のようにして作成されたノートプラス
イベント(図5の音素列変換処理によって文字列を音素
列に変換したもの)を、外部音源装置21へと供給する
ことによって、外部音源装置21内の音声合成回路32
において、歌唱音声信号を生成させることができる。な
お、本実施の形態において説明した音声データ処理装置
(パーソナルコンピュータ1)においては、ノートプラ
スデータを、そのままの形式で再生処理可能な、いわ
ば、専用の音声データ処理装置である。この音声データ
処理装置は、ノートイベントと歌詞イベント(音素列)
を適切な順序で送信することができる。
By supplying the note-plus event created as described above (a character string converted to a phoneme string by the phoneme string conversion process of FIG. 5) to the external sound source device 21, Voice synthesis circuit 32
, A singing voice signal can be generated. Note that the audio data processing device (personal computer 1) described in the present embodiment is a dedicated audio data processing device that can reproduce and process note-plus data in the same format. This audio data processing device uses note events and lyric events (phoneme strings)
Can be sent in an appropriate order.

【0194】ここで、ノートイベントと歌詞イベントを
送信する際の適切な順序について説明する。図24
(A)、(B)は、ノートイベントと歌詞イベントの送
信順序を説明するための図である。ノートプラスイベン
トは、例えばノートイベントN1と歌詞イベントL1の
組である(図6(A)))。ノートイベントN1と歌詞
イベントL1は理論上は同じタイミングで送信するべき
であるが、MIDI通信はシリアル通信であるため、い
ずれを先に外部音源装置21(図1)へ送信すべきかが
問題になる。ノートイベントN1はノートオンイベント
に変換されて送信される。歌詞イベントは音素列に変換
(図5)されて送信される。
Here, an appropriate sequence for transmitting the note event and the lyrics event will be described. FIG.
(A), (B) is a diagram for explaining the transmission order of the note event and the lyrics event. The note plus event is, for example, a pair of a note event N1 and a lyric event L1 (FIG. 6A). Although the note event N1 and the lyric event L1 should be transmitted at the same timing in theory, since MIDI communication is serial communication, it is important to determine which should be transmitted to the external tone generator 21 (FIG. 1) first. . The note event N1 is converted into a note-on event and transmitted. The lyric event is converted into a phoneme string (FIG. 5) and transmitted.

【0195】図24(A)は、音素列、ノートオンの順
序で送信するタイミングを示す。まず、音節「あ」に対
応する音素列「aj」を送信する。その後にノートオン
を送信すると、そのタイミングで「あ」の発音が開始す
る。次に、音節「い」に対応する音素列「ij」を送信
する。その後にノートオンを送信すると、そのタイミン
グで「あ」から「い」に発音が切り換わる。次に、音節
「う」に対応する音素列「uj」を送信する。その後に
ノートオンを送信すると、そのタイミングで「い」から
「う」に発音が切り換わる。
FIG. 24A shows the timing of transmission in the order of phoneme strings and note-on. First, a phoneme string “aj” corresponding to the syllable “a” is transmitted. Thereafter, when a note-on is transmitted, the sound of "A" starts at that timing. Next, the phoneme string “ij” corresponding to the syllable “i” is transmitted. Thereafter, when a note-on is transmitted, the sound is switched from “A” to “I” at that timing. Next, the phoneme string “uj” corresponding to the syllable “u” is transmitted. Thereafter, when a note-on is transmitted, the sound is switched from "i" to "u" at that timing.

【0196】図24(A)では、ノートオン(ノートイ
ベント)と音素列(歌詞イベント)との対応がとれてお
り、適正な歌を歌わせることができる。
In FIG. 24A, note-on (note event) and phoneme string (lyric event) are associated with each other, so that an appropriate song can be sung.

【0197】図24(B)は、ノートオン、音素列の順
序で送信するタイミングを示す。まず、ノートオンを送
信する。この時点では、音素列が設定されていないの
で、例えば「あ」等の初期設定されている音素列が発音
を開始する。その後、音節「あ」に対応する音素列「a
j」を送信する。この時点では、発音に変化はなく初期
設定されている「あ」の発音が持続される。次に、ノー
トオンを送信すると、そのタイミングで初期設定された
音素列「あ」の発音から、送信された音素列「あ」の発
音に切り換わる。その後に、音節「い」に対応する音素
列「ij」を送信するが、発音に影響はない。次に、ノ
ートオンを送信すると、そのタイミングで「あ」から
「い」に発音が切り換わる。その後に、音節「う」に対
応する音素列「uj」を送信するが、発音に影響はな
い。
FIG. 24B shows the timing for transmitting in the order of note-on and phoneme sequence. First, a note-on is sent. At this point, since the phoneme string has not been set, the phoneme string which is initially set, for example, "A" starts to sound. After that, the phoneme sequence “a” corresponding to the syllable “a”
j ". At this time, there is no change in pronunciation, and the initially set pronunciation of "A" is maintained. Next, when a note-on is transmitted, the pronunciation of the phoneme string “A” initially set at that timing is switched to the pronunciation of the transmitted phoneme string “A”. Thereafter, the phoneme string “ij” corresponding to the syllable “i” is transmitted, but the pronunciation is not affected. Next, when a note-on is transmitted, the sound is switched from “A” to “I” at that timing. After that, the phoneme string “uj” corresponding to the syllable “u” is transmitted, but the pronunciation is not affected.

【0198】図24(B)では、ノートオン(ノートイ
ベント)と音素列(歌詞イベント)との対応がとれてい
ず、1つのノート分だけ遅れて歌詞が発音されてしま
う。これでは、適正な歌を歌わせることができない。
In FIG. 24B, there is no correspondence between note-on (note event) and phoneme string (lyric event), and the lyrics are produced with a delay of one note. This makes it impossible to sing a proper song.

【0199】外部音源装置21には、図24(A)に示
したように、まず音素列を送信し、その後、対応するノ
ートオンを送信する必要がある。上述したように、この
実施の形態における音声データ処理装置は、ノートプラ
スデータを正しく扱うことができる装置であり、つ1の
ノートプラスイベントについて、先に音素列を送信した
後、ノートオンを送信するようになっている。ところ
が、本音声データ処理装置以外のシーケンサ等において
は、ノートプラスイベントを正しく扱うとこができな
い。このため、本音声データ処理装置は、ノートプラス
データを、より汎用的なスタンダードMIDIファイル
に変換する機能を備えている。このとき、単純にスタン
ダードMIDIファイルに変換するだけでは、後述する
ような不都合が生じてしまう可能性があるため、上述し
たような送信順序を考慮しての変換をするようにしてい
る。以下、ノートイベントと歌詞イベント(音素列)の
送信順序を考慮して、ノートプラスデータを、スタンダ
ードMIDIファイルに変換する方法を説明する。
As shown in FIG. 24A, it is necessary to transmit a phoneme sequence to the external tone generator 21 first, and then transmit a corresponding note-on. As described above, the audio data processing device according to the present embodiment is a device that can correctly handle note-plus data, and transmits a phoneme sequence before transmitting a note-on for each note-plus event. It is supposed to. However, a sequencer or the like other than the audio data processing device cannot correctly handle the note plus event. For this reason, the audio data processing apparatus has a function of converting the note plus data into a more general-purpose standard MIDI file. At this time, simply converting to a standard MIDI file may cause inconvenience as described later. Therefore, the conversion is performed in consideration of the transmission order as described above. Hereinafter, a method of converting the note plus data into the standard MIDI file in consideration of the transmission order of the note event and the lyrics event (phoneme sequence) will be described.

【0200】図25は、ノートプラスデータ75をスタ
ンダードMIDIファイル76に変換する方法を説明す
るための図である。
FIG. 25 is a diagram for explaining a method of converting the note plus data 75 into a standard MIDI file 76.

【0201】ノートプラスデータ75は、順にノートイ
ベントN1、歌詞イベントL1、デュレーションT2、
ノートイベントN2、歌詞イベントL2、デュレーショ
ンT3を有する。
The note plus data 75 includes a note event N1, a lyric event L1, a duration T2,
It has a note event N2, a lyrics event L2, and a duration T3.

【0202】ノートイベントN1は、ノートオンイベン
トNON1とゲートタイムGT1を有する。ノートオン
イベントNON1は、例えばノートナンバ(音高)、ベ
ロシティ(音量)を含む。ゲートタイムGT1は、ノー
トオンからノートオフまでの時間であり、例えば450
である。歌詞イベントL1は、音素列により構成され
る。ただし、呼気記号や漢字等は文字列として歌詞イベ
ントL1内に含まれる。
The note event N1 has a note-on event NON1 and a gate time GT1. The note-on event NON1 includes, for example, a note number (pitch) and a velocity (volume). The gate time GT1 is a time from note-on to note-off, for example, 450
It is. The lyrics event L1 is composed of a phoneme sequence. However, a breath symbol, a Chinese character, and the like are included in the lyrics event L1 as a character string.

【0203】ノートイベントN2は、ノートイベントN
1と同様に、ノートオンイベントNON2とゲートタイ
ムGT2を有する。ゲートタイムGT2は、例えば22
0である。歌詞イベントL2は、歌詞イベントL1と同
様に、音素列により構成される。
The note event N2 is the note event N
As in the case of No. 1, it has a note-on event NON2 and a gate time GT2. The gate time GT2 is, for example, 22
0. The lyric event L2 is composed of a phoneme sequence, like the lyric event L1.

【0204】デュレーションT2は、ノートオンイベン
トNON1の発音開始からノートオンイベントNON2
の発音開始までの時間であり、例えば480である。デ
ュレーションT3は、ノートオンイベントNON2の発
音開始から次のノートオンイベントの発音開始までの時
間であり、例えば240である。ゲートタイムやデュレ
ーションの値は、クロック数で表される。1クロック
は、例えば4分音符長の1/480の時間である。
The duration T2 is from the start of note-on event NON1 to the note-on event NON2.
, For example, 480. The duration T3 is a time from the start of sounding of the note-on event NON2 to the start of sounding of the next note-on event, and is, for example, 240. The values of the gate time and the duration are represented by the number of clocks. One clock is, for example, 1/480 of a quarter note length.

【0205】スタンダードMIDIファイル76は、M
IDI規格に適した汎用フォーマットのファイルであ
る。スタンダードMIDIファイル76は、デュレーシ
ョンとイベントの組で構成される。
The standard MIDI file 76 has M
This is a general-purpose format file suitable for the IDI standard. The standard MIDI file 76 includes a pair of a duration and an event.

【0206】スタンダードMIDIファイル76は、順
に、歌詞イベントL1、デュレーションTT1、ノート
オンイベントNON1、デュレーションTT2、ノート
オフイベントNOFF1、デュレーションTT3、歌詞
イベントL2、デュレーションTT4、ノートオンイベ
ントNON2、デュレーションTT5、ノートオフイベ
ントNOFF2、デュレーションTT6を有する。
The standard MIDI file 76 includes, in order, the lyrics event L1, the duration TT1, the note-on event NON1, the duration TT2, the note-off event NOFF1, the duration TT3, the lyrics event L2, the duration TT4, the note-on event NON2, the duration TT5, and the note. It has an off event NOFF2 and a duration TT6.

【0207】歌詞イベントL1及びノートオンイベント
NON1は、ノートプラスデータ75中の歌詞イベント
L1及びノートオンイベントNON1と同じであるが、
並び順が異なる。歌詞イベントL1をノートオンイベン
トNON1よりも先に送信することにより、図24
(A)のように正常な歌を歌わせることができる。
The lyrics event L1 and the note-on event NON1 are the same as the lyrics event L1 and the note-on event NON1 in the note plus data 75.
The order is different. By transmitting the lyric event L1 prior to the note-on event NON1, FIG.
A normal song can be sung as shown in FIG.

【0208】デュレーションTT1は、歌詞イベントL
1の送信からノートオンイベントNON1の送信までの
時間であり、例えば5である。歌詞イベントL1をノー
トオンイベントNON1よりも前のアドレスに位置する
のであれば、理論的にはデュレーションTT1は0でも
よいと考えることができる。
The duration TT1 is a lyrics event L
This is the time from the transmission of 1 to the transmission of the note-on event NON1, for example, 5. If the lyrics event L1 is located at an address before the note-on event NON1, the duration TT1 can theoretically be considered to be 0.

【0209】しかし、デュレーションTT1を0にする
と、スタンダードMIDIファイルを送信するパーソナ
ルコンピュータ1又はシーケンサによって送信順序が異
なることがある。すなわち、デュレーションTT1を0
にすると、歌詞イベントL1、ノートオンイベントNO
N1の順で送信されるとは限らず、ノートオンイベント
NON1、歌詞イベントL1の順で送信されることがあ
る。さらに、デュレーションTT1が0でなく、1又は
2であるときにも同様な現象が生じる。
However, when the duration TT1 is set to 0, the transmission order may differ depending on the personal computer 1 or the sequencer transmitting the standard MIDI file. That is, the duration TT1 is set to 0
Then, lyrics event L1, note-on event NO
The message is not always transmitted in the order of N1, but may be transmitted in the order of the note-on event NON1 and the lyrics event L1. Further, a similar phenomenon occurs when the duration TT1 is not 0 but 1 or 2.

【0210】これは、シーケンサ等が歌詞イベントL1
とノートオンイベントNON1との重要度を比較し、ノ
ートオンイベントNON1の重要度が高いと判断し、ノ
ートオンイベントNON1を歌詞イベントL1よりも先
に送信しているものと考えられる。なお、歌詞イベント
は、MIDI規格で決められたシステムエクスクルーシ
ブメッセージにより送信することができる。
[0210] This is because the sequencer or the like has a lyric event L1.
The importance of the note-on event NON1 is compared with that of the note-on event NON1, and it is determined that the importance of the note-on event NON1 is high, and the note-on event NON1 is transmitted before the lyrics event L1. The lyric event can be transmitted by a system exclusive message determined by the MIDI standard.

【0211】上記の弊害を防止するため、デュレーショ
ンTT1を5にする。デュレーションTT1は3以上が
好ましいが、値が大きすぎると前のイベントに悪影響を
与えることも考えられる。デュレーションTT1は、3
〜10が好ましい。ただし、これはクロックの音符分解
能が4分音符長の1/480の場合であって、音符分解
能が異なる場合は上記好ましい数値は他の値をとる。例
えば、クロックの音符分解能が4分音符の1/96であ
れば、1〜3程度が好ましい。
In order to prevent the above-mentioned problems, the duration TT1 is set to 5. Although the duration TT1 is preferably 3 or more, an excessively large value may adversely affect the previous event. Duration TT1 is 3
To 10 are preferred. However, this is the case where the note resolution of the clock is 1/480 of the quarter note length, and when the note resolution is different, the above preferred numerical value takes another value. For example, if the note resolution of the clock is 1 / 96th of a quarter note, about 1-3 is preferable.

【0212】デュレーションTT2は、ノートオンNO
N1からノートオフNOFF1までの時間であり、ノー
トプラスデータ75のゲートタイムGT1に相当し、例
えば450である。
The duration TT2 is a note-on NO
This is a time from N1 to note-off NOFF1, and corresponds to the gate time GT1 of the note plus data 75, for example, 450.

【0213】ノートプラスデータ75中のデュレーショ
ンT2は、ノートオンNON1から次のノートオンNO
N2までの時間であり、スタンダードMIDIファイル
76中のデュレーションTT2とTT3とTT4とに分
解される。
The duration T2 in the note plus data 75 is from the note on NON1 to the next note on NO.
This is the time until N2, which is decomposed into durations TT2, TT3 and TT4 in the standard MIDI file 76.

【0214】デュレーションTT2は、上記のように、
ノートプラスデータ75のゲートタイムGT1と同じく
450である。デュレーションTT4は、歌詞イベント
L2の送信からノートオンイベントNON2の送信まで
の時間であり、デュレーションTT1と同様に5であ
る。デュレーションTT3は、ノートオフイベントNO
FF1の送信から歌詞イベントL2の送信までの時間で
あり、TT3=T2−TT2−TT4で表される。すな
わち、TT3=480−450−5=25である。
The duration TT2 is, as described above,
It is 450 as in the gate time GT1 of the note plus data 75. The duration TT4 is the time from the transmission of the lyrics event L2 to the transmission of the note-on event NON2, and is 5 like the duration TT1. Duration TT3 is a note-off event NO
This is the time from the transmission of FF1 to the transmission of the lyrics event L2, and is represented by TT3 = T2-TT2-TT4. That is, TT3 = 480−450−5 = 25.

【0215】上記のように、歌詞イベントL1をノート
オンイベントNON1よりも前のアドレスに位置させ、
かつデュレーションTT1を5にすることにより、確実
に、歌詞イベントL1をノートオンイベントNON1よ
りも先に送信することができる。その際、ノートオンイ
ベントNON1のタイミングは変えずに、歌詞イベント
L1のタイミングを5だけ早めるので、ノートオンNO
N1による発音タイミングはずれることがない。
As described above, the lyric event L1 is located at the address before the note-on event NON1,
By setting the duration TT1 to 5, the lyric event L1 can be reliably transmitted earlier than the note-on event NON1. At this time, the timing of the lyric event L1 is advanced by 5 without changing the timing of the note-on event NON1, so that the note-on NO
There is no deviation of the sounding timing by N1.

【0216】また、ノートプラスデータ75をスタンダ
ードMIDIファイル76に変換することにより汎用性
が増し、他のシーケンサ等でも処理することが可能にな
ると共に、スタンダードMIDIファイル76をフロッ
ピディスク等でユーザに供給することが可能になる。
Further, by converting the note plus data 75 into a standard MIDI file 76, the versatility is increased, and processing can be performed by other sequencers, etc., and the standard MIDI file 76 is supplied to the user via a floppy disk or the like. It becomes possible to do.

【0217】図26(A)に示すように、スタンダード
MIDIファイル(SMF)変換手段81は、ノートプ
ラスデータ75をSMFデータ76に変換することがで
きる。パーソナルコンピュータ1は、SMF変換手段8
1において、ノートプラスデータ75をスタンダードM
IDIファイル76に変換し、外部記憶装置13にセー
ブすることができる。セーブされたスタンダードMID
Iファイル76は、他のパーソナルコンピュータやシー
ケンサ等で使用することができる。また、パーソナルコ
ンピュータ1がスタンダードMIDIファイル76を外
部音源装置21に送信すれば、外部音源装置21はスタ
ンダードMIDIファイル76に応じて発音処理を行
う。
As shown in FIG. 26A, the standard MIDI file (SMF) conversion means 81 can convert the note plus data 75 into SMF data. The personal computer 1 includes an SMF conversion unit 8
In step 1, note plus data 75 is standard M
It can be converted into an IDI file 76 and saved in the external storage device 13. Standard MID saved
The I file 76 can be used in another personal computer, sequencer, or the like. Further, when the personal computer 1 transmits the standard MIDI file 76 to the external tone generator 21, the external tone generator 21 performs sound generation processing according to the standard MIDI file 76.

【0218】また、図26(B)に示すように、ノート
プラス変換手段82は、SMFデータ76をノートプラ
スデータ75に変換することができる。パーソナルコン
ピュータ1は、外部記憶装置13に記憶されているスタ
ンダードMIDIファイル76をロードし、ノートプラ
ス変換手段82において、ノートプラスデータ75に変
換してRAM3に記憶することができる。この際、上記
ノートプラスデータ75をスタンダードMIDIファイ
ル76に変換したのとは逆に、ノートイベントとは独立
して記憶されている歌詞イベントを、1つのノートプラ
スイベントにまとめる処理を行う。まず、スタンダード
MIDIファイル中のデータを先頭から順次サーチし、
ノートオンイベントが見つかったら対応するノートオフ
イベントを探してゲートタイムを含む1つのノートオン
イベントを生成する。そして、該ノートオンイベントよ
りも5クロック前までに存在する歌詞イベントをサーチ
して、見つかった場合は、該歌詞イベントをノートオン
イベントに付加してノートオンイベントと歌詞イベント
を組にしたノートプラスイベントを生成する。操作者
は、上記に示したように、ノートプラスデータ75につ
いて、種々の編集を行うことができる。なお、ノートプ
ラスデータ75をスタンダードMIDIファイルに変換
する際の処理と同様の処理を、スタンダードMIDIフ
ァイル以外の比較的汎用性の高いデータ形式に変換する
場合に適用してもよい。
Further, as shown in FIG. 26B, the note-plus-conversion means 82 can convert the SMF data 76 into the note-plus data 75. The personal computer 1 can load the standard MIDI file 76 stored in the external storage device 13, convert the standard MIDI file 76 into note-plus data 75 in the note-plus conversion means 82, and store the converted data in the RAM 3. At this time, on the contrary to the conversion of the note plus data 75 into the standard MIDI file 76, a process of combining the lyrics events stored independently of the note events into one note plus event is performed. First, the data in the standard MIDI file is searched sequentially from the top,
When a note-on event is found, a corresponding note-off event is searched for to generate one note-on event including a gate time. The lyric event existing up to 5 clocks before the note-on event is searched, and if found, the lyric event is added to the note-on event, and a note-plus event that combines the note-on event and the lyric event is added. Generate an event. The operator can perform various edits on the note plus data 75 as described above. Note that a process similar to the process for converting the note plus data 75 into a standard MIDI file may be applied to a case where the data is converted into a relatively versatile data format other than the standard MIDI file.

【0219】なお、外部音源装置21内の音声合成回路
に音素列を発音させる場合に限定されない。音声合成回
路を含む音源ボードをパーソナルコンピュータ1に差し
込み、当該音源ボードに音素列を発音させてもよい。そ
の場合は、パーソナルコンピュータ1に外部音源装置2
1を接続する必要はない。
Note that the present invention is not limited to the case where the speech synthesis circuit in the external sound source device 21 produces a phoneme string. A sound source board including a voice synthesis circuit may be inserted into the personal computer 1, and the sound source board may emit a phoneme sequence. In that case, the personal computer 1 has the external tone generator 2
1 does not need to be connected.

【0220】本実施例による音声データ処理装置は、パ
ソコンとアプリケーションソフトウエアとによる形態に
限らず、電子楽器やシーケンサの形態でもよい。アプリ
ケーションソフトウエアは、磁気ディスク、光ディス
ク、半導体メモリ等の記憶媒体に記憶させ、パソコンに
供給するようにしてもよいし、ネットワークを介して供
給するようにしてもよい。
The audio data processing device according to the present embodiment is not limited to the form using a personal computer and application software, but may be an electronic musical instrument or a sequencer. The application software may be stored in a storage medium such as a magnetic disk, an optical disk, or a semiconductor memory and supplied to a personal computer, or may be supplied via a network.

【0221】音声データのフォーマットはスタンダード
MIDIファイルのような演奏イベントの発生時刻を1
つ前のイベントからの時間で表した「イベント+相対時
間」に限定されず、演奏イベントの発生時刻を曲や小節
内における絶対時間で表した「イベント+絶対時間」、
音符の音高と符長あるいは休符と休符長で演奏データを
表した「音高(休符)+符長」、演奏の最小分解能毎に
メモリの領域を確保し、演奏イベントの発生する時刻に
対応するメモリ領域に演奏イベントを記憶した「ベタ方
式」等の形式でもよい。
[0221] The format of the audio data is set to the occurrence time of a performance event such as a standard MIDI file by one.
The event is not limited to the “event + relative time” represented by the time from the previous event, but the “event + absolute time” that represents the occurrence time of the performance event in absolute time within the song or bar,
"Pitch (rest) + note length", which represents performance data in note pitch and note length or rest and rest length, secures a memory area for each minimum resolution of performance and generates performance events A format such as a “solid method” in which performance events are stored in a memory area corresponding to time may be used.

【0222】音声データは、複数のチャンネルのデータ
が混在した形式であってもよいし、各チャンネルのデー
タがトラック毎に別れているような形式であってもよ
い。
The audio data may be in a format in which data of a plurality of channels are mixed, or in a format in which data of each channel is separated for each track.

【0223】以上実施例に沿って本発明を説明したが、
本発明はこれらに制限されるものではない。例えば、種
々の変更、改良、組み合わせ等が可能なことは当業者に
自明であろう。
Although the present invention has been described in connection with the preferred embodiments,
The present invention is not limited to these. For example, it will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.

【0224】[0224]

【発明の効果】以上説明したように、本発明によれば、
仮名又は漢字等を含むテキストデータを処理することが
できるので、テキストデータの入力又は編集が簡単であ
る。仮名又は漢字が混在した既存のテキストデータを使
用することができる。
As described above, according to the present invention,
Since text data including kana or kanji can be processed, input or editing of text data is easy. Existing text data in which kana or kanji are mixed can be used.

【0225】また、ノートデータにテキストデータを割
り当てる際、カラオケ用のテキストデータにおいて、改
行マークと副改行マークの両方を区切りデータとして用
いることができる。
Further, when text data is assigned to note data, both the line feed mark and the sub line feed mark can be used as delimiter data in the text data for karaoke.

【0226】また、音声データを例えばスタンダードM
IDIファイル形式で扱うことが可能になるので、汎用
性が増すと共に、MIDI通信を行うことができる。
[0226] Also, the audio data is, for example, standard M
Since it can be handled in the IDI file format, versatility is increased and MIDI communication can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 パーソナルコンピュータと外部音源装置とが
接続されたシステムのハード構成を示す図である。
FIG. 1 is a diagram showing a hardware configuration of a system in which a personal computer and an external sound source device are connected.

【図2】 ノートイベントにテキストイベントを割り当
てる処理を示す図である。
FIG. 2 is a diagram illustrating a process of assigning a text event to a note event.

【図3】 テキストインポート処理を示すフローチャー
トである。
FIG. 3 is a flowchart illustrating a text import process.

【図4】 図3のステップSA9に示す読み仮名及びル
ビ処理の詳細を示すフローチャートである。
FIG. 4 is a flowchart showing details of the reading kana and ruby processing shown in step SA9 of FIG. 3;

【図5】 音素列変換処理を示すフローチャートであ
る。
FIG. 5 is a flowchart showing a phoneme string conversion process.

【図6】 空白行挿入処理を説明するための図である。FIG. 6 is a diagram for explaining a blank line insertion process.

【図7】 空白行挿入処理を示すフローチャートであ
る。
FIG. 7 is a flowchart showing a blank line insertion process.

【図8】 歌詞イベント挿入処理を説明するための図で
ある。
FIG. 8 is a diagram illustrating a lyric event insertion process.

【図9】 歌詞イベント挿入処理を示すフローチャート
である。
FIG. 9 is a flowchart showing lyrics event insertion processing.

【図10】 歌詞イベント削除処理を説明するための図
である。
FIG. 10 is a diagram illustrating a lyric event deletion process.

【図11】 歌詞イベント削除処理を示すフローチャー
トである。
FIG. 11 is a flowchart showing lyric event deletion processing.

【図12】 第1の歌詞自動割り当て処理を説明するた
めの図である。
FIG. 12 is a diagram for describing a first lyrics automatic assignment process.

【図13】 第1の歌詞自動割り当て処理を示すフロー
チャートである。
FIG. 13 is a flowchart showing a first automatic lyrics assigning process.

【図14】 空白行自動挿入処理を説明するための図で
ある。
FIG. 14 is a diagram illustrating a blank line automatic insertion process.

【図15】 空白行自動挿入処理を示すフローチャート
である。
FIG. 15 is a flowchart illustrating blank line automatic insertion processing.

【図16】 第2の歌詞自動割り当て処理を説明するた
めの図である。
FIG. 16 is a diagram illustrating a second automatic lyrics assigning process.

【図17】 第2の歌詞自動割り当て処理を示すフロー
チャートである。
FIG. 17 is a flowchart showing a second lyrics automatic assignment process.

【図18】 複数行併合処理を説明するための図であ
る。
FIG. 18 is a diagram for explaining a multiple-line merging process;

【図19】 複数行併合処理を示すフローチャートであ
る。
FIG. 19 is a flowchart showing a multiple row merging process.

【図20】 歌詞イベント分割処理を説明するための図
である。
FIG. 20 is a diagram illustrating a lyric event division process.

【図21】 歌詞イベント分割処理を示すフローチャー
トである。
FIG. 21 is a flowchart showing lyrics event division processing.

【図22】 仮名変換処理を説明するための図である。FIG. 22 is a diagram for explaining kana conversion processing.

【図23】 仮名変換処理を示すフローチャートであ
る。
FIG. 23 is a flowchart showing a kana conversion process.

【図24】 図24(A)は音素列、ノートオンの順序
で送信した場合の発音を示し、図24(B)はノートオ
ン、音素列の順序で送信した場合の発音を示す図であ
る。
FIG. 24 (A) shows a sound produced when transmitted in the order of a phoneme string and a note-on, and FIG. 24 (B) shows a sound produced when transmitted in the order of a note-on and a phoneme string. .

【図25】 ノートプラスデータとスタンダードMID
Iファイルとの間の変換を示す図である。
FIG. 25: Note Plus Data and Standard MID
It is a figure showing conversion to and from I file.

【図26】 図26(A)はスタンダードMIDIファ
イル変換手段を示し、図26(B)はノートプラス変換
手段を示す図である。
26A is a diagram illustrating a standard MIDI file conversion unit, and FIG. 26B is a diagram illustrating a note plus conversion unit.

【符号の説明】[Explanation of symbols]

1 パーソナルコンピュータ、 2 バス、 3
RAM、 4 ROM、 5 CPU、 6 タ
イマ、 7 表示回路、 8 MIDIインターフ
ェース、 9,11 検出回路、 10 マウス、
12 キーボード、 13 外部記憶装置、
14 通信インターフェース、 21外部音源装置、
22 バス、 23 MIDIインターフェー
ス、24 RAM、 25 ROM、 26 CP
U、 28 表示回路、29 楽音波形合成回路、
31 サウンドシステム、 32 音声合成回路、
33 検出回路、 34 スイッチ、 41
通信ネットワーク、 42 サーバコンピュータ、
51 演奏データ、 52 テキストデータ、
53 ノートプラスデータ、 75 ノートプラスデ
ータ、76 スタンダードMIDIファイル、 81
スタンダードMIDIファイル変換手段、 82
ノートプラス変換手段
1 personal computer, 2 bus, 3
RAM, 4 ROM, 5 CPU, 6 timer, 7 display circuit, 8 MIDI interface, 9, 11 detection circuit, 10 mouse,
12 keyboard, 13 external storage device,
14 communication interface, 21 external sound source device,
22 bus, 23 MIDI interface, 24 RAM, 25 ROM, 26 CP
U, 28 display circuit, 29 musical tone waveform synthesis circuit,
31 sound system, 32 voice synthesis circuit,
33 detection circuit, 34 switch, 41
Communication network, 42 server computers,
51 performance data, 52 text data,
53 Note Plus Data, 75 Note Plus Data, 76 Standard MIDI File, 81
Standard MIDI file conversion means, 82
Note Plus conversion means

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】 文字列を含むテキストデータと、音符単
位のデータを含むノートデータとを記憶する記憶手段
と、 複数種類の文字を、文字列の区切りを示す区切りデータ
として、前記テキストデータ中に含まれる文字列の中か
ら検索し、該検索された文字で区切られる文字列を、前
記ノートデータ中の1音符のデータに割り当てて音声デ
ータを生成する生成手段とを有する音声データ処理装
置。
1. A storage means for storing text data including a character string and note data including data in note units, wherein a plurality of types of characters are included in the text data as delimiter data indicating a delimitation of a character string. A sound data processing device comprising: a search unit that searches from included character strings and assigns a character string delimited by the searched character to data of one note in the note data to generate audio data.
【請求項2】 文字列を含むテキストデータと、音符単
位のデータを含むノートデータとを記憶する記憶手段
と、 複数種類の文字を、呼気記号として、前記テキストデー
タ中に含まれる文字列の中から検索し、該検索された文
字で区切られる文字列に呼気マークを付加し、前記ノー
トデータ中の1音符のデータに割り当てて音声データを
生成する生成手段とを有する音声データ処理装置。
2. A storage means for storing text data including a character string and note data including data in musical note units, wherein a plurality of types of characters are used as breath symbols in the character string included in the text data. And a generating means for generating a voice data by adding a breath mark to a character string delimited by the searched character and assigning it to data of one note in the note data.
【請求項3】 非仮名とその読み仮名又はルビが対にな
ったデータを含むテキストデータと音符単位のデータを
含むノートデータとを記憶する記憶手段と、 前記テキストデータ中の非仮名を破棄してその読み仮名
又はルビのみを前記ノートデータ中の音符のデータに割
り当てて音声データを生成する生成手段とを有する音声
データ処理装置。
3. A storage means for storing text data including data in which a non-kana character and its reading kana or ruby are paired, and note data including data in note units, discarding the non-kana characters in the text data. Generating means for generating audio data by assigning only the reading kana or ruby to note data in the note data.
【請求項4】 テキストデータとノートデータとが組に
なった音声データを記憶する記憶手段と、 前記テキストデータとノートデータとの組み合わせを変
更して書き込みを行う変更手段とを有する音声データ処
理装置。
4. An audio data processing device comprising: storage means for storing audio data in which text data and note data are paired; and changing means for changing the combination of the text data and note data for writing. .
【請求項5】 複数の文字からなる文字列を含むテキス
トデータと音符単位のデータを含むノートデータを記憶
する記憶手段と、 前記テキストデータ中の1文字を前記ノートデータ中の
1音符のデータに割り当てて音声データを生成する生成
手段とを有する音声データ処理装置。
5. A storage unit for storing text data including a character string composed of a plurality of characters and note data including data in note units, and converting one character in the text data into one note data in the note data. Generating means for generating voice data by allocating the voice data.
【請求項6】 第1の文字列データと第1のノートデー
タとが組になった第1のデータとそれに続く第2の文字
列データと第2のノートデータとが組になった第2のデ
ータを記憶する記憶手段と、 前記第1の文字列データ中の分割位置を指定する指定手
段と、 前記第1の文字列データを前記分割位置で2つに分割
し、後部の文字列データを前記第2の文字列データに併
合する処理手段とを有する音声データ処理装置。
6. A first data in which a first character string data and a first note data are paired, and a second data in which a subsequent second character string data and a second note data are paired. Storage means for storing data of the first character string data; designation means for designating a division position in the first character string data; and dividing the first character string data into two at the division position, Processing means for merging the second character string data with the second character string data.
【請求項7】 文字データとノートデータとが組になっ
た音声データを記憶する記憶手段と、 前記文字データが漢字、英数字又は記号であるときには
該文字データを発音するための仮名の候補を提示する提
示手段と、 前記仮名の候補の中から1つの仮名を指定し、前記文字
データを該仮名に変更して前記記憶手段に記憶させる変
更手段とを有する音声データ処理装置。
7. A storage means for storing voice data in which character data and note data are paired, and if the character data is a kanji, an alphanumeric character or a symbol, a kana candidate for pronouncing the character data is stored. An audio data processing apparatus comprising: a presenting means for presenting; and a changing means for designating one kana from the kana candidates, changing the character data to the kana, and storing the data in the storage.
【請求項8】 歌詞データとノートデータとが組になっ
た形式の音声データを記憶する記憶手段と、 ノートデータの微小タイミング前に該ノートデータと組
になった歌詞データが位置するように、前記音声データ
を変換して、歌詞データとノートデータとが独立した形
式の音声データとして記録する記録手段とを有する音声
データ処理装置。
8. A storage means for storing voice data in a format in which lyrics data and note data are paired, and wherein the lyrics data paired with the note data is located a minute before the note data. Recording means for converting the voice data and recording the lyrics data and the note data as voice data in an independent format.
【請求項9】 歌詞データとノートデータとが独立した
形式の音声データであって、ノートデータの微小タイミ
ング前に該ノートデータと組になった歌詞データが位置
する音声データを記憶する記憶手段と、 前記音声データを記憶手段から読み出して、前記歌詞デ
ータとノートデータとを組にした形式の音声データを生
成する生成手段とを有する音声データ処理装置。
9. A storage means for storing audio data in which lyrics data and note data are independent from each other, and wherein the lyrics data paired with the note data is located a minute before the note data. An audio data processing device comprising: a generation unit configured to read the audio data from a storage unit and generate audio data in a format in which the lyrics data and the note data are combined.
【請求項10】 文字列を含むテキストデータと、音符
単位のデータを含むノートデータを処理するコンピュー
タプログラムの記録媒体であって、 複数種類の文字を、文字列の区切りを示す区切りデータ
として、前記テキストデータ中に含まれる文字列の中か
ら検索し、該検索された文字で区切られる文字列を、前
記ノートデータ中の1音符のデータに割り当てて音声デ
ータを生成する手順をコンピュータに実行させるための
プログラムを記録した媒体。
10. A recording medium of a computer program for processing text data including a character string and note data including data in musical note units, wherein a plurality of types of characters are used as delimiter data indicating a delimiter of a character string. To cause a computer to execute a procedure of searching a character string included in text data and assigning a character string delimited by the searched character to data of one note in the note data to generate voice data. A medium that records the program.
【請求項11】 文字列を含むテキストデータと、音符
単位のデータを含むノートデータを処理するコンピュー
タプログラムの記録媒体であって、 複数種類の文字を、呼気記号として、前記テキストデー
タ中に含まれる文字列の中から検索し、該検索された文
字で区切られる文字列に呼気マークを付加し、前記ノー
トデータ中の1音符のデータに割り当てて音声データを
生成する手順をコンピュータに実行させるためのプログ
ラムを記録した媒体。
11. A recording medium for a computer program for processing text data including a character string and note data including note-by-note data, wherein a plurality of types of characters are included in the text data as breath symbols. A process for searching a character string, adding a breath mark to a character string delimited by the searched character, and assigning the character to data of one note in the note data to generate voice data, and causing the computer to execute the procedure. Medium on which program is recorded.
【請求項12】 非仮名とその読み仮名又はルビが対に
なったデータを含むテキストデータと音符単位のデータ
を含むノートデータを処理するコンピュータプログラム
の記録媒体であって、 前記テキストデータ中の非仮名を破棄してその読み仮名
又はルビのみを前記ノートデータ中の音符のデータに割
り当てて音声データを生成する手順をコンピュータに実
行させるためのプログラムを記録した媒体。
12. A recording medium of a computer program for processing text data including data in which a non-kana character and its reading kana or ruby are paired and note data including data in note units, wherein A medium in which a program for causing a computer to execute a procedure of discarding kana and assigning only the reading kana or ruby to note data in the note data to generate audio data is recorded.
【請求項13】 (a)テキストデータとノートデータ
とが組になった音声データを読み出す手順と、 (b)前記テキストデータとノートデータとの組み合わ
せを変更して書き込みを行う手順とをコンピュータに実
行させるためのプログラムを記録した媒体。
13. A computer comprising: (a) a step of reading audio data in which text data and note data are paired; and (b) a step of writing by changing the combination of the text data and note data. A medium that stores a program to be executed.
【請求項14】 (a)複数の文字からなる文字列を含
むテキストデータと音符単位のデータを含むノートデー
タを読み出す手順と、 (b)前記テキストデータ中の1文字を前記ノートデー
タ中の1音符のデータに割り当てて音声データを生成す
る手順とをコンピュータに実行させるためのプログラム
を記録した媒体。
14. A procedure for reading (a) text data including a character string composed of a plurality of characters and note data including data in note units; and (b) replacing one character in the text data with one in the note data. A medium for recording a program for causing a computer to execute a procedure of generating audio data by assigning to note data.
【請求項15】 第1の文字列データと第1のノートデ
ータとが組になった第1のデータとそれに続く第2の文
字列データと第2のノートデータとが組になった第2の
データを処理するコンピュータプログラムの記録媒体で
あって、 (a)前記第1の文字列データ中の分割位置を特定する
手順と、 (b)前記第1の文字列データを前記分割位置で2つに
分割し、後部の文字列データを前記第2の文字列データ
に併合する手順とをコンピュータに実行させるためのプ
ログラムを記録した媒体。
15. A first data in which first character string data and first note data are paired, and a second data in which subsequent second character string data and second note data are paired. (A) a step of specifying a division position in the first character string data; and (b) a step of dividing the first character string data by two in the division position. And a program for causing a computer to execute a procedure of dividing the second character string data into the second character string data.
【請求項16】 文字データとノートデータとが組にな
った音声データを処理するコンピュータプログラムの記
録媒体であって、 (a)前記文字データが漢字、英数字又は記号であると
きには該文字データを発音するための仮名の候補を提示
する手順と、 (b)前記仮名の候補の中から1つの仮名を指定し、前
記文字データを該仮名に変更して書き込みを行う手順と
をコンピュータに実行させるためのプログラムを記録し
た媒体。
16. A recording medium for a computer program for processing voice data in which character data and note data are combined, wherein (a) when the character data is a kanji, an alphanumeric character or a symbol, the character data is Causing the computer to execute a procedure of presenting a candidate kana for pronunciation, and (b) designating one kana from the kana candidates, changing the character data to the kana, and writing. Recording a program for the computer.
【請求項17】 (a)歌詞データとノートデータとが
組になった音声データを読み出す手順と、 (b)ノートデータの微小タイミング前に該ノートデー
タと組になった歌詞データが位置するように、前記音声
データを変換して、歌詞データとノートデータとが独立
した形式の音声データとして記録する手順とをコンピュ
ータに実行させるためのプログラムを記録した媒体。
(A) a procedure for reading out audio data in which lyric data and note data are paired; and (b) a lyric data paired with the note data is positioned a minute before the note data. A program for causing a computer to execute a procedure of converting the audio data and recording the lyrics data and the note data as audio data in an independent format.
【請求項18】 (a)歌詞データとノートデータとが
独立した形式の音声データであって、該ノートデータの
微小タイミング前に該ノートデータと組になった歌詞デ
ータが位置する音声データを読み出す手順と、 (b)前記音声データを基に前記歌詞データとノートデ
ータとを組にした形式の音声データを生成する手順とを
コンピュータに実行させるためのプログラムを記録した
媒体。
(A) reading out audio data in which the lyrics data and the note data are independent audio data and the lyrics data paired with the note data is located a minute before the note data; A medium for recording a program for causing a computer to execute a procedure and (b) a procedure of generating audio data in a form of a set of the lyrics data and the note data based on the audio data.
JP14852297A 1997-05-22 1997-05-22 Audio data processing device and medium recording data processing program Expired - Fee Related JP3405123B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14852297A JP3405123B2 (en) 1997-05-22 1997-05-22 Audio data processing device and medium recording data processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14852297A JP3405123B2 (en) 1997-05-22 1997-05-22 Audio data processing device and medium recording data processing program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2002325914A Division JP4148755B2 (en) 2002-11-08 2002-11-08 Audio data processing apparatus and medium on which data processing program is recorded

Publications (2)

Publication Number Publication Date
JPH10319955A true JPH10319955A (en) 1998-12-04
JP3405123B2 JP3405123B2 (en) 2003-05-12

Family

ID=15454666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14852297A Expired - Fee Related JP3405123B2 (en) 1997-05-22 1997-05-22 Audio data processing device and medium recording data processing program

Country Status (1)

Country Link
JP (1) JP3405123B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004084174A1 (en) * 2003-03-20 2004-09-30 Sony Corporation Singing voice synthesizing method, singing voice synthesizing device, program, recording medium, and robot
WO2004084175A1 (en) * 2003-03-20 2004-09-30 Sony Corporation Singing voice synthesizing method, singing voice synthesizing device, program, recording medium, and robot
JP2005004107A (en) * 2003-06-13 2005-01-06 Sony Corp Singing voice synthesis method, singing voice synthesis device, program, recording medium, and robot apparatus
JP2005208394A (en) * 2004-01-23 2005-08-04 Yamaha Corp Singing voice generating unit, its program and portable communication equipment having singing voice generating function
US7230177B2 (en) 2002-11-19 2007-06-12 Yamaha Corporation Interchange format of voice data in music file
JP2011221085A (en) * 2010-04-05 2011-11-04 Yamaha Corp Information editing device

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7230177B2 (en) 2002-11-19 2007-06-12 Yamaha Corporation Interchange format of voice data in music file
WO2004084174A1 (en) * 2003-03-20 2004-09-30 Sony Corporation Singing voice synthesizing method, singing voice synthesizing device, program, recording medium, and robot
WO2004084175A1 (en) * 2003-03-20 2004-09-30 Sony Corporation Singing voice synthesizing method, singing voice synthesizing device, program, recording medium, and robot
JP2004287097A (en) * 2003-03-20 2004-10-14 Sony Corp Method and apparatus for singing synthesis, program, recording medium, and robot device
US7183482B2 (en) 2003-03-20 2007-02-27 Sony Corporation Singing voice synthesizing method, singing voice synthesizing device, program, recording medium, and robot apparatus
US7189915B2 (en) 2003-03-20 2007-03-13 Sony Corporation Singing voice synthesizing method, singing voice synthesizing device, program, recording medium, and robot
JP2005004107A (en) * 2003-06-13 2005-01-06 Sony Corp Singing voice synthesis method, singing voice synthesis device, program, recording medium, and robot apparatus
JP2005208394A (en) * 2004-01-23 2005-08-04 Yamaha Corp Singing voice generating unit, its program and portable communication equipment having singing voice generating function
JP2011221085A (en) * 2010-04-05 2011-11-04 Yamaha Corp Information editing device

Also Published As

Publication number Publication date
JP3405123B2 (en) 2003-05-12

Similar Documents

Publication Publication Date Title
US6424944B1 (en) Singing apparatus capable of synthesizing vocal sounds for given text data and a related recording medium
US5857171A (en) Karaoke apparatus using frequency of actual singing voice to synthesize harmony voice from stored voice information
KR100187960B1 (en) System and method for processing music data
US5747715A (en) Electronic musical apparatus using vocalized sounds to sing a song automatically
JP6465136B2 (en) Electronic musical instrument, method, and program
Kirk et al. Digital sound processing for music and multimedia
JP2000194360A (en) Method and device for electronically generating sound
JP4929604B2 (en) Song data input program
JP3405123B2 (en) Audio data processing device and medium recording data processing program
JP4821801B2 (en) Audio data processing apparatus and medium recording program
JP3518253B2 (en) Data editing device
JP2002278548A (en) Lyric writing and composing system and program
JP4148755B2 (en) Audio data processing apparatus and medium on which data processing program is recorded
JP2002278549A (en) Lyric writing and composing system and program
JP4821802B2 (en) Audio data processing apparatus and medium recording program
JPH08160975A (en) Karaoke music selecting device
JP6774889B2 (en) Karaoke equipment, programs
JP2003099048A (en) Device and program for lyrics writing and music composition
JP2002221978A (en) Vocal data forming device, vocal data forming method and singing tone synthesizer
JP3793041B2 (en) Lyric data processing device and auxiliary data processing device
JP2002182675A (en) Speech synthesizer, vocal data former and singing apparatus
JP3409644B2 (en) Data editing device and medium recording data editing program
JPH04331990A (en) Voice electronic musical instrument
JP3173310B2 (en) Harmony generator
JP2004258561A (en) Program and device for inputting data for singing synthesis

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030204

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090307

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090307

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100307

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110307

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110307

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120307

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees