JP4821801B2 - Audio data processing apparatus and medium recording program - Google Patents

Audio data processing apparatus and medium recording program Download PDF

Info

Publication number
JP4821801B2
JP4821801B2 JP2008134550A JP2008134550A JP4821801B2 JP 4821801 B2 JP4821801 B2 JP 4821801B2 JP 2008134550 A JP2008134550 A JP 2008134550A JP 2008134550 A JP2008134550 A JP 2008134550A JP 4821801 B2 JP4821801 B2 JP 4821801B2
Authority
JP
Japan
Prior art keywords
data
note
character
event
kana
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008134550A
Other languages
Japanese (ja)
Other versions
JP2008233930A (en
Inventor
アユミ 深田
成彦 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2008134550A priority Critical patent/JP4821801B2/en
Publication of JP2008233930A publication Critical patent/JP2008233930A/en
Application granted granted Critical
Publication of JP4821801B2 publication Critical patent/JP4821801B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an audio processing apparatus capable of easily editing audio data. <P>SOLUTION: The audio data processing apparatus has a storage means of storing a plurality of data wherein character data and note data are paired; a display means of displaying the pairs of character data and note data in display units of the note data; a specifying means of specifying an insertion position where insertion of blanks is started and the number of blanks for each display unit; a buffer means of temporarily storing character data after the specified insertion position; an erasing means of erasing the character data after the specified insertion position; and an allocating means for allocating the temporarily stored character data sequentially to the note data from note data corresponding to the display unit position for the specified number of blanks apart from the specified insertion position. <P>COPYRIGHT: (C)2009,JPO&amp;INPIT

Description

本発明は、音声データ処理技術に関し、特に音声発音装置に音声を発音させるための音声データの処理技術に関する。   The present invention relates to a voice data processing technique, and more particularly to a voice data processing technique for causing a voice sounding device to sound a voice.

音声発音装置に供給する音声データの処理を行うことができる音声データ処理装置が知られている。音声発音装置は、例えばフォルマント音源等の音声合成回路を備えている。フォルマント音源は、音声を周波数解析することにより形成されるフォルマントを合成することにより音声信号を生成する。   2. Description of the Related Art An audio data processing device that can process audio data supplied to a sound generation device is known. The voice sound generation device includes a voice synthesis circuit such as a formant sound source. The formant sound source generates a sound signal by synthesizing formants formed by frequency analysis of sound.

音節は、いわゆる50音のうちの1音等であり、例えば「か」である。音節は、時間軸上の音素列に分解することができる。例えば、音節「か」は、音素列「CL(7.5ms)+kha(4×7.5ms)+aj(無限長)」に分解することができる。音素は、例えば「CL」、「kha」、「aj」である。フォルマント音源は、音素列を入力することにより音声信号を生成する。   The syllable is one of 50 so-called sounds, for example, “ka”. Syllables can be broken down into phoneme sequences on the time axis. For example, the syllable “ka” can be decomposed into a phoneme string “CL (7.5 ms) + kha (4 × 7.5 ms) + aj (infinite length)”. The phonemes are, for example, “CL”, “kha”, and “aj”. The formant sound source generates a speech signal by inputting a phoneme string.

従来技術による音声データ処理装置として、特開平9−50287号公報や特開平9−44179号公報が知られている。これらは、メロディデータと歌詞データをメモリに記憶し、両方のデータをメモリから順次読み出し、フォルマント音源へ供給する。フォルマント音源は、データを受けて歌声を発生する。   JP-A-9-50287 and JP-A-9-44179 are known as audio data processing apparatuses according to the prior art. They store melody data and lyric data in a memory, sequentially read both data from the memory, and supply them to a formant sound source. The formant sound source receives the data and generates a singing voice.

データ処理装置として、音節の編集を行うことができるワードプロセッサが知られている。しかし、音素の編集を行うことができるデータ処理装置がないため、音声データはマニュアル設定を行っていた。   A word processor capable of editing a syllable is known as a data processing device. However, since there is no data processing device capable of editing phonemes, audio data has been set manually.

特開平9−50287号公報のデータ処理装置は、歌詞データをローマ字表記で入力する必要があり、仮名又は漢字等を使うことができないため、歌詞データの入力又は編集が不便である。例えば、仮名又は漢字が混在した既存の歌詞データを使用することができない。 The data processing apparatus disclosed in Japanese Patent Application Laid-Open No. 9-50287 is inconvenient to input or edit the lyrics data because it is necessary to input the lyrics data in Roman letters and cannot use kana or kanji. For example, existing lyrics data in which kana or kanji are mixed cannot be used.

また、各音符に歌詞データを割り当てるため、歌詞データ中に音符の区切り(歌詞区切り)記号を設ける必要があるが、歌詞区切りは1つの記号(例えばスペース「_」)のみに限定されている。そのため、改行マーク(歌詞表示画面上において改行をする位置を示すマーク)と副改行マーク(通常は利用されないが、表示スペースが小さい等の表示器の都合により前記改行マークまでの歌詞が1行に入りきらない場合に、改行マークよりも前で改行する位置を示すマーク)の2種類の改行マークが含まれているカラオケ用の歌詞データにおいて、改行マークのみを歌詞区切りとして用いることは可能であっても、改行マークと副改行マークの両方を歌詞区切りとして用いることはできない。   In addition, in order to assign lyric data to each note, it is necessary to provide a note delimiter (lyric delimiter) symbol in the lyric data, but the lyric delimiter is limited to only one symbol (for example, space “_”). Therefore, a line feed mark (a mark indicating the position where a line break is to be made on the lyrics display screen) and a sub line feed mark (usually not used, but the lyrics up to the line feed mark are combined into one line due to the convenience of a display device such as a small display space. In the case of karaoke lyrics data that includes two types of line feed marks (a mark indicating the position where a line breaks before the line feed mark), it is possible to use only the line feed mark as a lyric separator. However, it is not possible to use both a line feed mark and a secondary line feed mark as lyrics delimiters.

さらに、歌詞データ等は、独自のデータフォーマットを有しており、歌詞データの再生装置として専用の装置が必要となり、一般的なシーケンサ等での再生ができない。   Furthermore, the lyrics data has an original data format, and a dedicated device is required as a playback device for the lyrics data, and cannot be played back by a general sequencer or the like.

本発明の目的は、仮名等を含むテキストデータを処理することができる音声データ処理装置又はコンピュータプログラムの記録媒体を提供することである。   An object of the present invention is to provide an audio data processing apparatus or a computer program recording medium capable of processing text data including kana and the like.

本発明の他の目的は、音声データの編集を容易に行うことができる音声データ処理装置又はコンピュータプログラムの記録媒体を提供することである。   Another object of the present invention is to provide an audio data processing apparatus or a computer program recording medium capable of easily editing audio data.

本発明の他の目的は、汎用性のある音声データを処理することができる音声データ処理装置又はコンピュータプログラムの記録媒体を提供することである。   Another object of the present invention is to provide an audio data processing apparatus or a computer program recording medium capable of processing versatile audio data.

本発明の一観点によれば、音声データ処理装置は、文字データとノートデータとが組になったデータを複数記憶する記憶手段と、前記文字データとノートデータとの組をノートデータを表示単位として表示する表示手段と、前記表示単位で空白を挿入開始する挿入位置と挿入する空白数を指定する指定手段と、前記指定された挿入位置以降の文字データを一時的に記憶するバッファ手段と、前記指定された挿入位置以降の文字データを消去する消去手段と、前記指定された挿入位置から前記指定された空白数分離間した前記表示単位位置に相当するノートデータから前記一時的に記憶された文字データを順次ノートデータに割り付ける割付手段とを有する。   According to an aspect of the present invention, an audio data processing device includes a storage unit that stores a plurality of sets of character data and note data, and a set of the character data and note data in units of display of note data. Display means for displaying as, a designation means for designating the insertion position and the number of blanks to be inserted in the display unit, a buffer means for temporarily storing character data after the designated insertion position, Erase means for erasing character data after the designated insertion position, and temporarily stored from the note data corresponding to the display unit position separated by the designated number of blanks from the designated insertion position Allocating means for sequentially allocating character data to note data.

本発明の他の観点によれば、音声データ処理装置は、文字データとノートデータとが組になったデータを複数記憶する記憶手段と、前記文字データとノートデータとの組をノートデータを表示単位として表示する表示手段と、前記表示単位で複製又は挿入する文字データの範囲と挿入開始する挿入位置とを指定する指定手段と、前記指定された範囲の文字データを一時的に記憶する第1のバッファ手段と、前記指定された挿入位置以降の文字データを一時的に記憶する第2のバッファ手段と、前記指定された挿入位置から前記第1のバッファ手段に一時的に記憶された前記指定された範囲の文字データを順次ノートデータに割り付ける第1の割付手段と、前記指定された挿入位置から前記指定された表示単位数分離間した前記表示単位位置に相当するノートデータから前記第2のバッファ手段に一時的に記憶された文字データを順次ノートデータに割り付ける第2の割付手段とを有する。   According to another aspect of the present invention, an audio data processing device stores a plurality of data in which character data and note data are combined, and displays the combination of the character data and note data as note data. Display means for displaying as a unit; designation means for designating a range of character data to be copied or inserted in the display unit; and an insertion position for starting insertion; and first data for temporarily storing character data in the designated range. Buffer means; second buffer means for temporarily storing character data after the designated insertion position; and the designation temporarily stored in the first buffer means from the designated insertion position. First assigning means for sequentially assigning the character data in the designated range to the note data, and the display unit position separated from the designated insertion position by the designated number of display units. And a second allocation unit for allocating a sequential note data character data temporarily stored in the second buffer means from those for note data.

本発明の他の観点によれば、音声データ処理装置は、第1の文字列データと第1のノートデータとが組になった第1のデータとそれに続く第2の文字列データと第2のノートデータとが組になった第2のデータを記憶する記憶手段と、前記第1の文字列データ中の分割位置を指定する指定手段と、前記第1の文字列データを前記分割位置で2つに分割し、後部の文字列データを前記第2の文字列データに追加して、前記第2のノートデータに割り付ける処理手段とを有する。
According to another aspect of the present invention, an audio data processing device includes first data in which first character string data and first note data are paired, followed by second character string data and second data. Storage means for storing the second data paired with the note data, designation means for designating the division position in the first character string data, and the first character string data at the division position. And a processing unit that divides the data into two parts, adds the character string data at the rear part to the second character string data, and assigns the data to the second note data .

本発明の他の観点によれば、音声データ処理装置は、文字データとノートデータとが組になった音声データを記憶する記憶手段と、前記文字データが漢字、英数字又は記号であるときには該文字データを発音するための仮名の候補を提示する提示手段と、前記仮名の候補の中から1つの仮名を指定し、前記文字データを該仮名の文字列に変更して前記記憶手段に記憶させる変更手段と、前記変更した仮名の文字列を前記変更前の文字データと組とされたノートデータに割り当てる手段とを有する。   According to another aspect of the present invention, the speech data processing device includes storage means for storing speech data in which character data and note data are combined, and when the character data is kanji, alphanumeric characters or symbols, Presenting means for presenting candidates for kana to pronounce character data, and specifying one kana among the kana candidates, changing the character data to a character string of the kana and storing it in the storage means Changing means and means for assigning the changed character string of the kana to the note data paired with the character data before the change.

本発明によれば、仮名又は漢字等を含むテキストデータを処理することができるので、テキストデータの入力又は編集が簡単である。仮名又は漢字が混在した既存のテキストデータを使用することができる。   According to the present invention, since text data including kana or kanji can be processed, it is easy to input or edit text data. Existing text data in which kana or kanji are mixed can be used.

また、ノートデータにテキストデータを割り当てる際、カラオケ用のテキストデータにおいて、改行マークと副改行マークの両方を区切りデータとして用いることができる。   In addition, when text data is assigned to note data, both line feed marks and sub line feed marks can be used as delimiter data in karaoke text data.

また、音声データを例えばスタンダードMIDIファイル形式で扱うことが可能になるので、汎用性が増すと共に、MIDI通信を行うことができる。   Further, since it becomes possible to handle audio data in, for example, a standard MIDI file format, versatility is increased and MIDI communication can be performed.

図1は、パーソナルコンピュータ1と外部音源装置21との接続を示す図である。パーソナルコンピュータ1は、本実施例による音声データ処理装置を含む。パーソナルコンピュータ1は、シーケンサでもよい。   FIG. 1 is a diagram showing the connection between the personal computer 1 and the external sound source device 21. The personal computer 1 includes an audio data processing device according to this embodiment. The personal computer 1 may be a sequencer.

まず、外部音源装置21の構成を説明する。検出回路33は、スイッチ34の操作を検出し、スイッチ信号を生成する。スイッチ34は、例えば各種パラメータを設定するためのスイッチを含む。   First, the configuration of the external sound source device 21 will be described. The detection circuit 33 detects the operation of the switch 34 and generates a switch signal. The switch 34 includes a switch for setting various parameters, for example.

バス22には、検出回路33の他、RAM24、ROM25、CPU26、表示回路28、MIDIインターフェース23、音声合成回路32、楽音波形合成回路29が接続される。   In addition to the detection circuit 33, a RAM 24, a ROM 25, a CPU 26, a display circuit 28, a MIDI interface 23, a voice synthesis circuit 32, and a musical sound waveform synthesis circuit 29 are connected to the bus 22.

ROM25は、音声を合成するためのフォルマントデータ、その他の各種データ及びコンピュータプログラムを記憶する。RAM24は、フラグ、バッファ等を記憶する。コンピュータプログラムは、ROM25に記憶させる代わりに、RAM24に記憶させてもよい。CPU26は、ROM25又はRAM24に記憶されているコンピュータプログラムに従い、演算または制御を行う。   The ROM 25 stores formant data for synthesizing speech, other various data, and computer programs. The RAM 24 stores flags, buffers, and the like. The computer program may be stored in the RAM 24 instead of being stored in the ROM 25. The CPU 26 performs calculation or control according to a computer program stored in the ROM 25 or RAM 24.

CPU26は、MIDIインターフェース23を介してパーソナルコンピュータ1から受信した演奏データに基づいて楽音パラメータを生成し、楽音波形合成回路29に供給する。楽音波形合成回路29は、供給される楽音パラメータに応じて楽音信号を生成し、サウンドシステム31に供給する。サウンドシステム31は、D/A変換器およびスピーカを含み、供給されるデジタル形式の楽音信号をアナログ形式に変換し、発音する。   The CPU 26 generates musical tone parameters based on performance data received from the personal computer 1 via the MIDI interface 23 and supplies the musical tone parameters to the musical sound waveform synthesis circuit 29. The musical sound waveform synthesis circuit 29 generates a musical sound signal according to the supplied musical sound parameter and supplies it to the sound system 31. The sound system 31 includes a D / A converter and a speaker, converts a digital musical tone signal supplied to an analog format and generates a sound.

なお、楽音波形合成回路29は、波形メモリ方式、FM方式、物理モデル方式、高調波合成方式、フォルマント合成方式、VCO+VCF+VCAのアナログシンセサイザ方式等、どのような方式であってもよい。   The musical sound waveform synthesizing circuit 29 may be of any system such as a waveform memory system, FM system, physical model system, harmonic synthesis system, formant synthesis system, VCO + VCF + VCA analog synthesizer system, or the like.

MIDIインターフェース23は、パーソナルコンピュータ1のMIDIインターフェース8にMIDIケーブルで接続される。外部音源装置21とパーソナルコンピュータ1は、MIDI通信を行うことができる。   The MIDI interface 23 is connected to the MIDI interface 8 of the personal computer 1 with a MIDI cable. The external sound source device 21 and the personal computer 1 can perform MIDI communication.

CPU26は、MIDIインターフェース23を介して、パーソナルコンピュータ1から音声データを受け取り、RAM24に格納する。音声データは、ノート(音符)データと歌詞データを含む。   The CPU 26 receives audio data from the personal computer 1 via the MIDI interface 23 and stores it in the RAM 24. The voice data includes note (note) data and lyrics data.

CPU26は、RAM24に記憶されている音声データを読み出し、ROM25に記憶されているフォルマントデータ等に基づき、フォルマントデータやノートナンバ(音高)等を音声合成回路32に供給する。フォルマントデータは、例えばフォルマント中心周波数データ、フォルマントバンド幅データ、フォルマントレベルデータ等である。   The CPU 26 reads out voice data stored in the RAM 24 and supplies formant data, note numbers (pitch) and the like to the voice synthesis circuit 32 based on the formant data stored in the ROM 25. The formant data is, for example, formant center frequency data, formant bandwidth data, formant level data, and the like.

音声合成回路32は、供給されるフォルマントデータ等に応じて音声信号を生成する。音声信号は、所定の音高を有し、歌声に相当する。音声合成回路32は、フォルマント合成方式(フォルマント音源)でもよいし、その他の方式でもよい。なお、音声合成回路32の方式がフォルマント合成方式以外の場合は、供給するデータもフォルマントデータではなく、その音声合成方式に特有のデータとなる。   The voice synthesis circuit 32 generates a voice signal in accordance with the supplied formant data and the like. The audio signal has a predetermined pitch and corresponds to a singing voice. The voice synthesis circuit 32 may be a formant synthesis method (formant sound source) or any other method. When the method of the speech synthesis circuit 32 is other than the formant synthesis method, the supplied data is not formant data, but data specific to the speech synthesis method.

音声合成回路32がフォルマント音源である場合を説明する。音声合成回路32には、音声データに応じて生成されたフォルマントデータ等が入力される。フォルマントデータは、フォルマント中心周波数データ、フォルマントレベルデータ、フォルマント帯域幅データ等を含む。   A case where the speech synthesis circuit 32 is a formant sound source will be described. The speech synthesis circuit 32 receives formant data generated in accordance with the speech data. Formant data includes formant center frequency data, formant level data, formant bandwidth data, and the like.

音声合成回路32は、有声音合成グループVTGと無声音合成グループUTGを有する。有声音グループVTGは、フォルマントデータ等に応じて、第1〜4の有声音フォルマントをそれぞれ形成するための有声音合成部V1、V2、V3、V4を有する。無声音合成グループUTGは、フォルマントデータ等に応じて、第1〜4の無声音フォルマントをそれぞれ形成するための無声音合成部U1、U2、U3、U4を有する。   The speech synthesis circuit 32 has a voiced sound synthesis group VTG and an unvoiced sound synthesis group UTG. The voiced sound group VTG includes voiced sound synthesis units V1, V2, V3, and V4 for forming first to fourth voiced sound formants according to formant data and the like. The unvoiced sound synthesis group UTG includes unvoiced sound synthesis units U1, U2, U3, and U4 for forming first to fourth unvoiced sound formants according to formant data and the like.

第1フォルマント生成ユニットTG1は第1フォルマントを形成するための有声音合成部V1と無声音合成部U1を有し、第2フォルマント生成ユニットTG2は第2フォルマントを形成するための有声音合成部V2と無声音合成部U2を有し、第3フォルマント生成ユニットTG3は第3フォルマントを形成するための有声音合成部V3と無声音合成部U3を有し、第4フォルマント生成ユニットTG4は第4フォルマントを形成するための有声音合成部V4と無声音合成部U4を有する。   The first formant generation unit TG1 includes a voiced sound synthesizer V1 and an unvoiced sound synthesizer U1 for forming the first formant, and the second formant generation unit TG2 includes a voiced sound synthesizer V2 for forming the second formant. The third formant generation unit TG3 includes a voiced sound synthesis unit V3 and an unvoiced sound synthesis unit U3 for forming a third formant, and the fourth formant generation unit TG4 forms a fourth formant. Voiced sound synthesizer V4 and unvoiced sound synthesizer U4.

合成部V1〜V4,U1〜U4は、それぞれ生成したフォルマントに対応する音声信号を出力する。それらの音声信号は加算され、サウンドシステム31に供給される。サウンドシステム31は、供給されるデジタル形式の音声信号をアナログ形式に変換し、発音する。   The synthesizers V1 to V4 and U1 to U4 output audio signals corresponding to the generated formants, respectively. Those audio signals are added and supplied to the sound system 31. The sound system 31 converts the supplied digital audio signal into an analog format and generates a sound.

フォルマント音源のより具体的な構成は、例えば特開平3−200299号公報の第1図に示されている。   A more specific configuration of the formant sound source is shown, for example, in FIG. 1 of JP-A-3-200269.

なお、音声合成回路32は、4系統のフォルマント生成ユニットTG1〜TG4を有する場合に限定されない。それ以上又はそれ以下の系統のフォルマント生成ユニットを有するものでもよい。   Note that the speech synthesis circuit 32 is not limited to the case where the four formant generation units TG1 to TG4 are included. It may have a formant generation unit of more or less systems.

破裂音等の特殊な音は、専用のユニットを設けるようにしてもよい。また、発音チャンネルを複数用意し、2声以上の歌唱を発生させることができるようにしてもよい。この場合、1つの回路を時分割で使用することによって複数の発音チャンネルを形成するようなものでもよいし、1つの発音チャンネルが1つの回路で構成されるような形式のものであってもよい。   For special sounds such as plosives, a dedicated unit may be provided. Also, a plurality of sound generation channels may be prepared so that singing of two or more voices can be generated. In this case, one circuit may be used in a time-sharing manner to form a plurality of sound generation channels, or one sound generation channel may be composed of one circuit. .

音声合成回路32と楽音波形合成回路29は、専用のハードウエアを用いて構成するものに限らず、DSP+マイクロプログラムを用いて構成してもよいし、CPU+ソフトウェアのプログラムで構成するようにしてもよい。   The voice synthesis circuit 32 and the musical sound waveform synthesis circuit 29 are not limited to those configured using dedicated hardware, but may be configured using a DSP + microprogram, or may be configured using a CPU + software program. Good.

次に、パーソナルコンピュータ1の構成を説明する。検出回路11は、キーボード12上のキー(数字キーや文字キー等)入力を検出し、キー信号を生成する。検出回路9は、マウス10の移動操作やスイッチ(右ボタン、左ボタン等)操作を検出し、マウス信号を生成する。操作者は、マウス10又はキーボード12を用いて、音声データの編集を行うことができる。   Next, the configuration of the personal computer 1 will be described. The detection circuit 11 detects a key (numeric key, character key, etc.) input on the keyboard 12 and generates a key signal. The detection circuit 9 detects a movement operation of the mouse 10 or a switch (right button, left button, etc.) operation, and generates a mouse signal. The operator can edit the audio data using the mouse 10 or the keyboard 12.

表示回路7には、音声データ等を編集するための編集画面を表示することができる。操作者は、表示回路7上の編集画面を参照しながら音声データの編集を行うことができる。   The display circuit 7 can display an editing screen for editing audio data and the like. The operator can edit the audio data while referring to the editing screen on the display circuit 7.

バス2には、検出回路11、検出回路9及び表示回路7の他、MIDIインターフェース8、RAM3、ROM4、CPU5、外部記憶装置13、通信インターフェース14が接続される。   In addition to the detection circuit 11, the detection circuit 9 and the display circuit 7, a MIDI interface 8, a RAM 3, a ROM 4, a CPU 5, an external storage device 13 and a communication interface 14 are connected to the bus 2.

ROM4は、各種パラメータ及びコンピュータプログラムを記憶する。RAM3は、フラグ、バッファ、演奏データ、音声データ等を記憶する。また、RAM3は、外部記憶装置13、又は通信インターフェース14を介して外部から供給されたコンピュータプログラムや演奏データ、音声データ等を記憶することもできる。CPU5は、RAM3又はROM4に記憶されているコンピュータプログラムに従い、音声データの編集又は処理等のための演算または制御を行う。   The ROM 4 stores various parameters and computer programs. The RAM 3 stores flags, buffers, performance data, audio data, and the like. The RAM 3 can also store computer programs, performance data, audio data, and the like supplied from the outside via the external storage device 13 or the communication interface 14. The CPU 5 performs calculation or control for editing or processing audio data in accordance with a computer program stored in the RAM 3 or the ROM 4.

タイマ6は、CPU5に時間情報を供給する。CPU5は、当該時間情報に応じて、所定時間間隔で割り込み処理を行うことができる。   The timer 6 supplies time information to the CPU 5. The CPU 5 can perform interrupt processing at predetermined time intervals according to the time information.

MIDIインターフェース8は、上記のように、外部音源装置21のMIDIインターフェース23にMIDIケーブルで接続される。パーソナルコンピュータ1は、MIDIインターフェース8を介して、演奏データや音声データを外部音源装置21に送信することができる。   As described above, the MIDI interface 8 is connected to the MIDI interface 23 of the external sound source device 21 with a MIDI cable. The personal computer 1 can transmit performance data and audio data to the external sound source device 21 via the MIDI interface 8.

通信インターフェース14は、ローカルエリアネットワーク(LAN)、インターネット、電話回線等の通信ネットワーク41に接続される。通信ネットワーク41には、サーバコンピュータ42が接続されている。パーソナルコンピュータ1は、通信ネットワーク41を介して、サーバコンピュータ42から音声データ又はコンピュータプログラムを受信することができる。   The communication interface 14 is connected to a communication network 41 such as a local area network (LAN), the Internet, or a telephone line. A server computer 42 is connected to the communication network 41. The personal computer 1 can receive voice data or a computer program from the server computer 42 via the communication network 41.

外部記憶装置13は、外部記憶装置用のインターフェースを含み、そのインターフェースを介してバス2に接続される。外部記憶装置13は、例えばフロッピディスクドライブ(FDD)、ハードディスクドライブ(HDD)、光磁気ディスク(MO)ドライブ、CD−ROM(コンパクトディスク−リードオンリィメモリ)ドライブ、デジタル多目的ディスク(DVD)装置等である。演奏データや音声データは、外部記憶装置13又はRAM3に記憶される。   The external storage device 13 includes an interface for an external storage device, and is connected to the bus 2 via the interface. The external storage device 13 is, for example, a floppy disk drive (FDD), a hard disk drive (HDD), a magneto-optical disk (MO) drive, a CD-ROM (compact disk-read only memory) drive, a digital multipurpose disk (DVD) device, or the like. is there. Performance data and audio data are stored in the external storage device 13 or the RAM 3.

コンピュータプログラム等をROM4に記憶させずに、外部記憶装置13(例えばハードディスク)に記憶させることもできる。ハードディスクからRAM3にコンピュータプログラム等を読み出すことにより、ROM4にコンピュータプログラム等を記憶させている場合と同様の動作をCPU5にさせることができる。このようにすると、CD−ROM等の他の外部記憶媒体からハードディスクにコンピュータプログラム等をコピーすることでコンピュータプログラム等の追加やバージョンアップ等が容易に行える。   A computer program or the like can be stored in the external storage device 13 (for example, a hard disk) without being stored in the ROM 4. By reading a computer program or the like from the hard disk into the RAM 3, the CPU 5 can be operated in the same manner as when the computer program or the like is stored in the ROM 4. In this way, the computer program or the like can be easily added or upgraded by copying the computer program or the like from another external storage medium such as a CD-ROM to the hard disk.

通信インターフェース14は、ローカルエリアネットワーク(LAN)やインターネット、電話回線等の通信ネットワーク41に接続されており、該通信ネットワーク41を介して、サーバコンピュータ42と接続される。外部記憶装置13内にコンピュータプログラム等が記憶されていない場合、サーバコンピュータ42からコンピュータプログラム等をダウンロードすることができる。クライアントとなるパーソナルコンピュータ1は、通信インターフェース14及び通信ネットワーク41を介してサーバコンピュータ42へとコンピュータプログラム等のダウンロードを要求するコマンドを送信する。サーバコンピュータ42は、このコマンドを受け、要求されたコンピュータプログラム等を、通信ネットワーク41を介してパーソナルコンピュータ1へと配信し、パーソナルコンピュータ1が通信インターフェース14を介して、これらコンピュータプログラム等を受信して外部記憶装置13内に蓄積することにより、ダウンロードが完了する。   The communication interface 14 is connected to a communication network 41 such as a local area network (LAN), the Internet, or a telephone line, and is connected to the server computer 42 via the communication network 41. When a computer program or the like is not stored in the external storage device 13, the computer program or the like can be downloaded from the server computer 42. The personal computer 1 serving as a client transmits a command requesting download of a computer program or the like to the server computer 42 via the communication interface 14 and the communication network 41. Upon receiving this command, the server computer 42 distributes the requested computer program or the like to the personal computer 1 via the communication network 41, and the personal computer 1 receives the computer program or the like via the communication interface 14. Thus, the download is completed by accumulating in the external storage device 13.

パーソナルコンピュータ1は、RAM3に記憶している演奏データや音声データを、所定のテンポにしたがって再生し、再生した演奏データや音声データをMIDIインターフェース8を介して外部音源装置21へと送信する。外部音源装置21は、送信されてきた演奏データや音声データをMIDIインターフェース23を介して受信し、受信した演奏データを楽音波形合成回路29へ供給することにより伴奏楽音信号を形成するとともに、受信した音声データを音声合成回路32へ供給することにより歌唱信号を形成する。すなわち、パーソナルコンピュータ1と外部音源装置21により、伴奏楽音を伴った歌唱を生成するシステムが構成される。   The personal computer 1 reproduces the performance data and audio data stored in the RAM 3 according to a predetermined tempo, and transmits the reproduced performance data and audio data to the external sound source device 21 via the MIDI interface 8. The external tone generator 21 receives the transmitted performance data and audio data via the MIDI interface 23, and supplies the received performance data to the musical sound waveform synthesis circuit 29 to form and receive an accompaniment musical sound signal. By supplying the voice data to the voice synthesis circuit 32, a singing signal is formed. That is, the personal computer 1 and the external sound source device 21 constitute a system that generates a song accompanied by an accompaniment musical sound.

次に、音声データ処理装置(パーソナルコンピュータ1)が行う処理を説明する。   Next, processing performed by the voice data processing apparatus (personal computer 1) will be described.

図2は、インポート処理を示す図である。インポート処理は、演奏データ51にテキストデータ(歌詞データ)52を割り当て、ノートプラスデータ53を生成する処理である。本明細書では、演奏データ51、テキストデータ52、ノートプラスデータ53のいずれをも音声データという。   FIG. 2 is a diagram showing import processing. The import process is a process for assigning text data (lyric data) 52 to the performance data 51 and generating note plus data 53. In this specification, all of the performance data 51, the text data 52, and the note plus data 53 are referred to as audio data.

演奏データ51は、例えば、8つのノート(音符)に対応するノートイベントN1〜N8を有する。ノートイベントN1〜N8の各々は、例えばノートオンタイミングデータ、ノートナンバ(音高)、ベロシティ(音量)、ゲートタイム(ノートオンからノートオフまでの時間)を含む。   The performance data 51 includes, for example, note events N1 to N8 corresponding to eight notes (notes). Each of the note events N1 to N8 includes, for example, note-on timing data, note number (pitch), velocity (volume), and gate time (time from note-on to note-off).

テキストデータ52は、例えば「赤(あか)_い/夕日〔ゆう!ひ〕_が¥」である。ここで、()内は読み仮名を示し、〔〕内はルビを示し、「_,!」等は歌詞区切り記号を示し、「/,¥」等は呼気記号を示す。   The text data 52 is, for example, “red (Aka) _I / sunset [Yu! Hi] _ is ¥”. Here, () indicates a reading kana, [] indicates a ruby, “_,!” And the like indicate lyrics delimiters, and “/, ¥” indicates an expiration symbol.

呼気記号は、息継ぎを示す記号である。呼気記号があるときは、その前の歌詞データはゲートタイムだけ発音され、その後、無音状態になる。呼気記号がないときには、ある歌詞データとその次の歌詞データとが滑らかにつながるように発音される。すなわち、ゲームタイムが無視される。   The exhalation symbol is a symbol indicating breathing. When there is an exhalation symbol, the previous lyric data is pronounced for the gate time and then silenced. When there is no exhalation symbol, a certain lyric data and the next lyric data are pronounced so as to be smoothly connected. That is, the game time is ignored.

歌詞区切り記号は、1つの音符(ノートイベント)に対応する歌詞データ(第1の歌詞イベント)とその次の音符に対応する歌詞データ(第2の歌詞イベント)の間に挿入される。歌詞データ52は、歌詞区切り記号に従い、歌詞イベントに分解され、各ノートイベントN1〜N8に割り当てられる。例えば、「N1,あか」、「N2,い▽」、「N3,ゆう」、「N4,ひ」、「N5,が▽」のように割り当てられる。ここで、「▽」は、呼気記号「/,¥」に対応する呼気データであり、息継ぎを示すとともに、「N2,い▽」の例でも判るとおり、歌詞区切りの役割も果たしている。このノートイベントと歌詞(文字列)イベントあるいは音素列イベント(音素列イベントについては後述)の組をノートプラスイベント(ノートに対して歌詞イベントがプラスされたイベント)と呼ぶ。ノートプラスデータ53は、ノートプラスイベントの集まりである。   The lyrics delimiter is inserted between the lyrics data (first lyrics event) corresponding to one note (note event) and the lyrics data (second lyrics event) corresponding to the next note. The lyric data 52 is decomposed into lyric events according to the lyric delimiters and assigned to the note events N1 to N8. For example, “N1, red”, “N2, i ▽”, “N3 Yu”, “N4 hi”, “N5 is ▽” are assigned. Here, “▽” is exhalation data corresponding to the exhalation symbol “/, ¥”, indicates breath breathing, and also plays a role of lyric separation as can be seen from the example of “N2, i ▽”. A set of the note event and the lyrics (character string) event or the phoneme string event (the phoneme string event will be described later) is called a note plus event (an event in which the lyric event is added to the note). The note plus data 53 is a collection of note plus events.

ノートプラスデータ53は、読み仮名及びルビを考慮し、漢字を削除してそれに対応する仮名のみを残す。読み仮名記号「()」があるときには、()の前の漢字「赤」及び読み仮名記号「()」を削除して()内の仮名「かな」を残す。ルビ記号「〔〕」の場合も同様である。   The note plus data 53 considers reading kana and ruby, deletes kanji and leaves only the kana corresponding to it. When there is a reading kana symbol "()", the kanji "red" and the reading kana symbol "()" before () are deleted, and the kana "Kana" in () is left. The same applies to the ruby symbol “[]”.

ノートプラスデータ53中の仮名は、音素列に変換される。例えば、仮名「か」は、音素列「CL(7.5ms)+kha(4×7.5ms)+aj(無限長)」に変換される。「か」等の音節は、時間軸上の音素列に分解することができる。音素は、例えば「CL」、「kha」、「aj」である。   The kana in the note plus data 53 is converted into a phoneme string. For example, the kana “ka” is converted into a phoneme string “CL (7.5 ms) + kha (4 × 7.5 ms) + aj (infinite length)”. Syllables such as “ka” can be decomposed into phoneme strings on the time axis. The phonemes are, for example, “CL”, “kha”, and “aj”.

パーソナルコンピュータ1は、仮名と音素列との間で変換を行うためのテーブルを記憶している。このテーブルを使い、仮名から音素列への変換を行うことができる。しかし、漢字や記号や英数字等から音素列への変換を行うことはできない。なぜなら、漢字や記号や英数字等は、読み方が複数通り存在する可能性があるからである。   The personal computer 1 stores a table for converting between a kana and a phoneme string. This table can be used to convert kana to phoneme strings. However, conversion from kanji, symbols, alphanumeric characters, etc. to phoneme strings cannot be performed. This is because there is a possibility that there are multiple ways of reading kanji, symbols and alphanumeric characters.

仮名は音素列へ変換され、漢字や記号等はそのまま残される。パーソナルコンピュータ1は、漢字等から仮名へ変換を行うための辞書を記憶している。この辞書を用いて、漢字等を仮名に変換し、さらにその仮名を音素列に変換することができる。パーソナルコンピュータ1は、音素列等を外部音源装置21(図1)に供給する。外部音源装置21は、音素列等を受けて、音声を発音する。   Kana is converted to a phoneme string, and kanji and symbols are left as they are. The personal computer 1 stores a dictionary for converting kanji or the like into kana. Using this dictionary, kanji and the like can be converted into kana, and the kana can be converted into a phoneme string. The personal computer 1 supplies phoneme strings and the like to the external sound source device 21 (FIG. 1). The external sound source device 21 receives a phoneme string and generates sound.

パーソナルコンピュータ1は、歌詞データとしてテキストデータを使用することができる。例えばカラオケ用のテキストデータ等、既存のテキストデータを使用することができる。   The personal computer 1 can use text data as lyrics data. For example, existing text data such as text data for karaoke can be used.

また、歌詞区切り記号は「_,!」等であり、呼気記号は「/,¥」等であり、いずれも複数種類設定することができる。例えば、カラオケ用のテキストデータを使用する場合、改行マークと副改行マークの両方を歌詞区切り記号とし、改ページマークを呼気記号として設定することができる。歌詞区切り記号を複数種類設定することができるので、改行マークと副改行マークの両方を歌詞区切り記号として使用することができる。   Also, the lyrics delimiter symbol is “_ ,!” and the like, and the exhalation symbol is “/, ¥” and the like, and a plurality of types can be set. For example, when text data for karaoke is used, both the line feed mark and the sub line feed mark can be set as the lyrics delimiter and the page break mark can be set as the breath mark. Since a plurality of types of lyrics delimiters can be set, both a line feed mark and a sub line break mark can be used as the lyrics delimiters.

改行マークは、歌詞を画面に表示する際に、歌詞の1行分の区切りを示すマークである。副改行マークは、小さい画面に表示する際にのみ用いる改行のためのマークである。すなわち、通常画面では改行マークのみで改行を行い、小画面では改行マークと副改行マークの両方で改行を行う。例えば、改行マークとして「_」を使用し、副改行マークとして「!」を使用することができる。なお、歌詞区切り記号や呼気記号は、改行マークや福改行マークのように本来は他の用途に用いるために挿入された記号をこれら歌詞区切り記号や呼気記号として流用する場合に限らず、ユーザが任意に設定し挿入した記号を、歌詞区切り記号や呼気記号としてもよい。   The line feed mark is a mark that indicates a delimiter for one line of the lyrics when the lyrics are displayed on the screen. The minor line feed mark is a mark for line feed used only when displaying on a small screen. That is, a line feed is performed only with a line feed mark on a normal screen, and a line feed is performed with both a line feed mark and a sub line feed mark on a small screen. For example, “_” can be used as the line feed mark and “!” Can be used as the sub line feed mark. Note that the lyrics delimiter and exhalation symbol are not limited to the case where a user originally uses a symbol inserted for other purposes, such as a line feed mark or a lucky line break mark, as a lyrics delimiter or exhalation symbol. Arbitrarily set and inserted symbols may be used as lyrics delimiters and exhalation symbols.

図3は、パーソナルコンピュータ1のCPUが行うテキストインポート処理を示すフローチャートである。テキストインポート処理は、上記のように(図2)、演奏データ51にテキストデータ52を割り当てて、ノートプラスデータ53を生成する処理である。   FIG. 3 is a flowchart showing a text import process performed by the CPU of the personal computer 1. As described above (FIG. 2), the text import processing is processing for assigning text data 52 to performance data 51 and generating note plus data 53.

ステップSA1では、インポートするテキストファイルを選択する。テキストファイルはテキストデータ52(図2)を含み、外部記憶装置13(図1)等に記憶される。操作者は、マウス10等を用いて、1つ又は複数のテキストファイルの中から1つを選択することができる。   In step SA1, a text file to be imported is selected. The text file includes text data 52 (FIG. 2) and is stored in the external storage device 13 (FIG. 1) or the like. The operator can select one from one or a plurality of text files using the mouse 10 or the like.

ステップSA2では、演奏データ51中の最初のノートイベントN1の位置にポインタをセットする。演奏データ51は、RAM4又は外部記憶装置13(図1)等に記憶される。   In step SA2, a pointer is set at the position of the first note event N1 in the performance data 51. The performance data 51 is stored in the RAM 4 or the external storage device 13 (FIG. 1).

ステップSA3では、テキストデータ52中の最初の文字コードの位置にポインタをセットする。例えば、テキストデータ52中の「赤」の位置にポインタをセットする。   In step SA3, a pointer is set at the position of the first character code in the text data 52. For example, the pointer is set at the position “red” in the text data 52.

ステップSA4では、当該文字コードが呼気記号として設定されている文字コードのいずれかと一致するか否かをチェックする。例えば、呼気記号として、「/,¥」が設定されている。一致しないときには、NOの矢印に従い、ステップSA5へ進む。   In step SA4, it is checked whether or not the character code matches any one of the character codes set as exhalation symbols. For example, “/, ¥” is set as the exhalation symbol. If they do not match, follow the NO arrow and proceed to step SA5.

ステップSA5では、当該文字コードが歌詞区切り記号として設定されている文字コードのいずれかと一致するか否かをチェックする。例えば、歌詞区切り記号として、「_,!」が設定されている。一致しないときには、NOの矢印に従い、ステップSA6へ進む。   In step SA5, it is checked whether or not the character code matches any of the character codes set as the lyrics delimiters. For example, “_ ,!” is set as the lyrics delimiter. If they do not match, follow the NO arrow and proceed to step SA6.

ステップSA6では、当該文字コードを文字列レジスタの内容に追加する。文字列レジスタは、1音符に対応する1又は複数の文字コード(以下、歌詞イベントという)を記憶するためのレジスタであり、初期時には何も記憶していない。   In step SA6, the character code is added to the contents of the character string register. The character string register is a register for storing one or a plurality of character codes (hereinafter referred to as lyrics events) corresponding to one note and stores nothing at the initial stage.

ステップSA7では、次の文字コードの位置にポインタをセットする。例えば、テキストデータ52中の「()の位置にポインタをセットする。その後、ステップSA4へ戻り、上記の処理を繰り返す。   In step SA7, a pointer is set at the position of the next character code. For example, the pointer is set at the position “()” in the text data 52. Thereafter, the process returns to step SA4 to repeat the above processing.

ステップSA7でセットされたポインタの位置における文字コードが「_」又は「!」であった場合は、ステップSA4を介して、ステップSA5へ進み、文字コード「_」又は「!」が歌詞区切り記号であると判断し、YESの矢印に従いステップSA9へ進む。   If the character code at the position of the pointer set in step SA7 is “_” or “!”, The process proceeds to step SA5 via step SA4, and the character code “_” or “!” Is the lyrics delimiter. The process proceeds to step SA9 according to the YES arrow.

一方、ステップSA7でセットされたポインタの位置における文字コードが「/」又は「¥」あった場合は、ステップSA4で文字コード「/」又は「¥」が呼気記号であると判断し、YESの矢印に従いステップSA8へ進む。ステップSA8では、呼気マーク「▽」を文字列レジスタの内容に追加する。その後、ステップSA9へ進む。   On the other hand, if the character code at the position of the pointer set in step SA7 is “/” or “¥”, it is determined in step SA4 that the character code “/” or “¥” is an exhalation symbol, and YES. Proceed to step SA8 following the arrow. In step SA8, an exhalation mark “追加” is added to the contents of the character string register. Thereafter, the process proceeds to step SA9.

ステップSA9では、読み仮名及びルビ処理を行う。具体的には、文字列レジスタに格納された歌詞イベント内に読み仮名又はルビが含まれている場合には、漢字等を削除して仮名を残す処理である。この処理の詳細は、後に図4のフローチャートを参照しながら説明する。その後、ステップSA10へ進む。   In step SA9, reading kana and ruby processing is performed. Specifically, when a reading kana or ruby is included in the lyrics event stored in the character string register, the kana is deleted to leave the kana. Details of this processing will be described later with reference to the flowchart of FIG. Thereafter, the process proceeds to Step SA10.

ステップSA10では、文字列レジスタの内容をポインタが位置するノートイベントに付加して、ノートプラスイベントを生成する。例えば、文字列レジスタ内の歌詞イベント「あか」をノートイベントN1に付加して、ノートプラスイベント「N1,あか」を生成する。   In step SA10, the contents of the character string register are added to the note event where the pointer is located to generate a note plus event. For example, the lyric event “Aka” in the character string register is added to the note event N1, and the note plus event “N1, Aka” is generated.

ステップSA11では、テキストデータ52の続きがあるか否かをチェックする。すなわち、テキストデータ52が終わりか否かをチェックする。終わりでないときには、YESの矢印に従い、ステップSA12へ進む。   In step SA11, it is checked whether or not there is a continuation of the text data 52. That is, it is checked whether the text data 52 is over. When it is not the end, follow the arrow of YES and proceed to step SA12.

ステップSA12では、文字列レジスタの内容をクリアし、次の歌詞イベントの格納に備える。   In step SA12, the contents of the character string register are cleared to prepare for storing the next lyrics event.

ステップSA13では、演奏データ51中の次のノートイベントの位置にポインタをセットする。例えば、ノートイベントN2の位置にポインタをセットする。   In step SA13, a pointer is set at the position of the next note event in the performance data 51. For example, the pointer is set at the position of the note event N2.

ステップSA14では、テキストデータ52中の次の文字コードの位置にポインタをセットする。例えば、文字コード「い」の位置にポインタをセットする。その後、ステップSA4へ戻り、上記の処理を繰り返す。   In step SA14, a pointer is set at the position of the next character code in the text data 52. For example, the pointer is set at the position of the character code “I”. Thereafter, the process returns to step SA4, and the above processing is repeated.

テキストデータ52の最後の文字コードの処理が終了すると、ステップSA11でNOの矢印に従い、テキストインポート処理を終了する。この処理により、ノートプラスデータ53が生成される。   When the processing of the last character code of the text data 52 is finished, the text import processing is finished according to the NO arrow in step SA11. By this processing, note plus data 53 is generated.

なお、上記のフローチャートでは、テキストファイル中のテキストデータ52をインポートする場合を説明したが、スタンダードMIDIファイル中の所定トラックに含まれるテキストをインポートするようにしてもよい。   In the above flowchart, the case where the text data 52 in the text file is imported has been described. However, the text included in a predetermined track in the standard MIDI file may be imported.

図4は、図3のステップSA9に示す読み仮名及びルビ処理の詳細を示すフローチャートである。   FIG. 4 is a flowchart showing details of the reading kana and ruby processing shown in step SA9 of FIG.

ステップSB1では、文字列レジスタ中に()又は〔〕に囲まれた仮名の文字コードがあるか否かをチェックする。例えば、テキストデータ52中の「(あか)」又は「〔ゆうひ〕」がこれに該当する。   In step SB1, it is checked whether or not there is a character code of the kana enclosed in () or [] in the character string register. For example, “(red)” or “[Yuhi]” in the text data 52 corresponds to this.

また、「夕日〔ゆう!ひ〕_」の場合は、文字列「夕日〔ゆう〕と文字列「ひ」」との両方もこれに該当する。すなわち、()又は〔〕のいずれかの片括弧に囲まれた仮名文字があればこれに該当する。   Further, in the case of “Sunset (Yu! Hi) _”, both the character string “Yu!” And the character string “Hi” correspond to this. That is, if there is a kana character enclosed in single parentheses () or [], it corresponds to this.

当該文字コードがあるときには、YESの矢印に従い、ステップSB2へ進む。当該文字コードがないときには、NOの矢印に従い、読み仮名及びルビ処理を終了する。   When the character code is present, the process proceeds to step SB2 following the YES arrow. When there is no character code, the reading and the ruby process are terminated according to the arrow of NO.

ステップSB2では、文字列レジスタ中の()又は〔〕の前にある非仮名の文字コードを削除する。非仮名の文字コードは、漢字、記号、英数字を含む。例えば、テキストデータ52中の「赤」や「夕日」を削除する。   In step SB2, the non-kana character code preceding () or [] in the character string register is deleted. Non-kana character codes include kanji, symbols, and alphanumeric characters. For example, “red” and “sunset” in the text data 52 are deleted.

ステップSB3では、文字列レジスタ中の()又は〔〕を削除する。その結果、例えば、文字列「夕日〔ゆう〕は「ゆう」に変換され、文字列「ひ」」は「ひ」に変換される。その後、読み仮名及びルビ処理を終了し、図3のテキストインポート処理に戻る。   In step SB3, () or [] in the character string register is deleted. As a result, for example, the character string “Sunset” is converted to “Yu”, and the character string “hi” is converted to “hi”. Thereafter, the reading kana and ruby process is terminated, and the process returns to the text import process of FIG.

上記の処理により、読み仮名やルビが振られた漢字等は、漢字等が削除されて仮名が残る。漢字等は、発音に不必要な文字コードである。   As a result of the above processing, kanji and the like with kana and rubbi are deleted and the kana remains. Kanji is a character code unnecessary for pronunciation.

図5は、パーソナルコンピュータ1のCPUが行う音素列変換処理を示すフローチャートである。音素列変換処理は、ノートプラスデータ53(図2)を生成した後に、歌詞イベントを音素列に変換する処理である。   FIG. 5 is a flowchart showing phoneme string conversion processing performed by the CPU of the personal computer 1. The phoneme string conversion process is a process for converting a lyric event into a phoneme string after generating the note plus data 53 (FIG. 2).

表示回路7においては、1つのノートプラスイベントが1行に表示されている。すなわち、1つの行は1つのノートプラスイベントに対応する。ステップSC1では、ノートプラスデータ53中から変換する行を選択する。操作者は、表示回路7に表示された各行の表示内容を参照し、マウス10等を用いて、1行又は複数行(すなわち1又は複数のノートプラスイベント)を選択することができる。   In the display circuit 7, one note plus event is displayed in one line. That is, one row corresponds to one note plus event. In step SC1, a row to be converted is selected from the note plus data 53. The operator can select one line or a plurality of lines (that is, one or a plurality of note plus events) using the mouse 10 or the like with reference to the display contents of each line displayed on the display circuit 7.

ステップSC2では、選択された行の中の第1行目の位置にポインタをセットする。例えば、ノートプラスイベント「N1,あか」の位置にポインタをセットする。   In step SC2, the pointer is set at the position of the first row in the selected row. For example, the pointer is set at the position of the note plus event “N1, red”.

ステップSC3では、当該行の文字列(歌詞イベント)は仮名のみか否かをチェックする。仮名のみのときは、音素列変換を行うため、YESの矢印に従いステップSC4へ進む。仮名のみでないときには、NOの矢印に従い、音素列変換を行わずにステップSC6へ進む。なお、仮名以外に呼気記号も含まれている場合は、仮名のみと判断する。   In step SC3, it is checked whether or not the character string (lyric event) in the line is only kana. If only kana is present, phoneme string conversion is performed, and the process proceeds to step SC4 following the YES arrow. If it is not only kana, follow the NO arrow and proceed to step SC6 without performing phoneme string conversion. If an exhalation symbol is included in addition to the kana, it is determined that only the kana.

ステップSC4では、仮名−音素列テーブルを参照して、当該文字列に対応する音素列を求める。例えば、文字列「あか」に対応する音素列を求める。   In step SC4, a phoneme string corresponding to the character string is obtained by referring to the kana-phoneme string table. For example, a phoneme string corresponding to the character string “Aka” is obtained.

ステップSC5では、文字列と音素列との置き換えを行う。すなわち、ノートプラスデータ53中では、文字列「あか」が削除され、それに対応する音素列が書き込まれる。その後、ステップSC6へ進む。   In step SC5, the character string and the phoneme string are replaced. That is, in the note plus data 53, the character string “Aka” is deleted, and the corresponding phoneme string is written. Thereafter, the process proceeds to Step SC6.

ステップSC6では、選択範囲行の中に次の行があるか否かをチェックする。選択範囲行が1行のみの場合は次の行がないので、NOの矢印に従い、音素列変換処理を終了する。次の行があるときには、YESの矢印に従い、ステップSC7へ進む。   In step SC6, it is checked whether or not there is a next line in the selected range line. If there is only one selection range row, there is no next row, and the phoneme string conversion process is terminated according to the arrow of NO. If there is a next line, follow the YES arrow and proceed to step SC7.

ステップSC7では、次の行の位置にポインタをセットする。例えば、ノートプラスイベント「N2,い▽」の位置にポインタをセットする。その後、ステップSC3へ戻り、上記の処理を繰り返す。呼気記号「▽」は音素列に変換されない。仮名「い」のみが音素列に変換される。   In step SC7, a pointer is set at the position of the next line. For example, the pointer is set at the position of the note plus event “N2, i ▽”. Thereafter, the process returns to step SC3, and the above processing is repeated. The exhalation symbol “▽” is not converted to a phoneme string. Only the pseudonym “I” is converted to a phoneme string.

全ての行の処理が終了すると、ステップSC6においてNOの矢印に従い、音素列変換処理を終了する。後の処理で、変換された音素列は、外部音源装置21(図1)へ供給され、発音される。   When all the rows have been processed, the phoneme string conversion processing is ended according to the NO arrow in step SC6. In the subsequent processing, the converted phoneme string is supplied to the external sound source device 21 (FIG. 1) and is pronounced.

なお、音素列に変換された後は、当該音素列を再び文字列に変換して、音素列と文字列の両方を表示回路7上の画面に表示する。操作者は、文字列とそれに対応する音素列を知ることができる。また、音素列の変換が正常に行われたか否かを知ることもできる。   After the phoneme string is converted, the phoneme string is converted again to a character string, and both the phoneme string and the character string are displayed on the screen on the display circuit 7. The operator can know the character string and the corresponding phoneme string. It is also possible to know whether or not the phoneme string has been converted normally.

次に、空白行挿入処理を説明する。上記のように、ノートイベントに歌詞イベントを割り当てた後、歌詞の間に新たな歌詞を挿入したい場合がある。例えば、歌詞の一部分が欠落しており、該欠落部分以降の歌詞が前方に詰まった状態でノートイベントと歌詞イベントが対応づけられてしまい、結果として、ノートイベントと歌詞イベントの対応が間違った状態でノートプラスイベントが生成されてしまった場合等である。その場合に、所望の場所に空白行を挿入し、その空白行に新たな歌詞を埋めればよい。   Next, blank line insertion processing will be described. As described above, after assigning a lyric event to a note event, it may be desired to insert a new lyric between the lyrics. For example, a part of the lyrics is missing and the note event and the lyrics event are associated with the lyrics after the missing part being jammed forward. As a result, the correspondence between the note event and the lyrics event is incorrect For example, when a note plus event is generated. In that case, a blank line may be inserted at a desired location, and new lyrics may be filled in the blank line.

図6(A)〜(D)は、空白行挿入処理を説明するための図である。図6(A)は、ノートプラスデータの例を示す。ノートプラスデータは、例えば8行のノートプラスイベントを有する。第1行目のノートプラスイベントは、ノートイベントN1と歌詞イベントL1を有する。   6A to 6D are diagrams for explaining blank line insertion processing. FIG. 6A shows an example of note plus data. The note plus data has, for example, eight rows of note plus events. The note plus event in the first row has a note event N1 and a lyrics event L1.

操作者は、マウス等を用いて、空白行を挿入したい位置PTと行数LLを指定することができる。例えば、挿入位置PTとして第3行目を指定し、挿入行数LLとして2行を指定することができる。   The operator can specify the position PT where the blank line is to be inserted and the number of lines LL using a mouse or the like. For example, the third row can be designated as the insertion position PT, and two rows can be designated as the insertion row number LL.

まず、図6(B)のバッファに、挿入位置PT以降の歌詞イベントL3〜L8をコピーする。なお、バッファ内には、空白行が含まれていてもよい。   First, the lyrics events L3 to L8 after the insertion position PT are copied to the buffer shown in FIG. Note that a blank line may be included in the buffer.

次に、図6(C)に示すように、図6(A)のノートプラスデータの挿入位置PT(第3行目)から挿入行数LL(2行)だけ歌詞イベントを消去する。すなわち、歌詞イベントL3及びL4を消去する。   Next, as shown in FIG. 6C, the lyric event is deleted by the number of inserted lines LL (2 lines) from the insertion position PT (third line) of the note plus data in FIG. 6A. That is, the lyric events L3 and L4 are deleted.

次に、図6(D)に示すように、図6(C)のノートプラスデータ中の第5行目以降にバッファ(図6(B))内の歌詞イベントをコピーする。ただし、ノートイベントN8よりも後ろにはノートイベントがないので、ノートイベントN8に残りの歌詞イベントがまとめて割り当てられる。すなわち、ノートイベントN8には、歌詞イベントL6〜L8が割り当てられる。   Next, as shown in FIG. 6D, the lyrics event in the buffer (FIG. 6B) is copied to the fifth and subsequent lines in the note-plus data in FIG. 6C. However, since there is no note event behind the note event N8, the remaining lyric events are allotted to the note event N8. That is, the lyric events L6 to L8 are assigned to the note event N8.

図6(D)のノートプラスデータでは、ノートイベントN3及びN4に空白行の歌詞イベントが割り当てられる。結果として、2行の空白行が挿入されたことになる。そして、空白行挿入箇所以降のノートプラスイベントは、ノートイベントと歌詞イベントの対応づけが変更された状態となる。なお、空白行については、歌詞イベントが消去されたため、ノートプラスイベントではなく、通常のノートイベントとなる。   In the note plus data of FIG. 6D, blank event lyrics events are assigned to note events N3 and N4. As a result, two blank lines are inserted. The note plus event after the blank line insertion position is in a state in which the correspondence between the note event and the lyrics event is changed. Note that the blank line is a normal note event, not a note plus event, because the lyric event has been deleted.

図7は、上記の空白行挿入処理を実現するためのフローチャートである。ステップSD1では、空白行の挿入位置PTと挿入行LLを指定する。   FIG. 7 is a flowchart for realizing the blank line insertion processing described above. In step SD1, a blank line insertion position PT and an insertion line LL are designated.

ステップSD2では、挿入位置PT以降の歌詞イベント(音素列/文字列)をバッファ(図6(B))にコピーする。   In step SD2, the lyrics event (phoneme string / character string) after the insertion position PT is copied to the buffer (FIG. 6B).

ステップSD3では、挿入位置PTから挿入行数LL分の歌詞イベントを消去する(図6(C))。   In step SD3, the lyrics events corresponding to the number of inserted lines LL are deleted from the insertion position PT (FIG. 6C).

ステップSD4では、バッファ(図6(B))の歌詞イベントを、挿入位置PTから挿入行数LL分より後ろのノートイベントに割り当てる。このとき、割り当てるべきノートイベントが無くなったにもかかわらず歌詞イベントがバッファ内に残っているときは、残りの歌詞イベントを全て最後のノートイベントに追加する。以上で、空白行の挿入処理を終了する。   In step SD4, the lyrics event in the buffer (FIG. 6B) is assigned to the note event after the insertion line number LL from the insertion position PT. At this time, if the lyric event remains in the buffer even though there are no more note events to be assigned, all the remaining lyric events are added to the last note event. This is the end of the blank line insertion process.

なお、図6(A)のノートプラスデータに空白行を挿入して図6(D)のノートプラスデータを生成する方法は上記以外の方法でもよい。   Note that a method other than the above may be used to generate the note plus data in FIG. 6D by inserting blank lines into the note plus data in FIG.

図8(A)〜(F)は、歌詞イベント挿入処理を説明するための図である。図8(A)は、ノートプラスデータの例を示す。操作者は、マウス等を用いて、挿入したい歌詞イベントの範囲RGを指定することができる。例えば、範囲RGとして、歌詞イベントL5及びL6を指定することができる。   8A to 8F are diagrams for explaining the lyrics event insertion processing. FIG. 8A shows an example of note plus data. The operator can designate a range RG of the lyrics event to be inserted using a mouse or the like. For example, the lyric events L5 and L6 can be specified as the range RG.

まず、図8(B)のクリップボードに、範囲RG内の歌詞イベントL5及びL6をコピーする。   First, the lyrics events L5 and L6 in the range RG are copied to the clipboard in FIG.

次に、図8(C)に示すように、操作者は、マウス等を用いて、挿入位置PTを指定することができる。例えば、挿入位置PTとして、第3行目のノートプラスイベント「N3,L3」を指定することができる。   Next, as shown in FIG. 8C, the operator can designate the insertion position PT using a mouse or the like. For example, the note plus event “N3, L3” in the third row can be designated as the insertion position PT.

次に、図8(D)のバッファに、挿入位置PT以降の歌詞イベントL3〜L8をコピーする。   Next, the lyrics events L3 to L8 after the insertion position PT are copied into the buffer of FIG.

次に、図8(E)に示すように、図8(C)の挿入位置PT以降のノートイベントN3及びN4に、クリップボード(図8(B))の歌詞イベントL5及びL6を割り当てる。   Next, as shown in FIG. 8E, the lyric events L5 and L6 on the clipboard (FIG. 8B) are assigned to the note events N3 and N4 after the insertion position PT in FIG. 8C.

次に、図8(F)に示すように、図8(E)のノートプラスデータ中の第5行目「N5,L5」以降に、バッファ(図8(D))内の歌詞イベントL3〜L8を割り当てる。ただし、ノートイベントN8よりも後ろにはノートイベントがないので、ノートイベントN8に残りの歌詞イベントL6〜8をまとめて割り当てる。その結果、図8(F)のノートプラスデータには、挿入位置PTに歌詞イベントL5及びL6が挿入されたことになる。   Next, as shown in FIG. 8F, after the fifth line “N5, L5” in the note plus data of FIG. Assign L8. However, since there is no note event behind the note event N8, the remaining lyrics events L6 to L8 are allotted to the note event N8. As a result, the lyric events L5 and L6 are inserted into the insertion position PT in the note plus data of FIG.

図9は、上記の歌詞イベント挿入処理を実現するためのフローチャートである。   FIG. 9 is a flowchart for realizing the above-described lyrics event insertion processing.

ステップSE1では、任意行数RGの歌詞イベントを指定し(図8(A))、クリップボード(図8(B))にコピーする。   In step SE1, a lyrics event having an arbitrary number of lines RG is designated (FIG. 8A) and copied to the clipboard (FIG. 8B).

ステップSE2では、歌詞イベントの挿入位置PTを指定する(図8(C))。   In step SE2, the lyrics event insertion position PT is designated (FIG. 8C).

ステップSE3では、挿入位置PT以降の歌詞イベントをバッファ(図8(D))にコピーする。   In step SE3, the lyrics event after the insertion position PT is copied to the buffer (FIG. 8D).

ステップSE4では、クリップボード(図8(B))の歌詞イベントを、挿入位置PTから挿入行数RG分だけノートプラスデータに割り当てる(図8(E))。   In step SE4, the lyrics event on the clipboard (FIG. 8B) is assigned to the note plus data by the number of inserted rows RG from the insertion position PT (FIG. 8E).

ステップSE5では、バッファ(図8(D))の歌詞イベントを、挿入位置PTから挿入行数RG分より後ろのノートプラスデータに割り当てる(図8(F))。以上で、歌詞イベント挿入処理を終了する。   In step SE5, the lyric event in the buffer (FIG. 8D) is assigned to the note plus data after the insertion row number RG from the insertion position PT (FIG. 8F). The lyrics event insertion process is thus completed.

なお、図8(A)のノートプラスデータに所望の歌詞イベントを挿入して、図8(F)のノートプラスデータを生成する方法は上記以外の方法でもよい。   Note that a method other than the above may be used to generate the note plus data of FIG. 8F by inserting a desired lyric event into the note plus data of FIG. 8A.

図10(A)〜(E)は、歌詞イベント削除処理を説明するための図である。図10(A)は、ノートプラスデータの例を示す。操作者は、マウス等を用いて、削除したい歌詞イベントの範囲RGを指定することができる。例えば、範囲RGとして、歌詞イベントL3及びL4を指定することができる。   FIGS. 10A to 10E are diagrams for explaining the lyrics event deletion process. FIG. 10A shows an example of note plus data. The operator can designate the range RG of the lyrics event to be deleted using a mouse or the like. For example, the lyrics events L3 and L4 can be specified as the range RG.

まず、図10(B)のクリップボードに、範囲RG内の歌詞イベントL3及びL4をコピーする。このクリップボードの内容は、この後の処理で使用することはないが、必要に応じて図8(B)のクリップボードとして使用することができる。   First, the lyrics events L3 and L4 in the range RG are copied to the clipboard in FIG. The contents of this clipboard are not used in the subsequent processing, but can be used as the clipboard in FIG.

次に、図10(C)のバッファに、範囲RGより後ろの歌詞イベントL5〜L8をコピーする。   Next, the lyrics events L5 to L8 after the range RG are copied to the buffer of FIG.

次に、図10(D)に示すように、図10(A)の範囲RG以降の歌詞イベントL3〜L8を削除する。   Next, as shown in FIG. 10D, the lyrics events L3 to L8 after the range RG in FIG. 10A are deleted.

次に、図10(E)に示すように、図10(D)の範囲RG以降のノートイベントN3〜N8に、バッファ(図10(C))内の歌詞イベントL5〜L8を割り当てる。ただし、歌詞イベントL3及びL4を削除したため、最後のノートイベントN7及びN8には空白行の歌詞イベントが割り当てられる。図10(E)のノートプラスデータでは、歌詞イベントL3及びN4が削除されたため、歌詞イベントL2の次に歌詞イベントL5が続く。   Next, as shown in FIG. 10E, the lyric events L5 to L8 in the buffer (FIG. 10C) are assigned to the note events N3 to N8 after the range RG in FIG. 10D. However, since the lyric events L3 and L4 are deleted, the lyric event of the blank line is assigned to the last note events N7 and N8. In the note plus data of FIG. 10 (E), the lyric events L3 and N4 are deleted, so the lyric event L2 follows the lyric event L2.

図11は、上記の歌詞イベント削除処理を実現するためのフローチャートである。   FIG. 11 is a flowchart for realizing the above-described lyrics event deletion processing.

ステップSF1では、削除すべき任意行数RGの歌詞イベントを指定し(図10(A))、クリップボード(図10(B))にコピーする。   In step SF1, a lyric event having an arbitrary number of lines RG to be deleted is designated (FIG. 10A) and copied to the clipboard (FIG. 10B).

ステップSF2では、削除される行RGより後ろの歌詞イベントをバッファ(図10(C))にコピーする。   In step SF2, the lyrics event after the deleted line RG is copied to the buffer (FIG. 10C).

ステップSF3では、削除される行RG以降の歌詞データを消去する(図10(D))。   In step SF3, the lyric data after the deleted line RG is erased (FIG. 10D).

ステップSF4では、バッファ(図10(C))の歌詞イベントを、削除行RG以降のノートプラスデータに割り当てる(図10(E))。以上で、歌詞イベント削除処理を終了する。   In step SF4, the lyrics event in the buffer (FIG. 10C) is assigned to the note plus data after the deleted line RG (FIG. 10E). This is the end of the lyrics event deletion process.

歌詞イベント削除処理は、演奏データをアレンジしてノートイベントの数が少なくなったり、歌詞データの入力ミスにより歌詞イベントの数が多くなった場合等に有効な処理である。   The lyric event deletion process is effective when the performance data is arranged and the number of note events decreases, or when the number of lyric events increases due to a lyric data input error.

なお、図10(A)のノートプラスデータから所望の歌詞イベントを削除して図10(E)のノートプラスデータを生成する方法は上記以外の方法でもよい。   Note that a method other than the above may be used to generate the note plus data in FIG. 10E by deleting a desired lyric event from the note plus data in FIG.

図12(A)〜(D)は、第1の歌詞自動割り当て処理を説明するための図である。   12A to 12D are diagrams for explaining the first automatic lyrics allocation process.

図12(A)は、ノートプラスデータの例を示す。操作者は、マウス等を用いて、自動割り当てを行いたいノートプラスイベントの範囲RGを指定することができる。例えば、範囲RGとして、第2〜6のノートプラスイベントを指定することができる。   FIG. 12A shows an example of note plus data. The operator can specify a note plus event range RG to be automatically assigned by using a mouse or the like. For example, the second to sixth note plus events can be designated as the range RG.

まず、図12(B)のバッファに、範囲RG内の歌詞イベント「いうえおかきく」をコピーする。次に、図12(C)に示すように、図12(A)の範囲RG内の歌詞イベントを削除する。   First, the lyric event “Iueokakiku” in the range RG is copied to the buffer in FIG. Next, as shown in FIG. 12C, the lyric event in the range RG in FIG. 12A is deleted.

次に、図12(D)に示すように、図12(D)の範囲RG内のノートイベントN2〜N6に、バッファ(図12(B))内の歌詞イベント「いうえおかきく」を1文字ずつ割り当てる。ただし、最後のノートイベントN6には、残りの文字列「かきく」を割り当てる。図12(D)のノートプラスデータでは、範囲RG内のノートイベントN2〜N5にそれぞれ1文字ずつ割り当てられ、ノートイベントN6に3文字「かきく」が割り当てられる。基本的に、1音符に1文字(音節)が割り当てられる。   Next, as shown in FIG. 12D, the lyric event “Iue Okikaku” in the buffer (FIG. 12B) is set to 1 in the note events N2 to N6 in the range RG in FIG. Assign character by character. However, the remaining character string “Kakiku” is assigned to the last note event N6. In the note plus data of FIG. 12D, one character is assigned to each of the note events N2 to N5 in the range RG, and three characters “Kakiku” are assigned to the note event N6. Basically, one character (syllable) is assigned to one note.

第1の歌詞自動割り当て処理は、範囲RGの行数内で、すなわち、行数を増減させることなく、各行に自動的に歌詞イベントを割り当てる処理である。   The first lyrics automatic assignment process is a process for automatically assigning a lyric event to each line within the range RG, that is, without increasing or decreasing the number of lines.

図13は、上記の第1の歌詞自動割り当て処理を実現するためのフローチャートである。   FIG. 13 is a flowchart for realizing the first automatic lyrics allocation process.

ステップSG1では、歌詞を自動割り当てする複数行RGを選択する(図12(A))。   In step SG1, a multi-line RG to which lyrics are automatically assigned is selected (FIG. 12A).

ステップSG2では、選択された複数行RGに含まれる歌詞イベントをバッファ(図12(B))にコピーする。ただし、歌詞イベントが音素列により構成されているときには、バッファ中の音素列を文字データに変換する。   In step SG2, the lyrics event included in the selected plurality of rows RG is copied to the buffer (FIG. 12B). However, when the lyric event is composed of a phoneme string, the phoneme string in the buffer is converted into character data.

ステップSG3では、選択された複数行RG内の歌詞イベントを消去する(図12(C))。   In step SG3, the lyric event in the selected plurality of rows RG is deleted (FIG. 12C).

ステップSG4では、バッファ(図12(B))内の文字列データを、選択された複数行RGのノートプラスデータに割り当てる(図12(D))。以上で、第1の歌詞自動割り当て処理を終了する。   In step SG4, the character string data in the buffer (FIG. 12B) is assigned to the selected note-plus data of the plurality of rows RG (FIG. 12D). This completes the first automatic lyrics allocation process.

図14(A)、(B)は、空白行自動挿入処理を説明するための図である。図14(A)は、ノートプラスデータの例を示す。操作者は、マウス等を用いて、空白行を挿入したい行RGを選択することができる。例えば、選択行RGとして、第4行のノートプラスイベントを指定することができる。   FIGS. 14A and 14B are diagrams for explaining blank line automatic insertion processing. FIG. 14A shows an example of note plus data. The operator can select a row RG into which a blank row is to be inserted using a mouse or the like. For example, the note plus event in the fourth row can be designated as the selected row RG.

まず、選択行RG内の歌詞イベントを構成する文字数をカウントする。例えば、歌詞イベント「おかきく」の文字数は4文字である。   First, the number of characters constituting the lyric event in the selected row RG is counted. For example, the number of characters in the lyric event “Okakiku” is four characters.

次に、図14(B)に示すように、「当該文字数−1」行の空白行を、選択行RGの位置に挿入する。例えば、4−1=3行の空白行を挿入する。選択行RG以降のノートイベントN4〜N6には空白行が割り当てられ、ノートイベントN7に歌詞イベント「おかきく」が割り当てられる。   Next, as shown in FIG. 14B, a blank line of “number of characters −1” is inserted at the position of the selected line RG. For example, 4-1 = 3 blank lines are inserted. Blank lines are assigned to the note events N4 to N6 after the selected row RG, and the lyric event “Okakiku” is assigned to the note event N7.

なお、選択行RGの歌詞イベント「おかきく」の前に空白行を挿入する場合に限定されず、歌詞イベント「おかきく」の後ろに空白行を挿入してもよい。   Note that the present invention is not limited to the case where a blank line is inserted before the lyric event “Okakuku” in the selected line RG, and a blank line may be inserted after the lyric event “Okakiku”.

この後、第4行〜第7行を選択して、図12に示した第1の歌詞自動割り当て処理を行えば、当該空白行に歌詞イベントを割り当てることができる。具体的には、「N4,お」、「N5,か」、「N6,き」、「N7,く」のように割り当てることができる。   Thereafter, if the fourth to seventh lines are selected and the first automatic lyrics allocation process shown in FIG. 12 is performed, a lyric event can be allocated to the blank line. Specifically, it can be assigned as “N4, O”, “N5, K”, “N6, K”, “N7, K”.

図15は、上記の空白行自動挿入処理を実現するためのフローチャートである。   FIG. 15 is a flowchart for realizing the blank line automatic insertion processing described above.

ステップSH1では、空白行を自動挿入する行RGを選択する(図14(A))。   In step SH1, a row RG for automatically inserting a blank row is selected (FIG. 14A).

ステップSH2では、選択された行RG内の歌詞イベントの文字数を検出する。歌詞イベントが音素列により構成されるときには、音素列を文字に換算してから文字数を検出する。   In step SH2, the number of characters in the lyrics event in the selected row RG is detected. When the lyric event is composed of phoneme strings, the number of characters is detected after the phoneme strings are converted into characters.

ステップSH3では、「文字数−1」の行数の空白行を選択行RGの位置に挿入する。この挿入は、上記空白行挿入と同様に、バッファを用いて行うことができる。以上で、空白行自動挿入処理を終了する。   In step SH3, a blank line having the number of characters “−1” is inserted at the position of the selected line RG. This insertion can be performed using a buffer in the same manner as the blank line insertion. This is the end of the blank line automatic insertion process.

図16(A)〜(D)は、第2の歌詞自動割り当て処理を説明するための図である。   FIGS. 16A to 16D are diagrams for explaining the second automatic lyrics allocation process.

図16(A)は、ノートプラスデータの例を示す。操作者は、マウス等を用いて、自動割り当てを行いたいノートプラスイベントの範囲RGを指定することができる。例えば、範囲RGとして、第2〜6のノートプラスイベントを指定することができる。   FIG. 16A shows an example of note plus data. The operator can specify a note plus event range RG to be automatically assigned by using a mouse or the like. For example, the second to sixth note plus events can be designated as the range RG.

まず、図16(B)のバッファに、範囲RG内の歌詞イベント「いうえおかきく」をコピーする。   First, the lyric event “Iueokakiku” in the range RG is copied to the buffer in FIG.

次に、図16(C)に示すように、バッファ内の文字数(7文字)が範囲RGの行数(5行)よりも2文字多いので、2行の空白行を範囲RGの位置に挿入する。   Next, as shown in FIG. 16C, since the number of characters in the buffer (7 characters) is 2 characters more than the number of rows in the range RG (5 rows), two blank lines are inserted at the position of the range RG. To do.

次に、図16(D)に示すように、選択行RGの位置からバッファ(図16(B))内の文字数(7文字)までの数のノートイベントN2〜N8に、バッファ内の文字列「いうえおかきく」を1文字ずつ割り当てる。ノートイベントN2〜N8には、それぞれ1文字の歌詞イベントが割り当てられる。   Next, as shown in FIG. 16D, the character strings in the buffer are added to the number of note events N2 to N8 from the position of the selected row RG to the number of characters (7 characters) in the buffer (FIG. 16B). Assign "Iueokaki" one character at a time. Each of the note events N2 to N8 is assigned a one-letter lyric event.

第2の歌詞自動割り当て処理は、選択された行RGに含まれる全ての文字が、必ず1ノートイベントに付き1文字割り当てられるようにする処理である。   The second automatic lyrics allocation process is a process for ensuring that all characters included in the selected row RG are always allocated to one note event.

図17は、上記の第2の歌詞自動割り当て処理を実現するためのフローチャートである。   FIG. 17 is a flowchart for realizing the second automatic lyrics allocation process.

ステップSI1では、歌詞を自動割り当てする複数行RGのノートプラスイベントを選択する(図16(A))。   In step SI1, a note plus event of multiple lines RG to which lyrics are automatically assigned is selected (FIG. 16A).

ステップSI2では、選択された複数行RG内の歌詞イベントをバッファ(図16(B))にコピーする。ただし、歌詞イベントが音素列により構成されているときには、バッファ中の音素列を文字データに変換する。   In step SI2, the lyric event in the selected multi-row RG is copied to the buffer (FIG. 16B). However, when the lyric event is composed of a phoneme string, the phoneme string in the buffer is converted into character data.

ステップSI3では、バッファ内の文字数を検出する。ステップSI4では、選択された行数RGと検出された文字数を比較する。   In step SI3, the number of characters in the buffer is detected. In step SI4, the selected number of lines RG is compared with the number of detected characters.

ステップSI5では、比較した行数が等しいか、多いか、少ないかをチェックする。行数が多いときにはステップSI6へ進み、余分な行数を削除し、ステップSI8へ進む。行数が少ないときにはステップSI7へ進み、足りない行数を挿入し(図16(C))、ステップSI8へ進む。行数が等しいときには、行数を変更せずに、ステップSI8へ進む。   In step SI5, it is checked whether the number of compared lines is equal, larger, or smaller. When the number of lines is large, the process proceeds to step SI6, the unnecessary number of lines is deleted, and the process proceeds to step SI8. When the number of lines is small, the process proceeds to step SI7, an insufficient number of lines is inserted (FIG. 16C), and the process proceeds to step SI8. When the number of lines is equal, the process proceeds to step SI8 without changing the number of lines.

ステップSI8では、バッファ内の文字列データを、選択行RGの先頭行から、選択行RGの行数だけ、又は削除後の行数だけ、又は挿入後の行数だけ、ノートプラスイベントに割り当てる(図16(D))。以上で、第2の歌詞自動割り当て処理を終了する。   In step SI8, the character string data in the buffer is assigned to the note plus event from the first line of the selected line RG, the number of lines of the selected line RG, the number of lines after deletion, or the number of lines after insertion. FIG. 16D). This completes the second automatic lyrics allocation process.

図18(A)〜(D)は、複数行併合処理を説明するための図である。図18(A)は、ノートプラスデータの例を示す。ノートプラスデータは、ノートプラスイベント「N1,あ」、「N2,い」、「N3,う」、「N4,え」、「N5,お」を有する。   18A to 18D are diagrams for explaining the multi-row merging process. FIG. 18A shows an example of note plus data. The note plus data includes note plus events “N1, a”, “N2, i”, “N3, u”, “N4, e”, “N5, o”.

操作者は、マウス等を用いて、併合するノートプラスイベントの範囲RGを指定することができる。例えば、範囲RGとして、第2及び3のノートプラスイベントを指定することができる。   The operator can designate a range RG of note plus events to be merged using a mouse or the like. For example, the second and third note plus events can be designated as the range RG.

まず、図18(B)のバッファに、範囲RG内の歌詞イベント「いう」をコピーする。   First, the lyrics event “say” in the range RG is copied to the buffer of FIG.

次に、図18(C)に示すように、範囲RG内の先頭行の歌詞イベント「い」だけを残し、残りの行の歌詞イベント「う」を削除する。範囲RGより後ろの歌詞イベント「え、お」は、前の行に詰められる。ノートプラスデータは、ノートプラスイベント「N1,あ」、「N2,い」、「N3,え」、「N4,お」、「N5,_」を有する。   Next, as shown in FIG. 18C, only the lyric event “I” in the first line in the range RG is left, and the lyric event “U” in the remaining lines is deleted. Lyric events “e, o” behind the range RG are packed in the previous line. The note plus data includes note plus events “N1, a”, “N2, i”, “N3, e”, “N4, o”, “N5_”.

次に、図18(D)に示すように、範囲RG内の先頭行のノートイベントN2に、バッファ内の文字列「いう」を割り当てる。第2のノートイベントN2には、範囲RG内の歌詞イベント「いう」が併合されて割り当てられる。   Next, as shown in FIG. 18D, the character string “say” in the buffer is assigned to the note event N2 in the first line in the range RG. The lyrics event “say” in the range RG is merged and assigned to the second note event N2.

上記の第1又は第2の歌詞自動割り当て処理では、1つのノートイベントに1文字の歌詞イベントが割り当てたが、その後にこの複数行併合処理を利用することにより、1つのノートイベントに2文字以上の歌詞イベントを割り当てるように修正することができる。   In the first or second automatic lyrics assignment process, one letter event is assigned to one note event. After that, by using this multi-line merge process, two or more letters are assigned to one note event. Can be modified to assign lyric events.

図19は、上記の複数行併合処理を実現するためのフローチャートである。ステップSJ1では、歌詞イベントを併合する複数行RGを選択する(図18(A))。   FIG. 19 is a flowchart for realizing the above-described multi-row merging process. In step SJ1, a plurality of rows RG for merging lyrics events are selected (FIG. 18A).

ステップSJ2では、選択された複数行RG内の歌詞イベントをバッファ(図18(B))にコピーする。ただし、歌詞イベントが音素列により構成されているときには、バッファ中の音素列を文字データに変換する。   In step SJ2, the lyric event in the selected multi-line RG is copied to the buffer (FIG. 18B). However, when the lyric event is composed of a phoneme string, the phoneme string in the buffer is converted into character data.

ステップSJ3では、選択された複数行RGのうち、1行を残して残りの行の歌詞イベントを削除する(図18(C))。削除された後の歌詞イベントは、前の行に詰められる。   In step SJ3, the lyric events in the remaining lines are deleted while leaving one line out of the selected multiple lines RG (FIG. 18C). Lyric events after being deleted are packed to the previous line.

ステップSJ4では、バッファ内の文字列データを、範囲RG内の残った行のノートプラスデータ内のノートイベントに割り当てる(図18(D))。以上で、複数行併合処理を終了する。   In step SJ4, the character string data in the buffer is assigned to the note event in the note plus data of the remaining lines in the range RG (FIG. 18D). This completes the multi-row merging process.

図20(A)、(B)は、歌詞イベント分割処理を説明するための図である。図20(A)は、ノートプラスデータの例を示す。ノートプラスデータは、ノートプラスイベント「N1,あ」、「N2,いう」、「N3,え」を有する。   20A and 20B are diagrams for explaining the lyrics event dividing process. FIG. 20A shows an example of note plus data. The note plus data includes note plus events “N1, A”, “N2,” and “N3, E”.

操作者は、マウス等を用いて、歌詞イベントの分割を行いたい行RGを選択し、その行内で分割を行いたい文字位置にカーソルCSを設定する。例えば、範囲RGとして、第2のノートプラスイベント「N2,いう」を選択し、カーソルCSを「い」と「う」の間に設定する。その後、操作者がリターンキー(実行キー)を操作することにより、以下の分割処理が行われる。   Using the mouse or the like, the operator selects a line RG where the lyrics event is to be divided, and sets the cursor CS at the character position where the division is desired within the line. For example, as the range RG, the second note plus event “N2, say” is selected, and the cursor CS is set between “I” and “U”. Thereafter, when the operator operates the return key (execution key), the following division processing is performed.

図20(B)に示すように、文字「い」と「う」とが分割される。ノートプラスデータは、ノートプラスイベント「N1,あ」、「N2,い」、「N3,うえ」を有する。カーソルCSの後ろの文字「う」は、選択行RGの後ろの行の歌詞イベント「え」と併合される。   As shown in FIG. 20B, the characters “I” and “U” are divided. The note plus data includes note plus events “N1, a”, “N2, i”, “N3, u”. The character “U” behind the cursor CS is merged with the lyrics event “E” in the row after the selected row RG.

空白行の歌詞イベントを多数挿入しておき(図6)、先頭から順番に歌詞を割り当てる際に便利である。   This is convenient when a number of blank line lyric events are inserted (FIG. 6) and lyrics are assigned in order from the top.

図21は、上記の歌詞イベント分割処理を実現するためのフローチャートである。   FIG. 21 is a flowchart for realizing the above-described lyrics event division processing.

ステップSK1では、分割する歌詞イベントを含む行RGを選択する(図20(A))。   In step SK1, a row RG including a lyrics event to be divided is selected (FIG. 20A).

ステップSK2では、マウス操作等により分割位置にカーソルを設定する(図20(A))。   In step SK2, the cursor is set at the division position by a mouse operation or the like (FIG. 20A).

ステップSK3では、リターンキーの操作に応じて、分割位置以降の歌詞イベントをその次の行のノートプラスデータ内の歌詞イベントに追加する(図20(B))。以上で、歌詞イベント分割処理を終了する。   In step SK3, the lyric event after the division position is added to the lyric event in the note plus data on the next line in accordance with the operation of the return key (FIG. 20B). This is the end of the lyrics event division process.

図22(A)〜(C)は、仮名変換処理を説明するための図である。図22(A)は、ノートプラスデータの例を示す。ノートプラスデータは、ノートプラスイベント「N1,あか」、「N2,い」、「N3,夕」、「N4,日」を有する。   22A to 22C are diagrams for explaining the kana conversion process. FIG. 22A shows an example of note plus data. The note plus data includes note plus events “N1, red”, “N2, i”, “N3, evening”, “N4, day”.

操作者は、マウスを用いて、仮名変換を行いたい歌詞イベント「夕」の位置にマウスポインタ71を移動し、マウスの右ボタンをクリックする。   The operator uses the mouse to move the mouse pointer 71 to the position of the lyrics event “Evening” for which kana conversion is desired, and clicks the right button of the mouse.

図22(B)に示すように、歌詞イベント「夕」の読み仮名候補がメニュー72に表示される。メニュー72には、例えば「ゆう」、「せき」が表示される。操作者は、適切な読み仮名である文字列「ゆう」の位置にマウスポインタ71を移動させ、マウスの左ボタンをクリックする。   As shown in FIG. 22B, candidate readings for the lyrics event “Evening” are displayed on the menu 72. In the menu 72, for example, “Yu” and “Seki” are displayed. The operator moves the mouse pointer 71 to the position of the character string “Yu”, which is an appropriate reading kana, and clicks the left button of the mouse.

図22(C)に示すように、ノートイベントN3に割り当てられる歌詞イベントは漢字「夕」から仮名「ゆう」に変換される。漢字の他、英数字や記号等も仮名に変換することができる。漢字や英数字等を仮名に変換すれば、その後に仮名から音素列に変換することができるので(図5)、音素列の発音が可能になる。   As shown in FIG. 22C, the lyric event assigned to the note event N3 is converted from the Chinese character “Even” to the kana “Yu”. In addition to kanji, alphanumeric characters and symbols can be converted to kana. If kanji or alphanumeric characters are converted to kana, then the kana can be converted to a phoneme string (FIG. 5), so that the phoneme string can be pronounced.

図23は、上記の仮名変換処理を実現するためのフローチャートである。ステップSL1では、仮名変換する文字の行をマウスポインタ71で指定する(図22(A))。   FIG. 23 is a flowchart for realizing the kana conversion process described above. In step SL1, the line of the character to be converted to kana is designated with the mouse pointer 71 (FIG. 22A).

ステップSL2では、マウスの右ボタンがクリックされると、選択文字に対応する読み仮名をデータベースから検索し、読み仮名候補として表示する(図22(B))。データベースは、漢字等から仮名への変換するための辞書であり、外部記憶装置13又はRAM3等に記憶される。   In step SL2, when the right button of the mouse is clicked, the reading kana corresponding to the selected character is retrieved from the database and displayed as a reading kana candidate (FIG. 22B). The database is a dictionary for converting kanji or the like into kana and is stored in the external storage device 13 or the RAM 3.

ステップSL3では、読み仮名候補のいずれかをマウスポインタ71で指定する(図22(B))。   In step SL3, one of the reading kana candidates is designated with the mouse pointer 71 (FIG. 22B).

ステップSL4では、マウスの左ボタンがクリックされると、指定された読み仮名候補を指定行の文字列として、ノートプラスデータ内のノートイベントに割り当てる(図22(C))。以上で、仮名変換処理を終了する。   In step SL4, when the left button of the mouse is clicked, the designated reading kana candidate is assigned to the note event in the note plus data as the character string of the designated line (FIG. 22C). This completes the kana conversion process.

以上のようにして作成されたノートプラスイベント(図5の音素列変換処理によって文字列を音素列に変換したもの)を、外部音源装置21へと供給することによって、外部音源装置21内の音声合成回路32において、歌唱音声信号を生成させることができる。なお、本実施の形態において説明した音声データ処理装置(パーソナルコンピュータ1)においては、ノートプラスデータを、そのままの形式で再生処理可能な、いわば、専用の音声データ処理装置である。この音声データ処理装置は、ノートイベントと歌詞イベント(音素列)を適切な順序で送信することができる。   The note plus event (the character string converted into the phoneme string by the phoneme string conversion process in FIG. 5) generated as described above is supplied to the external sound source device 21, whereby the sound in the external sound source device 21 is In the synthesis circuit 32, a singing voice signal can be generated. Note that the audio data processing apparatus (personal computer 1) described in the present embodiment is a dedicated audio data processing apparatus capable of reproducing and processing note-plus data in the same format. This audio data processing apparatus can transmit note events and lyric events (phoneme strings) in an appropriate order.

ここで、ノートイベントと歌詞イベントを送信する際の適切な順序について説明する。図24(A)、(B)は、ノートイベントと歌詞イベントの送信順序を説明するための図である。ノートプラスイベントは、例えばノートイベントN1と歌詞イベントL1の組である(図6(A)))。ノートイベントN1と歌詞イベントL1は理論上は同じタイミングで送信するべきであるが、MIDI通信はシリアル通信であるため、いずれを先に外部音源装置21(図1)へ送信すべきかが問題になる。ノートイベントN1はノートオンイベントに変換されて送信される。歌詞イベントは音素列に変換(図5)されて送信される。   Here, an appropriate order for transmitting the note event and the lyrics event will be described. FIGS. 24A and 24B are diagrams for explaining the transmission order of note events and lyrics events. The note plus event is, for example, a set of a note event N1 and a lyrics event L1 (FIG. 6A)). The note event N1 and the lyric event L1 should theoretically be transmitted at the same timing, but since MIDI communication is serial communication, which one should be transmitted to the external sound source device 21 (FIG. 1) first becomes a problem. . The note event N1 is converted into a note-on event and transmitted. The lyric event is converted into a phoneme string (FIG. 5) and transmitted.

図24(A)は、音素列、ノートオンの順序で送信するタイミングを示す。まず、音節「あ」に対応する音素列「aj」を送信する。その後にノートオンを送信すると、そのタイミングで「あ」の発音が開始する。次に、音節「い」に対応する音素列「ij」を送信する。その後にノートオンを送信すると、そのタイミングで「あ」から「い」に発音が切り換わる。次に、音節「う」に対応する音素列「uj」を送信する。その後にノートオンを送信すると、そのタイミングで「い」から「う」に発音が切り換わる。   FIG. 24A shows the timing of transmission in the order of phoneme string and note-on. First, the phoneme string “aj” corresponding to the syllable “a” is transmitted. Then, when note-on is transmitted, the sound of “a” starts at that timing. Next, the phoneme string “ij” corresponding to the syllable “i” is transmitted. After that, when note-on is transmitted, the sound is switched from “A” to “I” at that timing. Next, the phoneme string “uj” corresponding to the syllable “U” is transmitted. When a note-on is transmitted after that, the sound is switched from “I” to “U” at that timing.

図24(A)では、ノートオン(ノートイベント)と音素列(歌詞イベント)との対応がとれており、適正な歌を歌わせることができる。   In FIG. 24A, the correspondence between note-on (note event) and phoneme string (lyric event) is taken, and an appropriate song can be sung.

図24(B)は、ノートオン、音素列の順序で送信するタイミングを示す。まず、ノートオンを送信する。この時点では、音素列が設定されていないので、例えば「あ」等の初期設定されている音素列が発音を開始する。その後、音節「あ」に対応する音素列「aj」を送信する。この時点では、発音に変化はなく初期設定されている「あ」の発音が持続される。次に、ノートオンを送信すると、そのタイミングで初期設定された音素列「あ」の発音から、送信された音素列「あ」の発音に切り換わる。その後に、音節「い」に対応する音素列「ij」を送信するが、発音に影響はない。次に、ノートオンを送信すると、そのタイミングで「あ」から「い」に発音が切り換わる。その後に、音節「う」に対応する音素列「uj」を送信するが、発音に影響はない。   FIG. 24B shows the timing of transmission in the order of note-on and phoneme sequence. First, note-on is transmitted. At this time, since no phoneme string is set, for example, an initial phoneme string such as “A” starts sounding. Thereafter, the phoneme string “aj” corresponding to the syllable “a” is transmitted. At this point, there is no change in pronunciation, and the default pronunciation of “A” is maintained. Next, when note-on is transmitted, the pronunciation of the phoneme string “a” initialized at that timing is switched to the pronunciation of the transmitted phoneme string “a”. After that, the phoneme string “ij” corresponding to the syllable “i” is transmitted, but the pronunciation is not affected. Next, when note-on is transmitted, the sound is switched from “A” to “I” at that timing. After that, the phoneme string “uj” corresponding to the syllable “U” is transmitted, but the pronunciation is not affected.

図24(B)では、ノートオン(ノートイベント)と音素列(歌詞イベント)との対応がとれていず、1つのノート分だけ遅れて歌詞が発音されてしまう。これでは、適正な歌を歌わせることができない。   In FIG. 24B, the correspondence between note-on (note event) and phoneme string (lyric event) is not taken, and the lyrics are pronounced with a delay of one note. This makes it impossible to sing a proper song.

外部音源装置21には、図24(A)に示したように、まず音素列を送信し、その後、対応するノートオンを送信する必要がある。上述したように、この実施の形態における音声データ処理装置は、ノートプラスデータを正しく扱うことができる装置であり、つ1のノートプラスイベントについて、先に音素列を送信した後、ノートオンを送信するようになっている。ところが、本音声データ処理装置以外のシーケンサ等においては、ノートプラスイベントを正しく扱うとこができない。このため、本音声データ処理装置は、ノートプラスデータを、より汎用的なスタンダードMIDIファイルに変換する機能を備えている。このとき、単純にスタンダードMIDIファイルに変換するだけでは、後述するような不都合が生じてしまう可能性があるため、上述したような送信順序を考慮しての変換をするようにしている。以下、ノートイベントと歌詞イベント(音素列)の送信順序を考慮して、ノートプラスデータを、スタンダードMIDIファイルに変換する方法を説明する。   As shown in FIG. 24A, the external sound source device 21 needs to first transmit a phoneme string, and then transmit a corresponding note-on. As described above, the audio data processing apparatus according to this embodiment is an apparatus that can correctly handle note-plus data, and for a single note-plus event, first transmits a phoneme string and then transmits a note-on. It is supposed to be. However, a sequencer or the like other than the voice data processing apparatus cannot handle the note plus event correctly. For this reason, the audio data processing apparatus has a function of converting Note Plus data into a more general-purpose standard MIDI file. At this time, the simple conversion to the standard MIDI file may cause inconvenience as described later. Therefore, the conversion is performed in consideration of the transmission order as described above. Hereinafter, a method for converting note-plus data into a standard MIDI file in consideration of the transmission order of note events and lyrics events (phoneme strings) will be described.

図25は、ノートプラスデータ75をスタンダードMIDIファイル76に変換する方法を説明するための図である。   FIG. 25 is a diagram for explaining a method of converting the note plus data 75 into the standard MIDI file 76. As shown in FIG.

ノートプラスデータ75は、順にノートイベントN1、歌詞イベントL1、デュレーションT2、ノートイベントN2、歌詞イベントL2、デュレーションT3を有する。   The note plus data 75 has a note event N1, a lyric event L1, a duration T2, a note event N2, a lyric event L2, and a duration T3 in this order.

ノートイベントN1は、ノートオンイベントNON1とゲートタイムGT1を有する。ノートオンイベントNON1は、例えばノートナンバ(音高)、ベロシティ(音量)を含む。ゲートタイムGT1は、ノートオンからノートオフまでの時間であり、例えば450である。歌詞イベントL1は、音素列により構成される。ただし、呼気記号や漢字等は文字列として歌詞イベントL1内に含まれる。   The note event N1 has a note-on event NON1 and a gate time GT1. The note-on event NON1 includes, for example, a note number (pitch) and velocity (volume). The gate time GT1 is a time from note-on to note-off, and is 450, for example. The lyric event L1 includes a phoneme string. However, exhalation symbols and kanji are included as character strings in the lyrics event L1.

ノートイベントN2は、ノートイベントN1と同様に、ノートオンイベントNON2とゲートタイムGT2を有する。ゲートタイムGT2は、例えば220である。歌詞イベントL2は、歌詞イベントL1と同様に、音素列により構成される。   The note event N2 has a note-on event NON2 and a gate time GT2 similarly to the note event N1. The gate time GT2 is 220, for example. The lyric event L2 is composed of a phoneme string, like the lyric event L1.

デュレーションT2は、ノートオンイベントNON1の発音開始からノートオンイベントNON2の発音開始までの時間であり、例えば480である。デュレーションT3は、ノートオンイベントNON2の発音開始から次のノートオンイベントの発音開始までの時間であり、例えば240である。ゲートタイムやデュレーションの値は、クロック数で表される。1クロックは、例えば4分音符長の1/480の時間である。   The duration T2 is the time from the start of sound generation of the note-on event NON1 to the start of sound generation of the note-on event NON2, and is 480, for example. The duration T3 is a time from the start of sounding of the note-on event NON2 to the start of sounding of the next note-on event, and is 240, for example. The gate time and duration values are represented by the number of clocks. One clock is, for example, 1/480 of a quarter note length.

スタンダードMIDIファイル76は、MIDI規格に適した汎用フォーマットのファイルである。スタンダードMIDIファイル76は、デュレーションとイベントの組で構成される。   The standard MIDI file 76 is a general-purpose format file suitable for the MIDI standard. The standard MIDI file 76 is composed of a combination of duration and event.

スタンダードMIDIファイル76は、順に、歌詞イベントL1、デュレーションTT1、ノートオンイベントNON1、デュレーションTT2、ノートオフイベントNOFF1、デュレーションTT3、歌詞イベントL2、デュレーションTT4、ノートオンイベントNON2、デュレーションTT5、ノートオフイベントNOFF2、デュレーションTT6を有する。   The standard MIDI file 76 includes, in order, lyrics event L1, duration TT1, note-on event NON1, duration TT2, note-off event NOFF1, duration TT3, lyrics event L2, duration TT4, note-on event NON2, duration TT5, note-off event NOFF2. , Having a duration TT6.

歌詞イベントL1及びノートオンイベントNON1は、ノートプラスデータ75中の歌詞イベントL1及びノートオンイベントNON1と同じであるが、並び順が異なる。歌詞イベントL1をノートオンイベントNON1よりも先に送信することにより、図24(A)のように正常な歌を歌わせることができる。   The lyric event L1 and the note-on event NON1 are the same as the lyric event L1 and the note-on event NON1 in the note plus data 75, but the arrangement order is different. By transmitting the lyric event L1 prior to the note-on event NON1, a normal song can be sung as shown in FIG.

デュレーションTT1は、歌詞イベントL1の送信からノートオンイベントNON1の送信までの時間であり、例えば5である。歌詞イベントL1をノートオンイベントNON1よりも前のアドレスに位置するのであれば、理論的にはデュレーションTT1は0でもよいと考えることができる。   The duration TT1 is the time from the transmission of the lyrics event L1 to the transmission of the note-on event NON1, and is 5 for example. If the lyric event L1 is located at an address before the note-on event NON1, theoretically, it can be considered that the duration TT1 may be zero.

しかし、デュレーションTT1を0にすると、スタンダードMIDIファイルを送信するパーソナルコンピュータ1又はシーケンサによって送信順序が異なることがある。すなわち、デュレーションTT1を0にすると、歌詞イベントL1、ノートオンイベントNON1の順で送信されるとは限らず、ノートオンイベントNON1、歌詞イベントL1の順で送信されることがある。さらに、デュレーションTT1が0でなく、1又は2であるときにも同様な現象が生じる。   However, when the duration TT1 is set to 0, the transmission order may differ depending on the personal computer 1 or sequencer that transmits the standard MIDI file. That is, when the duration TT1 is set to 0, the lyrics event L1 and the note-on event NON1 are not always transmitted in this order, but the note-on event NON1 and the lyrics event L1 may be transmitted in this order. Furthermore, a similar phenomenon occurs when the duration TT1 is not 0, but 1 or 2.

これは、シーケンサ等が歌詞イベントL1とノートオンイベントNON1との重要度を比較し、ノートオンイベントNON1の重要度が高いと判断し、ノートオンイベントNON1を歌詞イベントL1よりも先に送信しているものと考えられる。なお、歌詞イベントは、MIDI規格で決められたシステムエクスクルーシブメッセージにより送信することができる。   This is because the sequencer or the like compares the importance of the lyric event L1 and the note-on event NON1, determines that the importance of the note-on event NON1 is high, and transmits the note-on event NON1 before the lyric event L1. It is thought that there is. The lyric event can be transmitted by a system exclusive message determined by the MIDI standard.

上記の弊害を防止するため、デュレーションTT1を5にする。デュレーションTT1は3以上が好ましいが、値が大きすぎると前のイベントに悪影響を与えることも考えられる。デュレーションTT1は、3〜10が好ましい。ただし、これはクロックの音符分解能が4分音符長の1/480の場合であって、音符分解能が異なる場合は上記好ましい数値は他の値をとる。例えば、クロックの音符分解能が4分音符の1/96であれば、1〜3程度が好ましい。   In order to prevent the above adverse effects, the duration TT1 is set to 5. The duration TT1 is preferably 3 or more, but if the value is too large, the previous event may be adversely affected. The duration TT1 is preferably 3 to 10. However, this is a case where the note resolution of the clock is 1/480 of the quarter note length, and when the note resolution is different, the preferable numerical value takes other values. For example, if the note resolution of the clock is 1/96 of a quarter note, about 1 to 3 is preferable.

デュレーションTT2は、ノートオンNON1からノートオフNOFF1までの時間であり、ノートプラスデータ75のゲートタイムGT1に相当し、例えば450である。   The duration TT2 is a time from note-on NON1 to note-off NOFF1, corresponds to the gate time GT1 of the note plus data 75, and is 450, for example.

ノートプラスデータ75中のデュレーションT2は、ノートオンNON1から次のノートオンNON2までの時間であり、スタンダードMIDIファイル76中のデュレーションTT2とTT3とTT4とに分解される。   The duration T2 in the note plus data 75 is the time from the note-on NON1 to the next note-on NON2, and is decomposed into the durations TT2, TT3, and TT4 in the standard MIDI file 76.

デュレーションTT2は、上記のように、ノートプラスデータ75のゲートタイムGT1と同じく450である。デュレーションTT4は、歌詞イベントL2の送信からノートオンイベントNON2の送信までの時間であり、デュレーションTT1と同様に5である。デュレーションTT3は、ノートオフイベントNOFF1の送信から歌詞イベントL2の送信までの時間であり、TT3=T2−TT2−TT4で表される。すなわち、TT3=480−450−5=25である。   The duration TT2 is 450 as with the gate time GT1 of the note plus data 75 as described above. The duration TT4 is the time from the transmission of the lyrics event L2 to the transmission of the note-on event NON2, and is 5 as with the duration TT1. The duration TT3 is the time from the transmission of the note-off event NOFF1 to the transmission of the lyrics event L2, and is represented by TT3 = T2-TT2-TT4. That is, TT3 = 480−450−5 = 25.

上記のように、歌詞イベントL1をノートオンイベントNON1よりも前のアドレスに位置させ、かつデュレーションTT1を5にすることにより、確実に、歌詞イベントL1をノートオンイベントNON1よりも先に送信することができる。その際、ノートオンイベントNON1のタイミングは変えずに、歌詞イベントL1のタイミングを5だけ早めるので、ノートオンNON1による発音タイミングはずれることがない。   As described above, the lyric event L1 is positioned at an address before the note-on event NON1 and the duration TT1 is set to 5, so that the lyric event L1 is reliably transmitted before the note-on event NON1. Can do. At this time, the timing of the lyric event L1 is advanced by 5 without changing the timing of the note-on event NON1, so that the sounding timing by the note-on NON1 is not deviated.

また、ノートプラスデータ75をスタンダードMIDIファイル76に変換することにより汎用性が増し、他のシーケンサ等でも処理することが可能になると共に、スタンダードMIDIファイル76をフロッピディスク等でユーザに供給することが可能になる。   Further, by converting the note plus data 75 to the standard MIDI file 76, the versatility is increased, and it is possible to process with other sequencers and the like, and the standard MIDI file 76 is supplied to the user with a floppy disk or the like. It becomes possible.

図26(A)に示すように、スタンダードMIDIファイル(SMF)変換手段81は、ノートプラスデータ75をSMFデータ76に変換することができる。パーソナルコンピュータ1は、SMF変換手段81において、ノートプラスデータ75をスタンダードMIDIファイル76に変換し、外部記憶装置13にセーブすることができる。セーブされたスタンダードMIDIファイル76は、他のパーソナルコンピュータやシーケンサ等で使用することができる。また、パーソナルコンピュータ1がスタンダードMIDIファイル76を外部音源装置21に送信すれば、外部音源装置21はスタンダードMIDIファイル76に応じて発音処理を行う。   As shown in FIG. 26A, the standard MIDI file (SMF) conversion means 81 can convert the note plus data 75 into SMF data 76. The personal computer 1 can convert the note plus data 75 into the standard MIDI file 76 in the SMF conversion means 81 and save it in the external storage device 13. The saved standard MIDI file 76 can be used by other personal computers, sequencers and the like. If the personal computer 1 transmits the standard MIDI file 76 to the external sound source device 21, the external sound source device 21 performs sound generation processing according to the standard MIDI file 76.

また、図26(B)に示すように、ノートプラス変換手段82は、SMFデータ76をノートプラスデータ75に変換することができる。パーソナルコンピュータ1は、外部記憶装置13に記憶されているスタンダードMIDIファイル76をロードし、ノートプラス変換手段82において、ノートプラスデータ75に変換してRAM3に記憶することができる。この際、上記ノートプラスデータ75をスタンダードMIDIファイル76に変換したのとは逆に、ノートイベントとは独立して記憶されている歌詞イベントを、1つのノートプラスイベントにまとめる処理を行う。まず、スタンダードMIDIファイル中のデータを先頭から順次サーチし、ノートオンイベントが見つかったら対応するノートオフイベントを探してゲートタイムを含む1つのノートオンイベントを生成する。そして、該ノートオンイベントよりも5クロック前までに存在する歌詞イベントをサーチして、見つかった場合は、該歌詞イベントをノートオンイベントに付加してノートオンイベントと歌詞イベントを組にしたノートプラスイベントを生成する。操作者は、上記に示したように、ノートプラスデータ75について、種々の編集を行うことができる。なお、ノートプラスデータ75をスタンダードMIDIファイルに変換する際の処理と同様の処理を、スタンダードMIDIファイル以外の比較的汎用性の高いデータ形式に変換する場合に適用してもよい。   In addition, as shown in FIG. 26B, the note plus conversion means 82 can convert the SMF data 76 into note plus data 75. The personal computer 1 can load the standard MIDI file 76 stored in the external storage device 13, convert it into the note plus data 75 in the note plus conversion means 82, and store it in the RAM 3. At this time, contrary to the conversion of the note plus data 75 into the standard MIDI file 76, the lyrics event stored independently of the note event is combined into one note plus event. First, data in the standard MIDI file is sequentially searched from the top, and when a note-on event is found, a corresponding note-off event is searched to generate one note-on event including a gate time. Then, a lyric event existing up to 5 clocks before the note-on event is searched, and if found, the lyric event is added to the note-on event, and the note plus that combines the note-on event and the lyric event is added. Generate an event. As described above, the operator can perform various edits on the note plus data 75. Note that the same processing as that performed when converting the note-plus data 75 into a standard MIDI file may be applied to the case where the data is converted into a relatively versatile data format other than the standard MIDI file.

なお、外部音源装置21内の音声合成回路に音素列を発音させる場合に限定されない。音声合成回路を含む音源ボードをパーソナルコンピュータ1に差し込み、当該音源ボードに音素列を発音させてもよい。その場合は、パーソナルコンピュータ1に外部音源装置21を接続する必要はない。   Note that the present invention is not limited to the case where the speech synthesis circuit in the external sound source device 21 generates a phoneme string. A sound source board including a speech synthesizer circuit may be inserted into the personal computer 1 to cause the sound source board to generate a phoneme string. In that case, it is not necessary to connect the external sound source device 21 to the personal computer 1.

本実施例による音声データ処理装置は、パソコンとアプリケーションソフトウエアとによる形態に限らず、電子楽器やシーケンサの形態でもよい。アプリケーションソフトウエアは、磁気ディスク、光ディスク、半導体メモリ等の記憶媒体に記憶させ、パソコンに供給するようにしてもよいし、ネットワークを介して供給するようにしてもよい。   The audio data processing apparatus according to the present embodiment is not limited to a form using a personal computer and application software, but may be a form of an electronic musical instrument or a sequencer. The application software may be stored in a storage medium such as a magnetic disk, an optical disk, or a semiconductor memory and supplied to a personal computer or may be supplied via a network.

音声データのフォーマットはスタンダードMIDIファイルのような演奏イベントの発生時刻を1つ前のイベントからの時間で表した「イベント+相対時間」に限定されず、演奏イベントの発生時刻を曲や小節内における絶対時間で表した「イベント+絶対時間」、音符の音高と符長あるいは休符と休符長で演奏データを表した「音高(休符)+符長」、演奏の最小分解能毎にメモリの領域を確保し、演奏イベントの発生する時刻に対応するメモリ領域に演奏イベントを記憶した「ベタ方式」等の形式でもよい。   The format of the audio data is not limited to “event + relative time” in which the time of occurrence of a performance event such as a standard MIDI file is represented by the time from the previous event, but the time of occurrence of a performance event in a song or measure "Event + absolute time" expressed in absolute time, "pitch (rest) + note length" expressed in musical pitch and rest or rest and rest length, for each performance minimum resolution A format such as “solid method” in which a memory area is secured and a performance event is stored in a memory area corresponding to the time when the performance event occurs may be used.

音声データは、複数のチャンネルのデータが混在した形式であってもよいし、各チャンネルのデータがトラック毎に別れているような形式であってもよい。   The audio data may have a format in which data of a plurality of channels are mixed, or may have a format in which the data of each channel is separated for each track.

以上実施例に沿って本発明を説明したが、本発明はこれらに制限されるものではない。例えば、種々の変更、改良、組み合わせ等が可能なことは当業者に自明であろう。   Although the present invention has been described with reference to the embodiments, the present invention is not limited thereto. It will be apparent to those skilled in the art that various modifications, improvements, combinations, and the like can be made.

パーソナルコンピュータと外部音源装置とが接続されたシステムのハード構成を示す図である。It is a figure which shows the hardware constitutions of the system with which the personal computer and the external sound source device were connected. ノートイベントにテキストイベントを割り当てる処理を示す図である。It is a figure which shows the process which allocates a text event to a note event. テキストインポート処理を示すフローチャートである。It is a flowchart which shows a text import process. 図3のステップSA9に示す読み仮名及びルビ処理の詳細を示すフローチャートである。It is a flowchart which shows the details of the reading kana and ruby process shown to step SA9 of FIG. 音素列変換処理を示すフローチャートである。It is a flowchart which shows a phoneme sequence conversion process. 空白行挿入処理を説明するための図である。It is a figure for demonstrating a blank line insertion process. 空白行挿入処理を示すフローチャートである。It is a flowchart which shows a blank line insertion process. 歌詞イベント挿入処理を説明するための図である。It is a figure for demonstrating a lyric event insertion process. 歌詞イベント挿入処理を示すフローチャートである。It is a flowchart which shows a lyric event insertion process. 歌詞イベント削除処理を説明するための図である。It is a figure for demonstrating a lyric event deletion process. 歌詞イベント削除処理を示すフローチャートである。It is a flowchart which shows a lyric event deletion process. 第1の歌詞自動割り当て処理を説明するための図である。It is a figure for demonstrating a 1st automatic lyrics allocation process. 第1の歌詞自動割り当て処理を示すフローチャートである。It is a flowchart which shows a 1st automatic lyrics allocation process. 空白行自動挿入処理を説明するための図である。It is a figure for demonstrating a blank line automatic insertion process. 空白行自動挿入処理を示すフローチャートである。It is a flowchart which shows a blank line automatic insertion process. 第2の歌詞自動割り当て処理を説明するための図である。It is a figure for demonstrating the 2nd automatic lyrics allocation process. 第2の歌詞自動割り当て処理を示すフローチャートである。It is a flowchart which shows a 2nd lyrics automatic allocation process. 複数行併合処理を説明するための図である。It is a figure for demonstrating multi-line merge processing. 複数行併合処理を示すフローチャートである。It is a flowchart which shows a multiple line merge process. 歌詞イベント分割処理を説明するための図である。It is a figure for demonstrating a lyric event division | segmentation process. 歌詞イベント分割処理を示すフローチャートである。It is a flowchart which shows a lyric event division | segmentation process. 仮名変換処理を説明するための図である。It is a figure for demonstrating kana conversion processing. 仮名変換処理を示すフローチャートである。It is a flowchart which shows a kana conversion process. 図24(A)は音素列、ノートオンの順序で送信した場合の発音を示し、図24(B)はノートオン、音素列の順序で送信した場合の発音を示す図である。FIG. 24A shows the pronunciation when transmitted in the order of phoneme sequence and note-on, and FIG. 24B shows the pronunciation when transmitted in the order of note-on and phoneme sequence. ノートプラスデータとスタンダードMIDIファイルとの間の変換を示す図である。It is a figure which shows conversion between note plus data and a standard MIDI file. 図26(A)はスタンダードMIDIファイル変換手段を示し、図26(B)はノートプラス変換手段を示す図である。FIG. 26A shows standard MIDI file conversion means, and FIG. 26B shows note plus conversion means.

符号の説明Explanation of symbols

1 パーソナルコンピュータ、 2 バス、 3 RAM、 4 ROM、 5 CPU、 6 タイマ、 7 表示回路、 8 MIDIインターフェース、 9,11 検出回路、 10 マウス、 12 キーボード、 13 外部記憶装置、 14 通信インターフェース、 21外部音源装置、 22 バス、 23 MIDIインターフェース、24 RAM、 25 ROM、 26 CPU、 28 表示回路、29 楽音波形合成回路、 31 サウンドシステム、 32 音声合成回路、 33 検出回路、 34 スイッチ、 41 通信ネットワーク、 42 サーバコンピュータ、 51 演奏データ、 52 テキストデータ、 53 ノートプラスデータ、 75 ノートプラスデータ、76 スタンダードMIDIファイル、 81 スタンダードMIDIファイル変換手段、 82 ノートプラス変換手段 1 personal computer, 2 buses, 3 RAM, 4 ROM, 5 CPU, 6 timer, 7 display circuit, 8 MIDI interface, 9, 11 detection circuit, 10 mouse, 12 keyboard, 13 external storage device, 14 communication interface, 21 external Tone generator, 22 bus, 23 MIDI interface, 24 RAM, 25 ROM, 26 CPU, 28 display circuit, 29 musical sound waveform synthesis circuit, 31 sound system, 32 voice synthesis circuit, 33 detection circuit, 34 switch, 41 communication network, 42 Server computer, 51 performance data, 52 text data, 53 note plus data, 75 note plus data, 76 standard MIDI file, 81 standard MIDI file conversion means, 82 note plus Conversion means

Claims (8)

文字データとノートデータとが組になったデータを複数記憶する記憶手段と、
前記文字データとノートデータとの組をノートデータを表示単位として表示する表示手段と、
前記表示単位で空白を挿入開始する挿入位置と挿入する空白数を指定する指定手段と、
前記指定された挿入位置以降の文字データを一時的に記憶するバッファ手段と、
前記指定された挿入位置以降の文字データを消去する消去手段と、
前記指定された挿入位置から前記指定された空白数分離間した前記表示単位位置に相当するノートデータから前記一時的に記憶された文字データを順次ノートデータに割り付ける割付手段と
を有する音声データ処理装置。
Storage means for storing a plurality of data in which character data and note data are combined;
Display means for displaying the set of character data and note data as a display unit of note data;
A designation means for designating an insertion position for starting insertion of a blank in the display unit and the number of blanks to be inserted;
Buffer means for temporarily storing character data after the designated insertion position;
Erasing means for erasing character data after the specified insertion position;
An audio data processing apparatus comprising: allocating means for sequentially allocating the temporarily stored character data to the note data from the note data corresponding to the display unit position separated from the designated insertion position by the designated blank number separation .
文字データとノートデータとが組になったデータを複数記憶する記憶手段と、
前記文字データとノートデータとの組をノートデータを表示単位として表示する表示手段と、
前記表示単位で複製又は挿入する文字データの範囲と挿入開始する挿入位置とを指定する指定手段と、
前記指定された範囲の文字データを一時的に記憶する第1のバッファ手段と、
前記指定された挿入位置以降の文字データを一時的に記憶する第2のバッファ手段と、
前記指定された挿入位置から前記第1のバッファ手段に一時的に記憶された前記指定された範囲の文字データを順次ノートデータに割り付ける第1の割付手段と、
前記指定された挿入位置から前記指定された表示単位数分離間した前記表示単位位置に相当するノートデータから前記第2のバッファ手段に一時的に記憶された文字データを順次ノートデータに割り付ける第2の割付手段と
を有する音声データ処理装置。
Storage means for storing a plurality of data in which character data and note data are combined;
Display means for displaying the set of character data and note data as a display unit of note data;
Designating means for designating a range of character data to be copied or inserted in the display unit and an insertion position at which insertion is started;
First buffer means for temporarily storing character data in the designated range;
Second buffer means for temporarily storing character data after the designated insertion position;
First allocating means for sequentially allocating the specified range of character data temporarily stored in the first buffer means from the specified insertion position to note data;
A second one in which character data temporarily stored in the second buffer means is sequentially assigned to note data from note data corresponding to the display unit position separated from the designated insertion position by the designated number of display units; And a voice data processing apparatus.
第1の文字列データと第1のノートデータとが組になった第1のデータとそれに続く第2の文字列データと第2のノートデータとが組になった第2のデータを記憶する記憶手段と、
前記第1の文字列データ中の分割位置を指定する指定手段と、
前記第1の文字列データを前記分割位置で2つに分割し、後部の文字列データを前記第2の文字列データに追加して、前記第2のノートデータに割り付ける処理手段と
を有する音声データ処理装置。
First data in which first character string data and first note data are paired is stored, and second data in which second character string data and second note data are subsequently paired is stored. Storage means;
Designation means for designating a division position in the first character string data;
Audio having processing means for dividing the first character string data into two at the division position, adding the rear character string data to the second character string data, and assigning the second character string data to the second note data; Data processing device.
文字データとノートデータとが組になった音声データを記憶する記憶手段と、
前記文字データが漢字、英数字又は記号であるときには該文字データを発音するための仮名の候補を提示する提示手段と、
前記仮名の候補の中から1つの仮名を指定し、前記文字データを該仮名の文字列に変更して前記記憶手段に記憶させる変更手段と、
前記変更した仮名の文字列を前記変更前の文字データと組とされたノートデータに割り当てる手段と
を有する音声データ処理装置。
Storage means for storing voice data in which character data and note data are combined;
Presenting means for presenting candidates for kana to pronounce the character data when the character data is kanji, alphanumeric characters or symbols;
Changing means for designating one kana from the candidates for kana, changing the character data into a character string of the kana and storing it in the storage means;
A voice data processing device comprising: means for assigning the character string of the changed kana to the note data paired with the character data before the change.
文字データとノートデータとが組になったデータを処理するコンピュータプログラムの記録媒体であって、
前記文字データとノートデータとの組をノートデータを表示単位として表示する表示手順と、
前記表示単位で空白を挿入開始する挿入位置と挿入する空白数を指定する指定手順と、
前記指定された挿入位置以降の文字データを一時的に記憶するバッファ手順と、
前記指定された挿入位置以降の文字データを消去する消去手順と、
前記指定された挿入位置から前記指定された空白数分離間した前記表示単位位置に相当するノートデータから前記一時的に記憶された文字データを順次ノートデータに割り付ける割付手順と
をコンピュータに実行させるためのプログラムを記録した媒体。
A computer program recording medium for processing data in which character data and note data are combined,
A display procedure for displaying the set of the character data and the note data as a display unit of the note data;
A specification procedure for specifying an insertion position at which insertion of a blank is started and the number of blanks to be inserted in the display unit;
A buffer procedure for temporarily storing character data after the designated insertion position;
An erasing procedure for erasing character data after the designated insertion position;
For causing the computer to execute an assignment procedure for sequentially assigning the temporarily stored character data to the note data from the note data corresponding to the display unit position separated from the designated insertion position by the designated blank number separation The medium that recorded the program.
文字データとノートデータとが組になったデータを処理するコンピュータプログラムの記録媒体であって、
前記文字データとノートデータとの組をノートデータを表示単位として表示する表示手順と、
前記表示単位で複製又は挿入する文字データの範囲と挿入開始する挿入位置とを指定する指定手順と、
前記指定された範囲の文字データを一時的に記憶する第1のバッファ手順と、
前記指定された挿入位置以降の文字データを一時的に記憶する第2のバッファ手順と、
前記指定された挿入位置から前記第1のバッファ手段に一時的に記憶された前記指定された範囲の文字データを順次ノートデータに割り付ける第1の割付手順と、
前記指定された挿入位置から前記指定された表示単位数分離間した前記表示単位位置に相当するノートデータから前記第2のバッファ手段に一時的に記憶された文字データを順次ノートデータに割り付ける第2の割付手順と
をコンピュータに実行させるためのプログラムを記録した媒体。
A computer program recording medium for processing data in which character data and note data are combined,
A display procedure for displaying the set of the character data and the note data as a display unit of the note data;
A designation procedure for designating a range of character data to be copied or inserted in the display unit and an insertion position at which insertion is started;
A first buffer procedure for temporarily storing character data in the designated range;
A second buffer procedure for temporarily storing character data after the designated insertion position;
A first allocating procedure for sequentially allocating the specified range of character data temporarily stored in the first buffer means from the specified insertion position to note data;
A second one in which character data temporarily stored in the second buffer means is sequentially assigned to note data from note data corresponding to the display unit position separated from the designated insertion position by the designated number of display units; A medium in which a program for causing a computer to execute the allocation procedure is recorded.
第1の文字列データと第1のノートデータとが組になった第1のデータとそれに続く第2の文字列データと第2のノートデータとが組になった第2のデータを処理するコンピュータプログラムの記録媒体であって、
(a)前記第1の文字列データ中の分割位置を特定する手順と、
(b)前記第1の文字列データを前記分割位置で2つに分割し、後部の文字列データを前記第2の文字列データに追加して、前記第2のノートデータに割り付ける手順と
をコンピュータに実行させるためのプログラムを記録した媒体。
Processing first data in which first character string data and first note data are paired, followed by second data in which second character string data and second note data are paired. A recording medium for a computer program,
(A) a procedure for specifying a division position in the first character string data;
(B) dividing the first character string data into two at the division position, adding the rear character string data to the second character string data, and allocating the second character string data to the second note data ; A medium that records a program to be executed by a computer.
文字データとノートデータとが組になった音声データを処理するコンピュータプログラムの記録媒体であって、
(a)前記文字データが漢字、英数字又は記号であるときには該文字データを発音するための仮名の候補を提示する手順と、
(b)前記仮名の候補の中から1つの仮名を指定し、前記文字データを該仮名の文字列に変更して書き込みを行う手順と、
前記変更した仮名の文字列を前記変更前の文字データと組とされたノートデータに割り当てる手順と
をコンピュータに実行させるためのプログラムを記録した媒体。
A recording medium of a computer program for processing audio data in which character data and note data are combined,
(A) a procedure for presenting candidates for kana to pronounce the character data when the character data is kanji, alphanumeric characters or symbols;
(B) A procedure for designating one kana from among the kana candidates, changing the character data to a character string of the kana, and writing.
A medium on which a program for causing a computer to execute a procedure for assigning the character string of the changed kana to the note data paired with the character data before the change is recorded.
JP2008134550A 2008-05-22 2008-05-22 Audio data processing apparatus and medium recording program Expired - Fee Related JP4821801B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008134550A JP4821801B2 (en) 2008-05-22 2008-05-22 Audio data processing apparatus and medium recording program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008134550A JP4821801B2 (en) 2008-05-22 2008-05-22 Audio data processing apparatus and medium recording program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002325914A Division JP4148755B2 (en) 2002-11-08 2002-11-08 Audio data processing apparatus and medium on which data processing program is recorded

Publications (2)

Publication Number Publication Date
JP2008233930A JP2008233930A (en) 2008-10-02
JP4821801B2 true JP4821801B2 (en) 2011-11-24

Family

ID=39906695

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008134550A Expired - Fee Related JP4821801B2 (en) 2008-05-22 2008-05-22 Audio data processing apparatus and medium recording program

Country Status (1)

Country Link
JP (1) JP4821801B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101274961B1 (en) * 2011-04-28 2013-06-13 (주)티젠스 music contents production system using client device.
JP6003115B2 (en) * 2012-03-14 2016-10-05 ヤマハ株式会社 Singing sequence data editing apparatus and singing sequence data editing method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04275595A (en) * 1991-03-04 1992-10-01 Sanyo Electric Co Ltd Memory medium and reproducing device thereof
JPH04331990A (en) * 1991-05-07 1992-11-19 Casio Comput Co Ltd Voice electronic musical instrument
JP3333022B2 (en) * 1993-11-26 2002-10-07 富士通株式会社 Singing voice synthesizer
JP3564753B2 (en) * 1994-09-05 2004-09-15 ヤマハ株式会社 Singing accompaniment device
JP3144273B2 (en) * 1995-08-04 2001-03-12 ヤマハ株式会社 Automatic singing device
JPH09134173A (en) * 1995-11-10 1997-05-20 Roland Corp Display control method and display control device for automatic player

Also Published As

Publication number Publication date
JP2008233930A (en) 2008-10-02

Similar Documents

Publication Publication Date Title
US5857171A (en) Karaoke apparatus using frequency of actual singing voice to synthesize harmony voice from stored voice information
US6424944B1 (en) Singing apparatus capable of synthesizing vocal sounds for given text data and a related recording medium
US9355634B2 (en) Voice synthesis device, voice synthesis method, and recording medium having a voice synthesis program stored thereon
KR100187960B1 (en) System and method for processing music data
JP6465136B2 (en) Electronic musical instrument, method, and program
CN103810992A (en) Voice synthesizing method and voice synthesizing apparatus
JP6784022B2 (en) Speech synthesis method, speech synthesis control method, speech synthesis device, speech synthesis control device and program
JP2011048335A (en) Singing voice synthesis system, singing voice synthesis method and singing voice synthesis device
JP4821801B2 (en) Audio data processing apparatus and medium recording program
JP3405123B2 (en) Audio data processing device and medium recording data processing program
JP4929604B2 (en) Song data input program
JP3239897B1 (en) Songwriting device and program
JP3518253B2 (en) Data editing device
JP4148755B2 (en) Audio data processing apparatus and medium on which data processing program is recorded
JP4821802B2 (en) Audio data processing apparatus and medium recording program
JP3807380B2 (en) Score data editing device, score data display device, and program
JP2002278549A (en) Lyric writing and composing system and program
JP5969421B2 (en) Musical instrument sound output device and musical instrument sound output program
JP6774889B2 (en) Karaoke equipment, programs
Dannenberg Human computer music performance
JP2008020622A (en) Authoring system and program
JP7158331B2 (en) karaoke device
JP2003099048A (en) Device and program for lyrics writing and music composition
JP2002221978A (en) Vocal data forming device, vocal data forming method and singing tone synthesizer
JP3409644B2 (en) Data editing device and medium recording data editing program

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110713

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110809

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110822

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140916

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees