JPH10319956A - データ編集装置およびデータ編集プログラムを記録した媒体 - Google Patents
データ編集装置およびデータ編集プログラムを記録した媒体Info
- Publication number
- JPH10319956A JPH10319956A JP9148524A JP14852497A JPH10319956A JP H10319956 A JPH10319956 A JP H10319956A JP 9148524 A JP9148524 A JP 9148524A JP 14852497 A JP14852497 A JP 14852497A JP H10319956 A JPH10319956 A JP H10319956A
- Authority
- JP
- Japan
- Prior art keywords
- data
- sound
- track
- pronunciation
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Electrophonic Musical Instruments (AREA)
Abstract
データ編集装置を提供することを課題とする。 【解決手段】 音声発音に関するデータを含むブロック
データを複数有する第1のトラックデータを、1つのブ
ロックデータを有する第2のトラックデータに変換する
変換手段であって、該第2のトラックデータ内のブロッ
クデータは該第1のトラックデータ内の複数のブロック
データを結合したものである変換手段と、前記第2のト
ラックデータの内容を表示する表示手段とを有する。
Description
関し、特に音声データを編集することができるデータ編
集装置に関する。
音声合成回路を備えた音声発音装置が知られており、前
記フォルマント音源とは、音声を周波数解析することに
より形成されるフォルマントを合成することにより音声
信号を生成する音源である。
音声とは、例えば日本語のいわゆる50音を種々の組み
合わせにより発音したもの、特にここでは歌の歌詞を発
音する際の音声を示すものであり、該50音のうちの1
音等を音節と呼ぶ。日本語の「か」等が音節にあたる。
また、音節は、時間軸上の音素列から構成されており、
例えば、音節「か」は、音素列「CL(7.5ms)+
kha(4×7.5ms)+aj(無限長)」からなる
(( )内の値は各発音時間を表す)。そして、該音素
列においての最小単位要素、例えば「CL」、「kh
a」、「aj」を音素と呼ぶ。フォルマント音源は、こ
のような音素列に関する情報を入力することにより前記
音素列情報内に記された各音素に対応するフォルマント
を合成し、音声信号を生成する音源である。
みを発音する音声発音装置であれば、音声データを編集
する必要性は少ないが、多種多様の音声を音声発音装置
に発音させるためには、音声データの編集が不可欠であ
り、本願発明者は、音声データ編集装置を考案する。
より知られている楽音データを作成するためのMIDI
規格に基づくものである。該音声データをMIDI規格
に基づき作成することにより、従来の楽音データに関連
付けて音声データを作成できるというメリットがある。
そして、前記音声データ編集装置も該楽音データ(MI
DIデータ)編集装置を基にして作成されるものである
が、音声データは、特有な規則にしたがって構成される
ので、その規則に詳しくない初心者には音声データの編
集が困難である。
に行うことができるデータ編集装置又はコンピュータプ
ログラムの記録媒体を提供することである。
ば、音声発音に関するデータを含むブロックデータを複
数有する第1のトラックデータを、1つのブロックデー
タを有する第2のトラックデータに変換する変換手段で
あって、該第2のトラックデータ内のブロックデータは
該第1のトラックデータ内の複数のブロックデータを結
合したものである変換手段と、前記第2のトラックデー
タの内容を表示する表示手段とを有するデータ編集装置
が提供される。
を結合して、第2のトラックデータを生成する。第2の
トラックデータの内容を表示すれば、ブロックデータの
境界で途切れることなく連続して音声発音に関するデー
タを表示することができる。
するデータと該音声発音に関するデータを所望の装置に
送信する場合に、該所望の装置を識別するための送信先
識別子とが組になったデータを複数含むトラックデータ
を変換する変換手段であって、該トラックデータ内に含
まれる送信先識別子を全て同一の送信先識別子に変換す
る変換手段を有するデータ編集装置が提供される。
子が全て同じになるので、トラックデータ内の音声発音
に関するデータを全て同じ送信先に送信することができ
る。
いての呼気を表すデータ又は長音を表すデータを含む音
声を形成するための音声データと少なくとも該音声デー
タの発音時間に関するデータを含むノートデータとが組
になった発音データの発音時間を演算する演算手段であ
って、前記呼気を表すデータ又は長音を表すデータに応
じた発音時間を演算する演算手段と、前記演算手段によ
り演算される発音時間を表示する表示手段とを有するデ
ータ編集装置が提供される。
気を表すデータ又は長音を表すデータに応じた発音時間
を演算し、その発音時間を表示するので、発音データの
正確な発音時間を表示することができる。
データ編集装置の歌詞編集画面の例を示す図である。こ
の歌詞編集画面は、ソングデータの第1トラックの内容
を表示している。つまり、前にも述べたように音声デー
タは、MIDI形式により楽音データと共に作成される
ものであり、該ソングデータとは従来のMIDI形式で
作成された楽音データを指し、第1トラックとは、該楽
音データの第1トラックのことを指す。
ロック数を表す。例えば、第2行目は、小節番号が「0
005」であり、拍数が「04」であり、クロック数が
「000」である。1クロックは、例えば1拍(4分音
符長)の1/480の時間である。
す。例えば、第2行目では、音高がF♯3であることが
表されている。「発音時間」は、歌詞「か」をF♯3の
音高で発音開始する時間を表す。「歌詞」は、各発音ノ
ート(音符)に対応する歌詞である。「歌詞」は、「音
素列データ」と1対1に対応している。「歌詞」が決ま
れば、「音素列データ」は自動的に決まる。「呼気」
は、呼気として示される音素列データが息継ぎを行うよ
うな表現にて発音されるものであることを示す。
る。歌詞「か」は、音素列データ「CL+kha+a
j」に置き換えることができ、F♯3の音高(ノート)
で所定の発音時間だけ発音される。図に示すように、上
記羅列されたデータに基づく音声データが作成され、該
音声データに基づき、所望の歌を音声発音装置に歌わせ
ることができる。
デバイスET1と外部デバイスET2との接続を示す図
である。パーソナルコンピュータ1は、本実施例による
データ編集装置を含む。パーソナルコンピュータ1は、
シーケンサでもよい。外部デバイスET1とET2は、
音声発音装置を含むものである。
を説明する。外部デバイスET1とET2とは、構成が
同じであるので、外部デバイスET1を例に説明する。
し、操作子信号を生成する。操作子34は、例えばスイ
ッチ等の設定用操作子や鍵盤等の演奏操作子である。
路28、音源回路29、効果回路30、音声合成回路3
2、インターフェース23、RAM24、ROM25、
CPU26が接続される。
ルマントデータ、その他の各種データ及びコンピュータ
プログラムを記憶する。RAM24は、フラグ、バッフ
ァ、伴奏データ等を記憶する。コンピュータプログラム
は、ROM25に記憶させる代わりに、RAM24に記
憶させてもよい。CPU26は、ROM25又はRAM
24に記憶されているコンピュータプログラムに従い、
演算または制御を行う。
CPU26は、タイマ27から時間情報を得ることがで
きる。CPU26は、当該時間情報に従って、伴奏デー
タ又は音声データ(ソングデータ)の再生を行う。
る伴奏データを読み出して楽音パラメータおよび効果パ
ラメータを生成し、それぞれ音源回路29および効果回
路30に供給する。
されるノートオン信号等に応じて、楽音パラメータおよ
び効果パラメータを生成し、それぞれ音源回路29およ
び効果回路30に供給することもできる。
タに応じて楽音信号を生成する。効果回路30は、供給
される効果パラメータに応じて、音源回路29で生成さ
れる楽音信号に、例えばディレイやリバーブ等の効果を
付与し、サウンドシステム31に供給する。サウンドシ
ステム31は、D/A変換器およびスピーカを含み、供
給されるデジタル形式の楽音信号をアナログ形式に変換
し、発音する。
FM方式、物理モデル方式、高調波合成方式、フォルマ
ント合成方式、VCO+VCF+VCAのアナログシン
セサイザ方式等、どのような方式であってもよい。
ーフェースまたはその他の通信ネットワーク用のインタ
ーフェースを含む。例えば、外部デバイスET1のMI
DIインターフェース23とパーソナルコンピュータ1
のMIDIインターフェース8とがMIDIケーブルで
接続される。外部デバイスET1とパーソナルコンピュ
ータ1は、MIDI通信を行うことができる。
して、パーソナルコンピュータ1から音声データ(ソン
グデータ)を受け取り、RAM24に格納する。なお、
外部デバイスET2のインターフェース23は、外部デ
バイスET1のインターフェース23に接続される。外
部デバイスET2は、外部デバイスET1のインターフ
ェース23を介して、パーソナルコンピュータ1から音
声データ(ソングデータ)を受け取る。外部デバイスE
T2は、外部デバイスET1と同じ音声データを受け取
る。
トデータと音声データ(音素列データ)を含む。音声デ
ータの詳細は、後に図4と図5を参照しながら説明す
る。CPU26は、RAM24に記憶されている音声デ
ータを読み出し、ROM25に記憶されているフォルマ
ントデータ等に基づき、フォルマントデータやノートナ
ンバ(音高)等を音声合成回路32に供給する。フォル
マントデータは、例えば各音素に対応したフォルマント
を形成するために必要とされるフォルマント中心周波数
(フォルマントを形成する山の中心周波数)データ、フ
ォルマントバンド幅(フォルマントを形成する山のバン
ド幅)データ、フォルマントレベル(フォルマントを形
成する山のピークレベル)データ等である。
ントデータ等に応じて音声信号を生成する。音声信号
は、所定の音高を有し、歌声に相当するものとして合成
される。音声合成回路32は、フォルマント合成方式
(フォルマント音源)でもよいし、その他の方式でもよ
い。
音源である場合の構成例を示す。音声合成回路32に
は、パーソナルコンピュータ1から供給された音声デー
タに応じて生成されたフォルマントデータINが入力さ
れる。フォルマントデータINは、フォルマント中心周
波数データ、フォルマントレベルデータ、フォルマント
帯域幅データ等を含む。
と無声音合成部UTGを有する。人の発音する音声は、
はっきりとした音を発音する有声部と、空気が抜けるよ
うに発音されるような無声部とからなり、該有声部と無
声部の組み合わせにより各音素が発音されることから、
前記のように音声合成回路において、有声音合成部VT
G及び無声音合成部UTGが構成されている。有声音合
成部VTGは、フォルマントデータINに応じて、各音
素を合成するための第1〜4の有声音フォルマントをそ
れぞれ形成するための有声音合成部VTG1、VTG
2、VTG3、VTG4を有する。無声音合成部UTG
は、フォルマントデータINに応じて、各音素を合成す
るための第1〜4の無声音フォルマントをそれぞれ形成
するための無声音合成部UTG1、UTG2、UTG
3、UTG4を有する。
マントを形成するための有声音合成部VTG1と無声音
合成部UTG1を有し、第2フォルマント合成部52は
第2フォルマントを形成するための有声音合成部VTG
2と無声音合成部UTG2を有し、第3フォルマント合
成部53は第3フォルマントを形成するための有声音合
成部VTG3と無声音合成部UTG3を有し、第4フォ
ルマント合成部54は第4フォルマントを形成するため
の有声音合成部VTG4と無声音合成部UTG4を有す
る。
は、発音する音素を合成する有声部、無声部のフォルマ
ントをそれぞれ形成し、音声信号として出力する。加算
器55は、有声音合成部VTGと無声音合成部UTGと
がそれぞれ出力する音声信号を加算し、音声信号OUT
を出力する。音声信号OUTは、効果回路30(図1)
に供給される。
ルマント合成部51〜54を有する場合に限定されな
い。それ以上又はそれ以下の数のフォルマント合成部を
有するものでもよい。
例えば特開平3−200299号公報の第1図に示され
ている。
る効果パラメータに応じて、音声合成回路32で生成さ
れる音声信号に、例えばディレイ等の効果を付与し、サ
ウンドシステム31に供給する。サウンドシステム31
は、供給されるデジタル形式の音声信号をアナログ形式
に変換し、発音する。
は、専用のハードウエアを用いて構成するものに限ら
ず、DSP+マイクロプログラムを用いて構成してもよ
いし、CPU+ソフトウェアのプログラムで構成するよ
うにしてもよい。
を時分割で使用することにより複数の発音チャンネルを
形成するようにしてもよいし、複数の音声合成回路又は
音源回路を用い、1つの発音チャンネルにつき1つの音
声合成回路又は音源回路で複数の発音チャンネルを構成
するようにしてもよい。
説明する。検出回路9は、マウス10の移動操作やスイ
ッチ操作を検出し、マウス信号を生成する。検出回路1
1は、キーボード12上のキー(数字キーや文字キー
等)入力を検出し、キー信号を生成する。操作者は、マ
ウス10又はキーボード12を用いて、音声データの編
集を行うことができる。
の外部装置であるディスプレイ45に接続することがで
きる。ディスプレイ45には、図16に示す編集画面等
を表示することができる。操作者は、ディスプレイ45
上の編集画面を参照しながら音声データの編集を行うこ
とができる。
び表示回路7の他、インターフェース8、外部記憶装置
13、RAM3、ROM4、CPU5が接続される。
ータプログラムを記憶する。RAM3は、フラグ、バッ
ファ、音声データ(ソングデータ)等を記憶する。ま
た、RAM3は、外部記憶装置13、又はインターフェ
ース8を介して外部から供給されたコンピュータプログ
ラムや音声データ等を記憶することもできる。CPU5
は、RAM3又はROM4に記憶されているコンピュー
タプログラムに従い、音声データの編集等のための演算
または制御を行う。
る。CPU5は、当該時間情報に応じて、所定時間間隔
で割り込み処理を行うことができる。
フェースまたはその他の通信ネットワーク用のインター
フェースを含む。MIDIインターフェース8は、上記
のように、外部デバイスET1のMIDIインターフェ
ース23とMIDIケーブルで接続される。パーソナル
コンピュータ1は、MIDIインターフェース8を介し
て、音声データを外部デバイスET1及びET2に送信
することができる。
ルエリアネットワーク(LAN)、インターネット、電
話回線等の通信ネットワーク41に接続される。通信ネ
ットワーク41には、サーバコンピュータ42が接続さ
れている。パーソナルコンピュータ1は、通信ネットワ
ーク41を介して、サーバコンピュータ42から音声デ
ータ又はコンピュータプログラムを受信することができ
る。
ンターフェースを含み、そのインターフェースを介して
バス2に接続される。外部記憶装置13は、例えばフロ
ッピディスクドライブ(FDD)、ハードディスクドラ
イブ(HDD)、光磁気ディスク(MO)ドライブ、C
D−ROM(コンパクトディスク−リードオンリィメモ
リ)ドライブ等である。音声データは、外部記憶装置1
3又はRAM3に記憶される。
憶させずに、外部記憶装置13(例えばハードディス
ク)に記憶させることもできる。ハードディスクからR
AM3にコンピュータプログラム等を読み出すことによ
り、ROM4にコンピュータプログラム等を記憶させて
いる場合と同様の動作をCPU5にさせることができ
る。このようにすると、CD−ROM等の他の外部記憶
媒体からハードディスクにコンピュータプログラム等を
コピーすることでコンピュータプログラム等の追加やバ
ージョンアップ等が容易に行える。
アネットワーク(LAN)やインターネット、電話回線
等の通信ネットワーク41に接続されており、該通信ネ
ットワーク41を介して、サーバコンピュータ42と接
続される。外部記憶装置13内にコンピュータプログラ
ム等が記憶されていない場合、サーバコンピュータ42
からコンピュータプログラム等をダウンロードすること
ができる。クライアントとなるパーソナルコンピュータ
1は、通信インターフェース8及び通信ネットワーク4
1を介してサーバコンピュータ42へとコンピュータプ
ログラム等のダウンロードを要求するコマンドを送信す
る。サーバコンピュータ42は、このコマンドを受け、
要求されたコンピュータプログラム等を、通信ネットワ
ーク41を介してパーソナルコンピュータ1へと配信
し、パーソナルコンピュータ1が通信インターフェース
8を介して、これらコンピュータプログラム等を受信し
て外部記憶装置13内に蓄積することにより、ダウンロ
ードが完了する。
ンピュータ1(図1)から外部デバイスET1及びET
2に送信するルートを説明するための図である。
ータ1のRAM3等に記憶される。ソングデータ61
は、1曲分のデータであり、例えば第1トラックデータ
TR1と第2トラックデータTR2と第3トラックデー
タTR3とを有する。MIDIデータ(トラックデー
タ)は、キーオン、キーオフ等の各データ毎にチャンネ
ル番号なる音源回路を識別する番号(データ)が付与さ
れている。例えば、トラックデータTR1内のデータに
は第1チャンネルCh1が付与され、トラックデータT
R2内には第2チャンネルCh2が付与され、トラック
データTR3内のデータには第1チャンネルCh1が付
与されている。ソングデータ61は3トラック分のデー
タに限らず、4トラック以上のデータを有することもで
きる。トラックデータTR1〜TR3は、それぞれデバ
イス番号とパート番号とを有する。
ET2を識別するための番号である。例えば、外部デバ
イスET1のデバイス番号を「0」とし、外部デバイス
ET2のデバイス番号を「1」とすることができる。デ
バイス番号は、予め外部デバイスET1,ET2に設定
しておいてもよいし、パーソナルコンピュータ1から各
外部デバイスET1,ET2に送信することにより設定
してもよい。パーソナルコンピュータ1に2つの外部デ
バイスを接続する場合に限定されず、3つ以上の外部デ
バイスを接続してもよい。
るための番号である。外部デバイスET1(デバイス番
号:0)は、1つの音源回路29と1つの音声合成回路
32を有する。例えば、この音声合成回路32のパート
番号を「1」と設定し、音源回路29のチャンネル番号
を「Ch1」と設定する。
は、1つの音源回路29と2つの音声合成回路32a,
32bとを有する。例えば、音声合成回路32aのパー
ト番号を「1」とし、音声合成回路32bのパート番号
を「2」として設定し、音源回路29のチャンネル番号
を「Ch2」と設定する。
ており、外部デバイスET1内にパート番号「1」を設
定し、外部デバイスET2内にもパート番号「1」を設
定することができる。
1つであり、1つの音声パート(ボーカルパート)の音
声信号を生成することができる。基本的には、1つのト
ラックデータは1つの音声合成回路32で発音される。
例えば、外部デバイスに音源ボードを差し込むことによ
り、音声合成回路32を増やすことができる。外部デバ
イスには音声合成回路32を3つ以上設けることもでき
る。
(音声データ)とノートデータを含むデータであり、デ
バイス番号が0を示し、パート番号が1を示す。したが
って、トラックデータTR1は、外部デバイスET1
(デバイス番号:0)内の音声合成回路32(パート番
号:1)に供給される。当該音声合成回路32は、トラ
ックデータTR1に含まれる音素列データとノートデー
タを受信する。また、外部デバイスET1内の音源回路
29(チャンネル番号:Ch1)は、トラックデータT
R1のうちノートデータのみを受信する。なお、アカペ
ラで発音させるには、音源回路29が当該ノートデータ
を受信する必要はない。
ノートデータを含むデータであり、デバイス番号が1を
示し、パート番号が2を示す。したがって、トラックデ
ータTR2は、外部デバイスET2(デバイス番号:
1)内の音声合成回路32b(パート番号:2)に供給
される。当該音声合成回路32bは、トラックデータT
R2に含まれる音素列データとノートデータを受信す
る。また、外部デバイスET2内の音源回路29(チャ
ンネル番号:Ch2)は、トラックデータTR2のうち
ノートデータのみを受信することができる。
みを含むデータであり、チャンネル番号がCh1であ
る。トラックデータTR3は、音素列データを含まない
ので、外部デバイスET1内の音源回路29にのみ供給
される。音声合成回路32は、トラックデータTR3を
受信しない。
受信したトラックデータに基づいて楽音信号を生成し出
力する。ミキサ(MIX)62は、外部デバイスET1
とET2のそれぞれから出力される楽音信号を合成し、
サウンドシステム63に供給する。サウンドシステム6
3は、供給された楽音信号を発音する。
素列データを送信する送信先を示す識別子であり、番号
である必要はない。また、外部デバイスの数や音声合成
回路の数に応じて、デバイス番号又はパート番号のいず
れか1つだけを用いてもよい。
のソングデータ画面の例を示す図である。ソングデータ
画面は、例えばソングデータに含まれる第1〜16トラ
ックのデータの内容を表示することができる。
h」は、各トラックに割り当てられる送信チャンネル番
号を示す。例えば、第1トラックのデータ(Trk=
1)は、ブロック1(Block1)、ブロック2(B
lock2)、ブロック3(Block3)等のデータ
からなる。各ブロックを指定すれば、そのブロックを構
成するデータ内容を表示することができる。
れる。ブロック単位でトラックデータを構成すれば、例
えば、同じフレーズ又は似たフレーズが繰り返されるト
ラックデータの作成が容易になる。具体的には、1ブロ
ックのフレーズを作成し、そのブロックをコピー操作す
ることにより、同じフレーズを所望の場所に作成するこ
とができる。また、似たフレーズを作成するには、上記
と同様にブロックをコピーした後、該コピーされたブロ
ックを所望の場所に移動させ、該ブロック内データの所
望の場所を編集すればよい。さらに、ブロック単位でト
ラックデータを構成すれば、所望の音符を検索しやす
い。なお、ブロックは、小節単位で構成してもよいし、
音符単位で構成してもよい。
ソングデータ71、トラックデータ72、ブロックデー
タ群73は、パーソナルコンピュータ1のRAM3等に
記憶される。
タを有し、各トラックデータの先頭アドレスの並びによ
り構成される。例えば、先頭から順番に、第1トラック
データTR1の先頭アドレス、第2トラックデータTR
2の先頭アドレス、・・・、エンドデータにより構成さ
れる。当該エンドデータは、ソングデータ71の終わり
を意味する。
ータを有し、各ブロックデータの先頭アドレスの並びに
より構成される。例えば、第1トラックデータTR1
は、先頭から順番に、第1ブロックデータBL1の先頭
アドレス、第2ブロックデータBL2の先頭アドレス、
・・・、エンドデータにより構成される。当該エンドデ
ータは、トラックデータTR1の終わりを意味する。
に、第1ブロックデータBL1、第2ブロックデータB
L2等により構成される。例えば、第1ブロックデータ
BL1は、先頭に初期設定データSDが位置し、最後に
エンドデータEDが位置し、その間にデータDTの並び
が位置する。エンドデータEDは、ブロックデータBL
1の終了を意味する。他のブロックデータBL2も、ブ
ロックデータBL1と同じ構成である。
演奏に必要な初期設定データである。この初期設定デー
タSDに従い、データDTの発音が行われる。
素列データ82、ノートナンバ83、ベロシティ84、
及びゲートタイム85を含む。データDTは1つの音符
に対応するデータであり、音符の数だけデータDTが並
ぶ。
2を発音するスタートタイミングを示し、ノートオンの
タイミングに相当する。タイミングデータ81は、曲の
先頭からの時間で表され、例えば4分音符の1/480
の時間を1クロックとしたときのクロック数で表され
る。曲のテンポを変えれば、1クロックの実時間も変わ
る。タイミングデータ81は、相対時間と考えることが
できる。
ン(音素発音長)とを1組としたデータの並びであり、
例えば音節「か」の場合、音素列データとして「CL
(1×7.5ms)+kha(4×7.5ms)+aj
(無限長)」を表すデータが記憶されている。音素列デ
ータ82の最後の音素ajは、原則としてデュレーショ
ンが無限長である。これは、現在発音中の音節から、次
に発音する音節へと発音音素を滑らかに変化させるため
である。音素列データ82の詳細なデータ構成を、後に
図5を参照しながら説明する。
発音する音高を示す。ベロシティ84は、音素列データ
82を発音する音量を示す。ゲートタイム85は、音素
列データ82を発音する際のノートオンからノートオフ
までの時間を示し、該ノートオフは、音素列データに呼
気データが記憶されている場合等に使用されるデータで
ある。ゲートタイム85は、タイミングデータ81と同
様にクロック数で表される。
の構成例を2種類示す。図5(A)は、第1の音素列デ
ータ82の構成例を示す。音素列データ82は、先頭に
パート番号91とデバイス番号92を有し、その後に音
素データPD又は呼気データ95が1つ又は複数並ぶ。
91は、音声合成回路32を識別するための番号であ
り、デバイス番号92は、外部デバイスET1,ET2
を識別するための番号である。
レーション94の組である。音素ナンバ93は、各音素
毎に予め決められている音素の種類を表す番号である。
音素とは、例えば「CL」、「kha」、「aj」であ
る。デュレーション94は、音素発音長であり、例えば
「1×7.5ms」、「4×7.5ms」、「無限長」
がそれであって、デュレーション94は、7.5msの
時間を1として表すことができる。例えば、ここでは上
記「1」、「4」、「0」がデュレーション94として
記憶されているデータである。ただし、「0」は無限長
を表すこととする。デュレーション94は、7.5ms
を1単位とした実際に発生させる実時間で表される点
で、図4に示すゲートタイム85、タイミングデータ8
1と異なる。デュレーション94をゲートタイム85と
同様にクロック数で表すとすると、使用する外部デバイ
スの機種に応じて発音時間が変化する可能性が生じる。
すなわち、外部デバイスの機種に応じて1クロックの時
間が異なることによる弊害が生じる。そのような弊害を
防止するために、デュレーション94を実時間(絶対時
間)で表す必要がある。
を示すデータである。音素データPDの後に呼気データ
95が位置すると、その音素データPDを発音した後、
息継ぎのために次に発音される音素列データとの間に無
音状態を作成することを示す。呼気データ95は、音素
列データ82の最後に位置する場合に限らず、音素デー
タPDと他の音素データPDの間に位置してもよい。
構成例を示す。音素列データ82は、先頭にパート番号
91とデバイス番号92を有し、その後に文字データ9
6を有する。文字データ96は、音節又は呼気データの
並びにより構成される。例えば、図16の編集画面の場
合、文字データ96は「ちかごーろわたしーいたちわ
▽」である。「▽」は、呼気データを示す。文字データ
96は、図5(A)の音素データPD又は呼気データ9
5の並びに相当する。本明細書では、音素列データ、文
字データのいずれをも音声データという。そして、該文
字データは、データ発音や送信等の際に自動的に該文字
データに対応する音素列データに変換される。
つ説明する。 (1)トラック内データ結合機能 上記のように、トラックデータは、ブロック単位で構成
されている。トラックデータをブロック単位で構成する
ことにより、同じフレーズを繰り返すトラックデータを
作成する操作等が容易になる。しかし、ブロック単位で
画面に表示されるので、音声データの編集が行いにくい
ことがある。すなわち、歌詞は1連の流れがあるので、
歌詞がブロックの境界で途切れてしまうのは好ましくな
い。例えば、曲を構成する各音符に歌詞を割り当てる際
に、ブロック毎に、図16に示すような歌詞編集画面を
表示したのでは歌詞の流れがつかみにくくなる。また、
歌詞の流れが途中で途切れてしまうので、編集の効率が
悪く、編集の時間が長くなってしまう。
データ結合機能を用いる。ノートデータの編集等を行う
際には上記のソングデータ画面(図14)を用いてブロ
ック単位でデータの編集を行い、音声データの編集等を
行う際には歌詞編集画面(図16)を用いてブロック単
位ではなく音符単位で編集を行うことができるものとす
る。
ら歌詞編集画面(図16)に切り換えることにより、音
声データの編集を行うことができる。その際、トラック
データを構成するブロックの結合を行い、ブロックの境
界をなくす処理を行ってから歌詞編集画面を表示する。
1つのトラックデータは、音符単位のデータからなり、
1曲分の歌詞が途中で途切れることはない。具体的に
は、図4のトラックデータ及びブロックデータを図6の
トラックデータ及びブロックデータに変換する処理を行
う。
た後のソングデータを示す。ソングデータ71は、変更
前のもの(図4)と同じである。結合前のトラックデー
タ72(図4)は、例えば第1トラックデータTR1が
複数のブロックデータの先頭アドレスにより構成されて
いたが、結合後のトラックデータ72(図6)は、第1
トラックデータTR1が第1ブロックデータBL1の先
頭アドレスとエンドデータのみにより構成される。つま
り、結合後のトラックデータは、必ず1つのブロック先
頭アドレスにより構成される。
は、ブロックデータBL1の最後にエンドデータEDが
あり、その他のブロックデータBL2等の最後にもエン
ドデータがあった。変更後のブロックデータ群73(図
6)は、ブロックデータBL1の最後にエンドデータが
なく、その他のブロックデータBL2等の最後にもエン
ドデータがない。ブロックデータ群73の最後にのみエ
ンドデータがある。エンドデータEDをなくすことによ
り、そのエンドデータの前後に位置するブロックデータ
を結合することができる。上記のトラック内データ結合
処理を行った後に、歌詞編集画面(図16)を表示す
る。操作者が歌詞編集画面の表示を指示すると、自動的
にトラック内データ結合処理が行われ、歌詞編集画面が
表示される。歌詞編集画面は、1曲分の音声データ及び
ノートデータを一連の流れとして表示することができ
る。
集する煩わしさがなくなり、歌詞の1連の流れを把握し
ながら、曲を構成する各音符に歌詞を割り当てることが
できる。また、音声データの編集が簡便になり、編集効
率が向上する。
るための処理を、後に図10のフローチャートを参照し
ながら説明する。
列データ82毎に指定することができる。したがって、
1つのトラックデータ内であっても、音素列データ82
毎に別々のデバイス番号91等を指定することも可能で
ある。しかし、音声発音とは、各音声(詳しくは各音
素)がとぎれることなく、滑らかにつながって発音され
ることが望ましく、1つのトラックデータ(音声パー
ト)を、1つの音声合成回路32に発音させることが望
ましい。また、異なるトラックデータには、異なる音声
合成回路32をそれぞれ割り当てる。
ックデータの一部を第1トラックデータにコピーするこ
とがある。すると、第1トラックデータ内において、コ
ピーされた部分のデバイス番号等が、他の部分のデバイ
ス番号等と異なることがある。この状態で、第1トラッ
クデータの再生(発音)を行うと、ある部分は外部デバ
イスET1で発音され、他の部分は外部デバイスET2
で発音されてしまい、その音声パートの発音は滑らかさ
がなくなってしまう。具体的には、ある音節(音素列)
の発音とその次の音節の発音とのつながりがなくなって
しまい、音声としては不自然なものになってしまう。
パート番号変更機能を用いる。操作者がトラックを指定
すると、当該トラックについて自動的にデバイス及びパ
ート番号変更処理が行われる。処理後、当該トラック内
では、全ての音素列データについてのデバイス番号とパ
ート番号が同じになる。
2つある。第1の方法は、操作者が所望のデバイス番号
とパート番号とを指定し、そのデバイス番号とパート番
号に統一する方法である。第2の方法は、トラックデー
タ内の最初に位置する音素列データについてのデバイス
番号とパート番号に続く音素列データに記憶されている
データ番号とパート番号を統一する方法である。
ことにより、トラックデータ内の全ての音素列データの
デバイス番号とパート番号を統一することができる。当
該トラックデータ内の音素列データは、全て同じ外部デ
バイス(デバイス番号)内の同じ音声合成回路(パート
番号)で発音処理される。これにより、1つのトラック
データは1つの音声合成回路により発音されるので、そ
のトラックデータに対応する音声パートの発音を滑らか
につなぐこととなり、自然な音声を発音させることがで
きる。
ラックデータ内の各々のデバイス番号等をマニュアルで
変更することも考えられるが、その操作は煩雑である。
本機能によれば、トラックを指定すれば、自動的にその
デバイス番号等を統一してくれるので、操作が簡単であ
る。
実現するための処理を、後に図11のフローチャートを
参照しながら説明する。
5(図4)である。すなわち、ノートオンからノートオ
フまでの時間である。しかし、音声データの発音時間
は、ゲートタイム85に限定されず、原則として、ノー
トオンから次のノートオンまでの時間である。ただし、
呼気データ95(図5(A))又は長音記号(長音デー
タ)「ー」の存在により発音時間が変わる。つまり、ゲ
ートタイム85は、必ずしも実際の発音時間を表すもの
とは言えない。次に、音声データの発音時間を説明す
る。
下、「▽」で表す)及び長音記号(「ー」で表す)を有
する音声データの発音時間を説明するための図である。
図7の最上段に示すように、時間順に、キーオンKON
1、キーオフKOFF1、キーオンKON2が発生す
る。その時の、各音声データ(音素列データ)の発音タ
イミングを図7(A)〜(C)に示す。
イミングを示す。キーオンKON1のタイミングで子音
CL(発音長は、1×7.5ms)が発生し、続いて、
子音kha(発音長は、4×7.5ms)が発生し、続
いて、母音aj(発音長は、無限長)が発生する。その
後、キーオフKOFF1が発生するが、ここでは、キー
オフKOFF1は無視され、母音aj(無限長)が発生
し続ける。その後、次のキーオンKON2が発生する
と、母音aj(無限長)の発生は中止し、次の音素列の
発生が開始する。「か」の後に呼気データがないので、
「か」とその次の音節とが滑らかにつながるように発音
される。つまり、文字データ「か」の発音時間は、キー
オンKON1から次のキーオンKON2までの時間であ
る。
タイミングを示す。「▽」は、呼気データを示す。キー
オンKON1のタイミングで子音CL(発音長は、1×
7.5ms)が発生し、続いて、子音kha(発音長
は、4×7.5ms)が発生し、続いて、母音aj(発
音長は、無限長)が発生する。その後、キーオフKOF
F1が発生すると、母音aj(無限長)の発音から無音
状態になる。すなわち、呼気の状態になる。その後、キ
ーオンKON2が発生すると、次の音節(音素列)の発
生が開始する。つまり、文字データ「か▽」の発音時間
は、キーオンKON1からキーオフKOFF1までの時
間である。
音タイミングを示す。キーオンKON1が発生すると、
「かー」を発音するため、子音CL(発音長は、1×
7.5ms)が発生し、続いて、子音kha(発音長
は、4×7.5ms)が発生し、続いて、母音aj(発
音長は、無限長)が発生する。その後、キーオフKOF
F1が発生すると、母音aj(無限長)の発生は中止す
る。つまり、「かー」の発音が終了する。その直後に、
「い」を発音するため、母音ij(3×7.5ms)が
発生し、3×7.5ms経過後に無音状態となる。つま
り、「い」の発音が終了する。この母音ijのデュレー
ション(発音長は、3×7.5ms)は、予め決められ
ている時間である。その後、キーオンKON2が発生す
ると、次の音節(音素列)の発生が開始する。文字デー
タ「かーい」の発音時間は、(キーオンKON1からキ
ーオフKOFF1までの時間)+(長音記号の後ろにあ
る音節「い」の発音時間)である。
以外の音素の中に、デュレーションが無限長の音素があ
るものは長音記号(「ー」)を含む音素列であると判断
することができる。
存在により音声データの発音時間は変わる。発音時間表
示機能を用いれば、呼気データ及び長音記号に応じて、
音声データの発音時間を表示することができる。例え
ば、図16の歌詞編集画面において「発音時間」をグラ
フ表示することができる。ゲートタイムの値をそのまま
表示したのでは実際の発音時間を表示しているとは言え
ないが、発音時間表示機能によれば実際の発音時間を表
示することができる。音声データの発音時間を表示する
ことにより、操作者は各音符に対応する音声データの発
音時間を視覚的に確認することができる。さらに、呼気
データ及び長音記号を考慮した音声データの実際の発音
タイミングを知ることができる。
処理を、後に図12のフローチャートを参照しながら説
明する。
U5が行うメインルーチンの処理を示すフローチャート
である。
う。初期設定は、例えばレジスタやフラグ等の初期化及
びソングデータ画面(図14)の表示処理を含む。
変更が指示されたか否かをチェックする。フラグcle
anは、デバイス番号及びパート番号を統一する方法を
特定するフラグである。フラグcleanが1であれ
ば、後述する図11のデータ変更処理において、操作者
が指定したデバイス番号とパート番号に統一する方法を
実施する。フラグcleanが0であれば、トラックデ
ータ内の最初に位置する音素列データについてのデバイ
ス番号とパート番号に統一する方法を実施する。
スプレイ45上に表示されるメニューを選択することに
より、フラグcleanの変更を指示することができ
る。変更が指示されるとステップSA3に進み、指示さ
れた値をフラグcleanにセットする。その後、ステ
ップSA4へ進む。変更が指示されなければステップS
A3をバイパスしてステップSA4へ進む。
6)の表示が指示されたか否かをチェックする。例え
ば、操作者がマウス10を操作して歌詞編集画面の表示
を指示することができる。表示が指示されるとステップ
SA4へ進み、表示が指示されなければステップSA5
及びSA6をバイパスしてステップSA7へ進む。
されいるか否かをチェックする。操作者は、マウス10
を操作することにより、1つ又は複数のソングデータの
中から編集を行いたいものを1つ選択することができ
る。選択されたときにはステップSA6へ進み、選択さ
れていないときにはステップSA6をバイパスしてステ
ップSA7へ進む。
理を行う。当該処理は、上記の3つの機能(トラック内
データ結合機能、デバイス及びパート番号変更機能、発
音時間表示機能)を実現するための処理を含む。当該処
理の詳細は、後に図9のフローチャートを参照しながら
説明する。この処理の後、ステップSA7へ進む。
その他処理は、以下の処理を含む。歌詞編集画面(図1
6)が表示されているときには、歌詞編集画面からソン
グデータ画面(図14)に表示を切り換える。その際、
ソングデータが選択されていれば、選択されたソングデ
ータに基づくソングデータ画面を表示する。また、操作
者の操作に応じて、新規のソングデータを作成したり、
ソングデータを外部デバイスET1及びET2に送信す
ることができる。ソングデータを外部デバイスに送信す
ることにより、外部デバイスは当該ソングデータに基づ
く再生処理を行う。外部デバイスの処理の詳細は、後に
図13のフローチャートを参照しながら説明する。ステ
ップSA7の処理の後、ステップSA8へ進む。
否かをチェックする。操作者がマウス10を操作するこ
とにより終了を指示することができる。終了が指示され
なければステップSA2へ戻り上記の処理を繰り返す。
終了が指示されるとメインルーチンの処理を終了する。
編集画面表示処理の詳細を示すフローチャートである。
る。例えば、図15に示すトラック選択画面を表示す
る。トラック選択画面には、例えば「選択トラック番
号:1」が表示される。操作者は、マウス又はキーボー
ドを用いて選択トラック番号を入力することができる。
選択トラック番号を入力すると、そのトラックに対応す
るトラックデータ内に音素列データが含まれているか否
かが表示される。例えば、「選択トラック番号:1」を
指定した際、そのトラックデータ内に音素列データが含
まれていれば「音素列データあり!」と画面上に表示す
る。操作者は、そのトラックデータ内に音素列データが
含まれているか否か、すなわち音声データが含まれてい
るかを知ることができる。操作者は、トラックデータに
音声データが含まれているか否かを確認してから、歌詞
編集画面の表示を行うことができる。ここで、音声デー
タを含まないトラックデータに関しては、予め、図15
のトラック選択画面における選択トラックの対象となら
ない、つまり該トラック番号が表示されないようにして
もよい。
ラックを選択できるようにしてもよい。例えば、図14
のソングデータ画面において、操作者がマウスを用いて
所望のトラックをダブルクリックした時、当該トラック
内の音素列データが含まれている場合に、当該トラック
を選択するか否かを選択するようにしてもよい。
の先頭アドレスをレジスタtrackにセットする。す
なわち、ソングデータ71(図4)に含まれるトラック
データ先頭アドレスのうちのいずれかをレジスタtra
ckにセットする。
内に含まれるブロックの数をカウントし、そのカウント
値をレジスタblock_totalにセットする。
_totalの値が1か否かをチェックする。すなわ
ち、トラック内に含まれるブロック数が1か否かをチェ
ックする。ブロック数が2以上であるときには文字(又
は音素列)データを編集し易くするための、複数ブロッ
クデータを1つのブロックデータに結合する処理を行う
ためNOの矢印に従いステップSB5へ進む。ブロック
数が1であるときにはYESの矢印に従いステップSB
5をバイパスしてステップSB6へ進む。
合処理を行う。トラック内データ結合処理は、上記に示
したように、トラック内のブロック内の境界をなくし1
つのブロックにまとめる処理である。処理の詳細は、後
に図10のフローチャートを参照しながら説明する。ス
テップSB5の後、ステップSB6へ進む。
う。データ変更処理は、上記に示したように、トラック
内のデバイス番号及びパート番号を統一する処理であ
る。処理の詳細は、後に図11のフローチャートを参照
しながら説明する。ステップSB6の後、ステップSB
7へ進む。
示処理は、上記に示した発音時間表示処理を含む。表示
処理の詳細は、後に図12のフローチャートを参照しな
がら説明する。ステップSB6の処理が終わると、歌詞
編集画面表示処理を終了し、図8のメインルーチンの処
理へ戻る。
合(マージ)処理の詳細を示すフローチャートである。
結合処理は、上記に示したように、図4に示すソングデ
ータを図6に示すソングデータに変換する処理である。
0にし、レジスタtrackADRにレジスタtrac
kの値をセットする。フラグfirstは、現在の処理
対象がトラック内の第1番目のブロックであるか否かを
示す。フラグfirstが0のときには第1番目のブロ
ックが現在処理対象であることを示し、フラグfirs
tが1のときには第2番目以降のブロックが現在処理対
象であることを示す。
ップSB2で選択トラックの先頭アドレスが記憶されて
いる。その先頭アドレスがレジスタtrackADRに
も記憶される。
ADRが示すアドレスの内容をレジスタADRにセット
する。すなわち、トラックデータ72(図4)内に含ま
れるブロック先頭アドレスをレジスタADRにセットす
る。
が1か否かをチェックする。初期時には、ステップSC
1でフラグfirstが0にセットされているので、N
Oの矢印に従い、ステップSC6へ進む。
をインクリメントする。例えば、第1トラックの場合、
レジスタADRの値は、ブロックデータ群73(図4)
内のテンポデータを指すアドレス値から、ボリューム設
定データを指すアドレス値に変わる。
DRが指すデータがエンドデータか否かをチェックす
る。上記のように、現在のアドレスレジスタADRが指
すデータはボリューム設定データであるので、NOの矢
印に従い、ステップSC3へ戻る。そして、アドレスレ
ジスタADRが指すデータがエンドデータEDになるま
で、ステップSC3,SC6,SC7のループを繰り返
す。
Dを指すアドレス値までインクリメントされると、ステ
ップSC7においてYESの矢印に従いステップSC8
へ進む。
か否かをチェックする。フラグfirstは初期時から
引き続き0であるので、YESの矢印に従いステップS
C9へ進む。
RにレジスタADRの内容をセットする。すなわち、レ
ジスタnewADRにはエンドデータEDを指すアドレ
ス値がセットされる。そして、フラグfirstを1に
する。すなわち、次に、第2番目以降のブロックを処理
することを記録しておく。
trackADRの内容をインクリメントする。これに
より、アドレスレジスタtrackADRには、第2番
目のブロックの先頭アドレスが記憶される。
trackADRが指すデータがエンドデータか否かを
チェックする。すなわち、例えば第1トラックの場合、
トラックデータTR1(図4)の最後に位置するエンド
データであるか否かをチェックする。ブロックが2以上
あるときには、レジスタtrackADRには第2番目
のブロックの先頭アドレスが記憶されているので、NO
の矢印に従いステップSC2へ戻る。
ADRが示すアドレスの内容をレジスタADRにセット
する。すなわち、第2番目のブロックの先頭アドレスを
レジスタADRにセットする。後の処理で、このアドレ
スレジスタADRが指すデータが読み出される。
が1か否かをチェックする。既にステップSC9でフラ
グfirstが1にセットされているので、YESの矢
印に従い、ステップSC4へ進む。
DRが指すデータを読み出し、アドレスレジスタnew
ADRが指す位置に書き込む。すなわち、例えばブロッ
クデータBL2内のテンポデータをブロックデータBL
1内のエンドデータEDの位置に上書きする。実質的
に、当該エンドデータEDを削除したことになる。この
処理は、アドレスを1つずらしてデータをコピーする処
理である。アドレスは、1つずつ繰り下がることにな
る。ブロックデータBL2のデータは、この後の処理に
より、全てアドレスが1つずつずれることになる。
Rの内容をインクリメントする。すなわち、次の書き込
み位置を、エンドデータEDの次のテンポデータの位置
に変更する。
をインクリメントする。これにより、レジスタADRの
内容は、例えば、ブロックデータBL2内のテンポデー
タの次のデータを指すアドレスに変更される。このアド
レスが次のステップSC4での読み出しアドレスにな
る。
DRが指すデータがエンドデータか否かをチェックす
る。エンドデータでなければ、ステップSC3へ戻り、
ステップSC3,SC4,SC5,SC6,SC7のル
ープを繰り返す。このループ処理により、第2番目のブ
ロック内のデータはアドレスが1つずつ繰り下がる。
Dを指すアドレス値までインクリメントされると、ステ
ップSC7においてYESの矢印に従いステップSC8
へ進む。
であると判断され、NOの矢印に従いステップSC10
へ進む。
trackADRの内容をインクリメントする。これに
より、アドレスレジスタtrackADRには、第3番
目のブロックの先頭アドレスが記憶される。
trackADRが指すデータがエンドデータか否かを
チェックする。すなわち、例えばトラックデータTR1
(図4)の最後に位置するエンドデータであるか否かを
チェックする。エンドデータでなければ、NOの矢印に
従いステップSC2へ戻り、次のブロックについて同様
な処理を繰り返す。全てのブロックの処理が終了、つま
り、図4に示すトラックデータのエンドデータが読み出
されると、ステップSC11においてYESの矢印に従
い、ステップSC12へ進む。
2内の先頭のデータと最終のデータ(エンドデータ)以
外のデータを削除する。例えば、図6に示すように、ト
ラックデータTR1には、第1ブロックの先頭アドレス
とエンドデータのみが残る。
73内のデータDTをタイミングデータ81の順に従っ
て並び換える。なお、タイミングデータ81は、曲の先
頭からのタイミングを示す。
すソングデータが完成する。ステップSC13の後、結
合(マージ)処理を終了し、図9の歌詞編集画面表示処
理に戻る。
ず、その他の処理により図6のソングデータを生成して
もよい。例えば、他のメモリ領域を用意し、まず、先頭
の2つのブロック間で各タイミングデータを比較し、タ
イミングの早いのものから順番に当該メモリ領域にタイ
ミングデータを含むデータDTを記憶させ、以後、当該
データと他のブロックとの間で同様な処理を繰り返すこ
とにより、図6に示すソングデータを生成してもよい。
ックの境界はなくなり、トラック内のデータは1連のデ
ータになる。これにより、トラック内の歌詞又はノート
(音符)の流れを曲の最初から最後まで連続して把握す
ることができる。
ータ変更処理の詳細を示すフローチャートである。デー
タ変更処理は、上記に示したように、トラック内のデバ
イス番号とパート番号を統一する処理である。
1か否かをチェックする。フラグcleanが1であれ
ば、操作者が指定したデバイス番号とパート番号に従っ
て、トラック内の各音素列データのデバイス番号及びパ
ート番号を統一するため、ステップSD2へ進む。フラ
グcleanが0であれば、トラック内のデータをその
トラック内の最初に位置する音素列データについてのデ
バイス番号とパート番号に従って統一を行うため、ステ
ップSD4へ進む。
する。ステップSD2では、デバイス番号とパート番号
を選択するための選択画面を表示する。操作者は、当該
選択画面上で、マウス又はキーボードを用いてデバイス
番号又はパート番号を選択又は入力することができる。
て選択又は入力されたパート番号をレジスタpartに
セットし、デバイス番号をレジスタdeviceにセッ
トする。その後、ステップSD6へ進む。
する。ステップSD4では、アドレスレジスタtrac
k(選択されているトラック内の第1番目のブロックア
ドレス)が指すアドレス内のデータ(このデータとは、
図6のトラックデータ72内の各データを示す)に従
い、ブロックデータ内の先頭の音素列データを検索す
る。例えば、第1番目のブロックデータBL1(図6)
内の先頭に位置する音素列データ82を検索する。
2内のパート番号91(図5)をレジスタpartにセ
ットし、デバイス番号92(図5)をレジスタdevi
ceにセットする。その後、ステップSD6へ進む。
ジスタtrackの内容をセットする。つまり、レジス
タADRには、図6のブロックデータ73における先頭
アドレスがセットされることになる。
DRが指すデータが音素列データか否かをチェックす
る。音素列データでない場合には、ステップSD9へ進
み、アドレスレジスタADRの内容をインクリメントす
る。その後、ステップSD10へ進み、アドレスレジス
タADRが指すデータがエンドデータか否かをチェック
する。エンドデータでなければ、ステップSD7へ戻
る。
ジスタADRが指すデータが音素列データか否かを繰り
返しチェックし、該アドレスレジストADRが指すデー
タが音素列データになるまで、上記のステップSD9,
SD10,SD7のループを繰り返す。そして、該アド
レスレジストADRが指すデータが音素列データになる
と、ステップSD7でYESの矢印に従いステップSD
8へ進む。
2内のパート番号91をレジスタpartの値に変更
し、デバイス番号92をレジスタdeviceの値に変
更する。その後、ステップSD9へ進み、レジスタAD
Rの値をインクリメントする。その後、ステップSD1
0へ進む。
ADRが指すデータがエンドデータか否かをチェックす
る。エンドデータでなければ、NOの矢印に従いステッ
プSD7へ戻り、上記の処理を繰り返す。エンドデータ
であれば、YESの矢印に従い、データ変更処理を終了
し、図9の歌詞編集画面表示処理に戻る。
番号及びパート番号が統一される。1つのトラックデー
タは、所定の単一音声合成回路のみで発音されることと
なり、音声データの発音が滑らかになる。
示処理の詳細を示すフローチャートである。表示処理
は、上記に示したように、図7の発音時間を表示する処
理を含む。
内のブロックデータ群73(図6)内の先頭のタイミン
グデータのアドレスをレジスタADRにセットする。
タを読み出し、第1番目のデータDTの発音タイミング
を表示する。例えば、図16に示す歌詞編集画面を表示
し、第1行目のロケーションに、「0005:04:0
00」を表示する。すなわち、小節番号が「0005」
であり、拍数が「04」であり、クロック数が「00
0」であることを表示する。
DRの内容をインクリメントする。ステップSE4で
は、アドレスレジスタADRが指すデータが音素列デー
タか否かをチェックする。音素列データであるときに
は、YESの矢印に従い、ステップSE5へ進む。
に呼気データがあるか否かをチェックする。呼気データ
があるときには、例えば図7(B)に示す「か▽」のよ
うな音素列データに関する発音時間を表示するため、Y
ESの矢印に従いステップSE6へ進む。呼気データが
ないときには、NOの矢印に従いステップSE7へ進
む。
に長音記号があるか否かをチェックする。つまり、図5
(A)において、デュレーションとして無限長を表す
「0」がセットされている音素ナンバーの次に音素ナン
バーが存在するか否かを調べ、ここで存在する場合には
前記長音記号が存在すると判定される。長音記号がある
ときには、例えば図7(C)に示す「かーい」のような
音素れさデータに関する発音時間を表示するため、YE
Sの矢印に従いステップSE8へ進む。長音記号がない
ときには、例えば図7(A)に示す「か」のような音素
列データに関する発音時間を表示するため、NOの矢印
に従いステップSE9へ進む。
音時間を表示するため、当該音素列データ以降に位置す
るゲートタイムを検索し、そのゲートタイム値をクロッ
ク数から実時間に変換する。ゲートタイム値は、本来、
クロック数で表されているが、それを音素列データ中の
デュレーションと同様な実時間に変換する。その実時間
を発音時間データとする。その後、ステップSE10へ
進む。
発音時間を表示するため、当該長音記号より後ろにある
全音素(例えば図7(C)の「ij」)の発音時間の合
計値(例えば図7(C)の「3×7.5ms」)を求め
る。次に、当該音素列データ以降に位置するゲートタイ
ムを検索し、そのゲートタイム値をクロック数から実時
間に変換する。当該実時間と上記の全音素の発音時間の
合計値とを加算したものを、発音時間データとする。そ
の後、ステップSE10へ進む。
時間を表示するため、当該音素列データの前後に位置す
る2つのタイミングデータ値の差分値(図7(A)のキ
ーオンKON1からキーオンKON2までの時間)を、
発音時間データとする。その後、ステップSE10へ進
む。
タ及び音素列データに基づく表示を行う。例えば、図1
6の歌詞編集画面上で、「発音時間」、「歌詞」、「音
素列データ」を表示する。
を行う。ステップSE12では、アドレスレジスタAD
Rが指すデータがエンドデータか否かをチェックする。
エンドデータでないときには、ステップSE3へ戻り、
レジスタADRの内容をインクリメントする。
スタADRが指すデータが音素列データか否かをチェッ
クする。音素列データでないときには、NOの矢印に従
い、ステップSE11へ進む。
を行う。対象がタイミングデータのときには、図16の
歌詞編集画面上で、「ロケーション」を表示する。対象
がノートナンバのときには「ノート(音高)」を表示す
る。対象がベロシティのときには、音量を表示すること
ができる。さらに、デバイス番号やパート番号を表示し
てもよい。
るので、同一タイミングで2つの音を発音することがで
きない。そこで、タイミングデータに応じて「ロケーシ
ョン」を表示する際に、それと同一のタイミングデータ
が他にあるときには、その旨の警告を発するのが好まし
い。例えば、図16の先頭に示すように、色を変えて表
示することにより、警告を発する。その警告が発せられ
たとき、操作者は、そのタイミングデータ等を必要に応
じて修正することができる。
ADRが指すデータがエンドデータか否かをチェックす
る。エンドデータでないときには、NOの矢印に従いス
テップSE3へ戻り、上記の処理を繰り返す。エンドデ
ータのときには、トラック内の全てのデータの表示処理
が終了したことを意味するので、YESの矢印に従い、
表示処理を終了し、図9の歌詞編集画面表示処理へ戻
る。
歌詞を実際に発音するタイミングや発音時間等を表示す
ることができる。発音時間は、呼気データや長音記号が
考慮されているので、操作者は正確な発音時間を知るこ
とができる。
のCPU26が行うメインルーチンの処理を示すフロー
チャートである。
期設定は、レジスタやフラグ等の初期化を含む。
ート番号の設定が指示されたか否かをチェックする。操
作者が操作子34を操作することにより番号を設定して
もよいし、パーソナルコンピュータ1から番号を送信す
ることにより設定してもよい。設定が指示されるとステ
ップSF3へ進み、設定が指示されなければステップS
F3をバイパスしてステップSF4へ進む。
番号又はパート番号をRAMに記憶する。その後、ステ
ップSF4へ進む。
ータ1から受信したデータがあるか否かをチェックす
る。パーソナルコンピュータ1は、例えばMIDI規格
に従い、RAM内のソングデータに基づいて、音素列デ
ータとノートイベントを送信する。ノートイベントは、
ノートオン/オフ、ノートナンバ、ベロシティを含む。
音素列データは、MIDI規格のシステムエクスクルー
シブデータとして送信することができる。
があれば、YESの矢印に従いステップSF5へ進む。
受信したデータがなければ、NOの矢印に従いステップ
SF9へ進む。
素列データか否かをチェックする。音素列データであれ
ば、YESの矢印に従いステップSF6へ進む。
(図5)内のデバイス番号92が自己のデバイス番号と
一致しているか否かをチェックする。一致していれば、
YESの矢印に従いステップSF7へ進む。一致してい
なければ、NOの矢印に従いステップSF9へ進む。
2内のパート番号91に一致する音声合成回路に当該音
素列データに基づくフォルマントデータ等を供給する。
具体的には、音素列データに基づいて、各音素のフォル
マントを構成する上で必要となるフォルマント中心周波
数データ、フォルマントレベルデータ、フォルマントバ
ンド幅データ等を供給する。その後、ステップSF9へ
進む。
例えば、音源回路29や効果回路30に、それぞれ楽音
パラメータや効果パラメータを供給する。
か否かをチェックする。指示されていなければ、NOの
矢印に従い、ステップSF2へ戻り、上記の処理を繰り
返す。
いと判断されたときには、ノートイベント等を受信した
ことを意味するので、NOの矢印に従い、ステップSF
8へ進む。
内のデバイス番号とパート番号が示す音声合成回路と同
じ音声合成回路に、当該受信したデータを供給する。例
えば、ノートナンバ、ベロシティ等を供給する。その
後、ステップSF9へ進み、上記のその他処理を行う。
YESの矢印に従い、メインルーチンの処理を終了す
る。
ス番号及びパート番号が示す音声合成回路において当該
音素列データの発音を行う。トラック内のデバイス番号
及びパート番号が統一されていれば、1つのトラックデ
ータは、所定の音声合成回路のみで発音されるため、音
声データの発音が滑らかになる。
たデータをメインルーチンの中で処理するようにした
が、外部デバイスがデータを受信したときに割り込み信
号を発生させ、受信したデータを割り込み処理により処
理するようにしてもよい。
素列データを発音させる場合に限定されない。音声合成
回路を含む音源ボードをパーソナルコンピュータ1に差
し込み、当該音源ボードに音素列データを発音させても
よい。その場合は、パーソナルコンピュータ1に外部デ
バイスを接続する必要はない。
列データ、ノートナンバ、ベロシティ、ゲートタイムを
それぞれ1つのデータとして扱ったが、これらのデータ
を組とした1つのデータ列として扱ってもよい。また、
上記のデータの並び順は、他の並び順であってもよい。
ンとアプリケーションソフトウエアとによる形態に限ら
ず、電子楽器やシーケンサの形態でもよい。アプリケー
ションソフトウエアは、磁気ディスク、光ディスク、半
導体メモリ等の記憶媒体に記憶させ、パソコンに供給す
るようにしてもよいし、ネットワークを介して供給する
ようにしてもよい。
ードMIDIファイルのような演奏イベントの発生時刻
を1つ前のイベントからの時間で表した「イベント+相
対時間」の他、演奏イベントの発生時刻を曲や小節内に
おける絶対時間で表した「イベント+絶対時間」、音符
の音高と符長あるいは休符と休符長で演奏データを表し
た「音高(休符)+符長」、演奏の最小分解能毎にメモ
リの領域を確保し、演奏イベントの発生する時刻に対応
するメモリ領域に演奏イベントを記憶した「ベタ方式」
等の形式でもよい。
日本語に限らず、英語等、他の言葉の発音に用いてもよ
い。
タが混在した形式であってもよいし、各チャンネルのデ
ータがトラック毎に別れているような形式であってもよ
い。
本発明はこれらに制限されるものではない。例えば、種
々の変更、改良、組み合わせ等が可能なことは当業者に
自明であろう。
第1のトラックデータ内のブロックデータを結合した第
2のトラックデータの内容を表示するので、ブロックデ
ータの境界で途切れることなく連続して音声発音に関す
るデータを表示することができる。
全て同じになるので、トラックデータ内の音声発音に関
するデータを全て同じ送信先に送信することができる。
に、呼気を表すデータ又は長音を表すデータに応じた発
音時間を表示するので、発音データの正確な発音時間を
表示することができる。
接続されたシステムのハード構成を示す図である。
である。
ンルーチンの処理を示すフローチャートである。
示処理の詳細を示すフローチャートである。
細を示すフローチャートである。
理の詳細を示すフローチャートである。
細を示すフローチャートである。
ンの処理を示すフローチャートである。
るソングデータ画面の例を示す図である。
るトラック選択画面の例を示す図である。
る歌詞編集画面の例を示す図である。
RAM、 4 ROM、 5 CPU、 6 タ
イマ、 7 表示回路、 8 インターフェース、
9,11 検出回路、 10 マウス、 12
キーボード、13 外部記憶装置、 22 バス、
23 インターフェース、24 RAM、 25
ROM、 26 CPU、 27 タイマ、28
表示回路、 29 音源回路、 30 効果回
路、 31 サウンドシステム、 32 音声合成
回路、 33 検出回路、 34 操作子、 4
1 通信ネットワーク、 42 サーバコンピュー
タ、 45 ディスプレイ、 51〜54 フォル
マント合成部、 55 加算器、 61 ソングデ
ータ、 62 ミキサ、 63 サウンドシステ
ム、 71ソングデータ、 72 トラックデー
タ、 73 ブロックデータ群、81 タイミングデ
ータ、 82 音素列データ、 83 ノートナン
バ、 84 ベロシティ、 85 ゲートタイム、
ED エンドデータ、91 パート番号、 92
デバイス番号、 93 音素ナンバ、94 デュレ
ーション、 95 呼気データ、 96 文字デー
タ、 ET1,ET2 外部デバイス
Claims (8)
- 【請求項1】 音声発音に関するデータを含むブロック
データを複数有する第1のトラックデータを、1つのブ
ロックデータを有する第2のトラックデータに変換する
変換手段であって、該第2のトラックデータ内のブロッ
クデータは該第1のトラックデータ内の複数のブロック
データを結合したものである変換手段と、 前記第2のトラックデータの内容を表示する表示手段と
を有するデータ編集装置。 - 【請求項2】 音声発音に関するデータと該音声発音に
関するデータを所望の装置に送信する場合に、該所望の
装置を識別するための送信先識別子とが組になったデー
タを複数含むトラックデータを変換する変換手段であっ
て、該トラックデータ内に含まれる送信先識別子を全て
同一の送信先識別子に変換する変換手段を有するデータ
編集装置。 - 【請求項3】 音声発音においての呼気を表すデータ又
は長音を表すデータを含む音声を形成するための音声デ
ータと少なくとも該音声データの発音時間に関するデー
タを含むノートデータとが組になった発音データの発音
時間を演算する演算手段であって、前記呼気を表すデー
タ又は長音を表すデータに応じた発音時間を演算する演
算手段と、 前記演算手段により演算される発音時間を表示する表示
手段とを有するデータ編集装置。 - 【請求項4】 前記ノートデータは発音開始時間及び発
音終了時間を決定するために用いるキーオンデータ及び
キーオフデータを含み、 前記演算手段は、前記発音データに前記呼気を表すデー
タ及び長音を表すデータが含まれていない場合には今回
の音声発音に関するキーオンからその次の音声発音に関
するキーオンまでの時間、前記音声データに呼気を表す
データが含まれているときには今回の音声発音に関する
キーオンから今回の音声発音に関するキーオフまでの時
間、前記音声データに長音を表すデータが含まれている
ときには今回の音声発音に関するキーオンから今回の音
声発音に関するキーオフまでの時間に長音を表すデータ
の後ろにある音声データの発音時間を加えた時間、をそ
れぞれ発音時間として演算する請求項3記載のデータ編
集装置。 - 【請求項5】 (a)音声発音に関するデータを含むブ
ロックデータを複数有する第1のトラックデータを、1
つのブロックデータを有する第2のトラックデータに変
換する手順であって、該第2のトラックデータ内のブロ
ックデータは該第1のトラックデータ内の複数のブロッ
クデータを結合したものである手順と、 (b)前記第2のトラックデータの内容を表示する手順
とをコンピュータに実行させるためのプログラムを記録
した媒体。 - 【請求項6】 音声発音に関するデータと該音声発音に
関するデータを所望の装置に送信する場合に、該所望の
装置を識別するための送信先識別子とが組になったデー
タを複数含むトラックデータを変換する変換手段であっ
て、該トラックデータ内に含まれる送信先識別子を全て
同一の送信先識別子に変換する手順をコンピュータに実
行させるためのプログラムを記録した媒体。 - 【請求項7】 (a)音声発音においての呼気を表すデ
ータ又は長音を表すデータを含む音声を形成するための
音声データと少なくとも該音声データの発音時間に関す
るデータを含むノートデータとが組になった発音データ
の発音時間を演算する手順であって、前記呼気を表すデ
ータ又は長音を表すデータに応じた発音時間を演算する
手順と、 (b)前記演算された発音時間を表示する手順とをコン
ピュータに実行させるためのプログラムを記録した媒
体。 - 【請求項8】 前記ノートデータは発音開始時間及び発
音終了時間を決定するために用いるキーオンデータ及び
キーオフデータを含み、 前記手順(a)は、前記音声データに前記呼気を表すデ
ータ及び長音を表すデータが含まれていない場合には今
回の音声発音に関するキーオンからその次の音声発音に
関するキーオンまでの時間、前記音声データに呼気を表
すデータが含まれているときには今回の音声発音に関す
るキーオンから今回の音声発音に関するキーオフまでの
時間、前記音声データに長音を表すデータが含まれてい
るときには今回の音声発音に関するキーオンから今回の
音声発音に関するキーオフまでの時間に長音を表すデー
タの後ろにある音声データの発音時間を加えた時間、を
それぞれ発音時間として演算する請求項7記載のプログ
ラムを記録した媒体。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14852497A JP3409644B2 (ja) | 1997-05-22 | 1997-05-22 | データ編集装置およびデータ編集プログラムを記録した媒体 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP14852497A JP3409644B2 (ja) | 1997-05-22 | 1997-05-22 | データ編集装置およびデータ編集プログラムを記録した媒体 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002348757A Division JP2003157094A (ja) | 2002-11-29 | 2002-11-29 | データ編集装置およびデータ編集プログラムを記録した媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10319956A true JPH10319956A (ja) | 1998-12-04 |
JP3409644B2 JP3409644B2 (ja) | 2003-05-26 |
Family
ID=15454713
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP14852497A Expired - Fee Related JP3409644B2 (ja) | 1997-05-22 | 1997-05-22 | データ編集装置およびデータ編集プログラムを記録した媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3409644B2 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016177277A (ja) * | 2015-03-20 | 2016-10-06 | ヤマハ株式会社 | 発音装置、発音方法および発音プログラム |
CN113112971A (zh) * | 2021-03-30 | 2021-07-13 | 上海锣钹信息科技有限公司 | 一种midi残缺音播放方法 |
-
1997
- 1997-05-22 JP JP14852497A patent/JP3409644B2/ja not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016177277A (ja) * | 2015-03-20 | 2016-10-06 | ヤマハ株式会社 | 発音装置、発音方法および発音プログラム |
CN113112971A (zh) * | 2021-03-30 | 2021-07-13 | 上海锣钹信息科技有限公司 | 一种midi残缺音播放方法 |
CN113112971B (zh) * | 2021-03-30 | 2022-08-05 | 上海锣钹信息科技有限公司 | 一种midi残缺音播放方法 |
Also Published As
Publication number | Publication date |
---|---|
JP3409644B2 (ja) | 2003-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2921428B2 (ja) | カラオケ装置 | |
JP3598598B2 (ja) | カラオケ装置 | |
JP6587007B1 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
CN110634460A (zh) | 电子乐器、电子乐器的控制方法以及存储介质 | |
JP3718919B2 (ja) | カラオケ装置 | |
JP6465136B2 (ja) | 電子楽器、方法、及びプログラム | |
JPH0950287A (ja) | 自動歌唱装置 | |
JP2004170618A (ja) | シーケンスデータのデータ交換フォーマット、音声再生装置及びサーバー装置 | |
EP0723256B1 (en) | Karaoke apparatus modifying live singing voice by model voice | |
CN111696498A (zh) | 键盘乐器以及键盘乐器的计算机执行的方法 | |
JP3915807B2 (ja) | 奏法自動判定装置及びプログラム | |
JP3518253B2 (ja) | データ編集装置 | |
JP3116937B2 (ja) | カラオケ装置 | |
JPH11126083A (ja) | カラオケ再生装置 | |
JP3409644B2 (ja) | データ編集装置およびデータ編集プログラムを記録した媒体 | |
JP7276292B2 (ja) | 電子楽器、電子楽器の制御方法、及びプログラム | |
JP2002091443A (ja) | 自動演奏装置 | |
JP2006126710A (ja) | 奏法決定装置及びプログラム | |
JPH06110476A (ja) | カラオケ装置 | |
JP2003157094A (ja) | データ編集装置およびデータ編集プログラムを記録した媒体 | |
JP5598056B2 (ja) | カラオケ装置およびカラオケ曲紹介プログラム | |
JP2904045B2 (ja) | カラオケ装置 | |
JPH1185174A (ja) | 利用者が伴奏音楽を演奏できるカラオケ装置 | |
JP2002221978A (ja) | ボーカルデータ生成装置、ボーカルデータ生成方法および歌唱音合成装置 | |
JP3173310B2 (ja) | ハーモニー生成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20030218 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313532 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090320 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090320 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100320 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110320 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110320 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120320 Year of fee payment: 9 |
|
LAPS | Cancellation because of no payment of annual fees |