JP3807380B2 - Score data editing device, score data display device, and program - Google Patents

Score data editing device, score data display device, and program Download PDF

Info

Publication number
JP3807380B2
JP3807380B2 JP2003052059A JP2003052059A JP3807380B2 JP 3807380 B2 JP3807380 B2 JP 3807380B2 JP 2003052059 A JP2003052059 A JP 2003052059A JP 2003052059 A JP2003052059 A JP 2003052059A JP 3807380 B2 JP3807380 B2 JP 3807380B2
Authority
JP
Japan
Prior art keywords
data
period
note
singing
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003052059A
Other languages
Japanese (ja)
Other versions
JP2004258564A (en
Inventor
啓 嘉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2003052059A priority Critical patent/JP3807380B2/en
Publication of JP2004258564A publication Critical patent/JP2004258564A/en
Application granted granted Critical
Publication of JP3807380B2 publication Critical patent/JP3807380B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、自動演奏のためのスコアデータの編集および表示を行う装置、およびプログラムに関する。
【0002】
【従来の技術】
楽曲に含まれる音の音高および発音期間を示すデータであるスコアデータを用いて、自動演奏装置に楽曲の自動演奏を行わせる技術がある。また、自動演奏用のスコアデータを編集する装置がある。
【0003】
スコアデータ編集装置におけるスコアデータの表示方法の一つに、ピアノロール表示と呼ばれるものがある。ピアノロール表示の画面においては、音高を示す軸と時間を示す軸から構成される座標平面上に、スコアデータが示す各々の音に対応する棒状の図形が配置される。ユーザは棒状の図形の音高軸方向の位置と、時間軸方向の位置および長さにより、各音の音高および発音期間を知ることができる。
【0004】
さらに、ピアノロール表示の画面に配置された棒状の図形の位置やサイズをマウス等により変更することによって、その図形の位置やサイズに対応するスコアデータ内のデータを変更することができる(例えば、特許文献1参照。)。
【0005】
一方、音高および発音期間に関するデータに加え、歌詞に関するデータを含む歌唱スコアデータを用いて、歌唱合成装置により歌唱を自動的に行わせる技術がある(例えば、特許文献2参照。)。
【0006】
【特許文献1】
特開平1−321484号公報
【特許文献2】
特開2002−202790号公報
【0007】
【発明が解決しようとする課題】
ところで、楽器音による自動演奏用のスコアデータを編集する場合と同様に、スコアデータ編集装置においてピアノロール表示等により歌唱スコアデータに含まれる音の音高および発音期間を表示させ、表示された図形を操作することにより歌唱スコアデータに含まれる音高および発音期間に関するデータを編集することができれば、ユーザの編集作業が容易になる。
【0008】
しかしながら、歌唱演奏においては1人により複数の声が同時に発せられることはないのに対し、多くの楽器は複数の音を同時に発することができる。そのため、スコアデータ編集装置を、歌唱スコアデータの編集に利用すると、ユーザは誤って、同じ人の声で同時に複数の音を発声させることを指示する歌唱スコアデータを作成してしまう可能性がある。
【0009】
このような歌唱スコアデータに従い、歌唱合成装置が歌唱を行うと、その歌唱演奏は不自然なものとなってしまう。場合によっては、歌唱合成装置は同時に複数の音を発声させる指示を発見した場合、先行する音を止めた後、後続の音を発声させる等の処理を行う。そのような場合、歌唱合成装置により行われる歌唱演奏が、ユーザの意図したものと異なってしまう場合もあり、不都合である。
【0010】
上記の状況に鑑み、本発明は、歌唱用および単声楽器用のスコアデータの表示および編集において、ユーザが誤って、同時に複数の音を発音させるようなスコアデータを作成することを防止すると同時に、誤って作成されたデータ部分を自動的に修正することにより、ユーザの手間を省くことを可能とする装置を提供する。
【0011】
【課題を解決するための手段】
以上説明した課題を解決するため、本発明は、(1)音の高さを示す音高データおよび(2)該音の発音期間を示す発音期間データを少なくとも含むノートデータを複数含むスコアデータを記憶する記憶手段と、前記スコアデータに含まれる2以上のノートデータに関し、のノートデータに含まれる第1の発音期間データにより示される第1の発音期間と、前記のノートデータとは異なる他のノートデータに含まれる第2の発音期間データにより示される第2の発音期間との間に重複部分があるか否かを判定する判定手段と、音の高さを示す第1の軸と時間の経過を示す第2の軸を有する座標上に、前記スコアデータに含まれるノートデータの各々について、該ノートデータに含まれる音高データが示す音の高さに対応する前記第1の軸方向の位置に、該ノートデータに含まれる発音期間データが示す発音期間の始期および終期に対応する前記第2の軸方向の位置をそれぞれ一の端点および他の端点とする図形を表示する表示手段とを備え、前記表示手段は、前記判定手段により重複部分があると判定された場合、前記ノートデータに対応する図形と、前記ノートデータに対応する図形を、他の図形異な態様で表示することを特徴とするスコアデータ表示装置を提供する。
【0012】
かかる構成によるスコアデータ表示装置によれば、ユーザは容易に歌唱用もしくは単声楽器用のスコアデータに含まれる、複数音の同時発音を示すデータ部分を確認することができる
【0013】
また、本発明にかかるスコアデータ表示装置において、前記調整手段は、前記判定手段により重複部分があると判定された場合、前記第1の発音期間前記第2の発音期間との間に重複部分が無くなるように、前記第1の発音期間データおよび前記第2の発音期間データの少なくとも一方を変更するように構成されてもよい。
【0014】
かかる構成によるスコアデータ表示装置によれば、歌唱用もしくは単声楽器用のスコアデータに含まれる、複数音の同時発音を示すデータが自動的に修正され、ユーザによるスコアデータの修正作業が軽減される
【0015】
また、上記態様のスコアデータ表示装置において、前記調整手段は、前記第1の発音期間の終期および前記第2の発音期間の終期のうち、より早い方を、前記第1の発音期間の始期および前記第2の発音期間の始期のうち、より遅い方と同時となるように、前記第1の発音期間データおよび前記第2の発音期間データのいずれか一方を変更するように構成されてもよい。
【0016】
かかる構成によるスコアデータ表示装置によれば、多くの場合、歌唱用もしくは単声楽器用のスコアデータに含まれる、複数音の同時発音を示すデータが、ユーザの意図する内容に修正される。
【0019】
さらに、本発明は、上記のスコアデータ表示装置が行う処理と同様の処理をコンピュータに実行させるプログラムを提供する。
【0020】
【発明の実施の形態】
[1.実施形態]
[1.1.構成]
図1は、この発明の一実施形態である歌唱合成システムを実現するコンピュータ1の構成を示すブロック図である。図1において、コンピュータ1は、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103、HD(Hard Disk)104、表示部105、操作部106、データ入出力部107、D/A(Digital to Analog)コンバータ108、アンプ109およびスピーカ110を有している。アンプ109およびスピーカ110以外の構成部は、バス115を介して接続されており、互いにデータの送受信が可能である。
【0021】
CPU101は汎用的なデータ処理を行うマイクロプロセッサであり、ROM102に記憶されたBIOS(Basic Input/Output System)等の制御用プログラムおよびHD104に記憶されたOS(Operating System)に従い、コンピュータ1の他の構成部の制御処理を行う。
【0022】
ROM102はBIOS等の制御用プログラムを格納する不揮発性メモリである。また、RAM103はCPU101や他の構成部が利用するデータを一時的に記憶するための揮発性メモリである。ROM102内のBIOSは、コンピュータ1の電源が投入されたときに、CPU101によって読み出され、RAM103に書き込まれる。CPU101は、このRAM103内のBIOSに従ってハードウェアの利用環境を構築する。
【0023】
HD104は大容量の記憶領域を有する不揮発性のメモリであり、HD104に記憶されるデータは書き換え可能である。HD104には、OSと、各種のアプリケーションと、各アプリケーションにより利用されるデータが記憶されている。CPU101は、BIOSによるハードウェア環境の構築後、HD104からOSを読み出してRAM103に書き込み、OSに従ってGUI(Graphical User Interface)環境およびアプリケーションの実行環境の構築等の処理を行う。
【0024】
HD104に記憶されているアプリケーションのうち主要なものとして、歌唱合成アプリケーションがある。CPU101は、マウス操作等により、歌唱合成アプリケーションの実行指示をユーザから受け取ると、HD104から歌唱合成アプリケーションを読み出してRAM103に書き込み、歌唱合成アプリケーションに従って各種処理を行う環境を構築する。このようにしてコンピュータ1は、本実施形態に係る歌唱合成システムとして機能する。
【0025】
表示部105は、液晶ディスプレイと、CPU101による制御の下、液晶ディスプレイを駆動する駆動回路とを有し、文字、図形等の情報を表示する。操作部106はキーパッドやマウス等を有し、ユーザによって行われる操作内容を反映したデータをCPU101に送信する。
【0026】
データ入出力部107は、例えばUSB(Universal SerialBus)インタフェース等、各種データを入出力可能なインタフェースであり、外部機器からデータを受信し、受信したデータをCPU101に転送し、またCPU101により生成されたデータを外部機器に送信する。
【0027】
D/Aコンバータ108は、CPU101からデジタル音声データを受信し、これをアナログ音声信号に変換し、アンプ109に出力する。アンプ109は、このアナログ音声信号を増幅し、スピーカ110から音として出力する。
【0028】
図2は、CPU101が歌唱合成アプリケーションに従って提供する歌唱合成システムの機能を示すブロック図である。歌唱合成システムは、スコアデータ編集部20と歌唱合成部30から構成されている。スコアデータ編集部20は、歌唱スコアデータをユーザに表示し、またユーザの操作に従い編集し、編集した歌唱スコアデータを歌唱合成部30に引き渡すモジュールである。ここで、歌唱スコアデータは、歌唱楽曲を構成する時系列の歌唱音のそれぞれの音高を指定する音高データ、発音期間を指定する発音期間データ、歌詞に対応する発音記号等を含む。歌唱合成部30は、この歌唱スコアデータに基づき、歌唱音声データを合成するモジュールである。
【0029】
スコアデータ編集部20は、データ入力手段201、整形手段202、記憶手段203、判定手段204、表示手段205、操作手段206、編集手段207、調整手段208およびデータ出力手段209を備えている。これらのうち記憶手段203は、コンピュータ1のRAM103およびHD104である。また、それ以外の要素は、歌唱合成アプリケーションを構成するソフトウェアモジュールである。
【0030】
歌唱合成部30は、データ入力手段301、記憶手段302、素片データベース303、データ選択手段304、音高調整手段305、継続期間調整手段306、音量調整手段307、操作手段308および音声出力手段309を備えている。これらのうち素片データベース303および記憶手段302は、コンピュータ1のRAM103もしくはHD104である。また、それ以外の要素は、歌唱合成アプリケーションを構成するソフトウェアモジュールである。
【0031】
なお、スコアデータ編集部20および歌唱合成部30の各構成要素の機能については、説明の重複を避けるため、本実施形態の動作説明の項において併せて説明する。
【0032】
[1.2.動作]
本発明の特徴は、スコアデータ編集部20にある。しかしながら、スコアデータ編集部20により行われる処理の技術的意義を理解するためには、このスコアデータ編集部20の出力データを利用して歌唱合成を行う歌唱合成部30の処理内容を理解しておくのが好ましい。そこで、以下では、まず歌唱合成部30の動作について説明し、その後、スコアデータ編集部20の動作を説明する。
【0033】
まず、歌唱合成部30のデータ入力手段301は、スコアデータ編集部20から歌唱スコアデータを受信し、受信した歌唱スコアデータを記憶手段302に記憶させる。
【0034】
図3は、この歌唱スコアデータの構成を示す図である。歌唱スコアデータには、歌唱演奏を表すパートデータが、1もしくは複数含まれている。また、歌唱スコアデータには、このパートデータの他に、演奏で用いられる拍子およびテンポを示すデータ、および分解能を示すデータが含まれている。図3に示される歌唱スコアデータは、パート1〜3の3つのパートデータを含み、拍子として4/4拍子が、テンポとして120が、また分解能として480が設定されている。テンポに関する数値「120」は、この歌唱スコアデータが示す楽曲が、1分間に4分音符を120含むテンポで演奏されることを示している。また、分解能に関する数値「480」は、この歌唱スコアデータにおいて、1つの4分音符を480分割した時間が単位時間として用いられていることを示している。
【0035】
パートデータは、そのパートを構成する複数の歌唱音のそれぞれにつき、音高、発音期間、発音記号および強さを示すデータの組であるノートデータを複数含んでいる。パートデータにおいて、ノートデータは、例えば発音期間の始期の早い順に、また発音期間の始期が同じ場合には発音期間の終期が早い順に、並んでいる。
【0036】
本実施形態においては、歌唱スコアデータが含む発音期間に関する情報は、発音期間の始期を示す情報と発音期間の終期を示す情報とにより構成されており、これらは、各々、「小節番号+拍番号+単位時間番号」の形式で表現される。例えば、「0005:03:240」は、第5小節の第3拍のタイミングから単位時間240個分の時間、すなわち1/2拍分の時間が経過したタイミングを表している。なお、歌唱スコアデータにおけるタイミングの表現の方法は、「小節番号+拍番号+単位時間番号」に限られない。通常の「時間+分+秒」の形式等、様々な表現方法が採用可能である。また、基準となるタイミングからの絶対時間ではなく、先行のデータからの相対時間により後続のデータのタイミングを特定する方法を採用してもよい。
【0037】
データ入力手段301により、歌唱スコアデータが記憶手段302に記憶されると、データ選択手段304は、歌唱スコアデータによって指示された歌唱音の歌唱音声データを生成するために必要となるデータを素片データベース303から読み出す処理を行う。
【0038】
図4は素片データベース303の構成を示す図である。素片データベース303は、複数の歌唱者の各々に対応した個人別データベースに分かれている。図4に示される例では、素片データベース303はそれぞれ3人の歌唱者に対応する個人別データベース303a〜cを含んでいる。
【0039】
各歌唱者に対応した個人別データベースには、その歌唱者の歌唱音声波形から採取された素片データが複数含まれている。素片データとは、歌唱音声波形から、音声学的な特徴部分を切り出して符号化した音声データである。
【0040】
ここで、素片データについて、「さいた」という歌詞を歌唱する場合を例として説明する。「さいた」という歌詞は発音記号で「saita」と表される。発音記号「saita」で表される音声の波形を特徴により分析すると、「s」の音の立ち上がり部分→「s」の音→「s」の音から「a」の音への遷移部分→「a」の音・・・と続き、「a」の音の減衰部分で終わる。それぞれの素片データは、これらの音声学的な特徴部分に対応する音声データである。
【0041】
素片データベース303は、あらゆる音および音の組み合わせに関し、上記の音声学的な特徴部分に対応する音声データを素片データとして含んでいる。以下の説明において、ある発音記号で表される音の立ち上がり部分に対応する素片データを、その発音記号の前に「#」を付けて、「#s」のように表す。また、ある発音記号で表される音の減衰部分に対応する素片データを、その発音記号の後に「#」を付けて、「a#」のように表す。また、ある発音記号で表される音から他の発音記号で表される音への遷移部分に対応する素片データを、それらの発音記号の間に「−」を入れて、「s−a」のように表す。従って、例えば「saita」は、「#s」「s」「s−a」「a」「a−i」「i」「i−t」「t」「t−a」「a」「a#」の素片データの単位に分解される。
【0042】
データ選択手段304は、歌唱スコアデータに例えば「saita」という歌詞が含まれており、この歌詞の歌唱音声を合成する場合に、素片データベース303から「#s」「s」「s−a」「a」「a−i」「i」「i−t」「t」「t−a」「a」「a#」の順に、素片データを読み出す。データ選択手段304は、読み出した素片データを、歌唱スコアデータと共に音高調整手段305に送信する。
【0043】
音高調整手段305は、受信した素片データに対し、歌唱スコアデータに含まれる音高に関するデータに基づき、音高調整を行う。音高調整手段305は、音高調整を行った素片データを、歌唱スコアデータと共に継続期間調整手段306に送信する。
【0044】
継続期間調整手段306に送られる歌唱スコアデータは、個々の素片データに対応した音の発音期間を指定するデータを含んでいる。継続期間調整手段306は、このデータによって指定された期間だけ音が持続するように、各素片データの発音期間の時間調整を行う。継続期間調整手段306は、発音期間の時間調整を行った素片データを、歌唱スコアデータと共に音量調整手段307に送信する。
【0045】
音量調整手段307に送られる歌唱スコアデータは、個々の素片データに対応した音の強さに関するデータを含んでいる。音量調整手段307は、このデータに基づき、各素片データの音量調整を行う。さらに、音量調整手段307は、音量調整を行った素片データのそれぞれに関し、先行するデータの最後の音量と後続のデータの最初の音量とが一致するように、素片データの終端付近もしくは先頭付近の音量調整を行う。
【0046】
音量調整手段307は、音量調整を行った素片データを歌唱スコアデータにより示される順序で繋ぎ合わせ、歌唱音声データを生成し、生成した歌唱音声データを記憶手段302に記憶させる。
【0047】
ユーザが、操作手段308を用いて歌唱合成部30に対し再生の指示を与えると、音声出力手段309は記憶手段302から歌唱音声データを読み出し、図1におけるD/Aコンバータ108に出力する。その結果、ユーザは歌唱スコアデータにより示される歌唱演奏を聴くことができる。
【0048】
なお、歌唱合成部30による歌唱演奏をより自然なものとするために、素片データベース303には、同じ発音記号で表される音の特徴部分に関し、異なるテンポや音高、またはアクセントやレガート等の音楽的な表情等に応じた異なる素片データを複数格納させ、データ選択手段304には、それらの素片データから最適なものを読み出させるようにしてもよい。
【0049】
また、上記の説明において、歌唱合成部30において用いられる素片データは音声波形を符号化した音声データであったが、素片データの形式はこれに限られない。例えば、素片データベース303には、音声波形から得られる音声データの周波数成分の特徴をパラメータ化したものを素片データとして格納させ、データ選択手段304等が素片データに含まれるパラメータに基づいて音声データを再生成することにより、歌唱音声データを生成させるようにしてもよい。
【0050】
次に、スコアデータ編集部20の動作を説明する。まず、スコアデータ編集部20のデータ入力手段201は、外部機器等から歌唱スコアデータを受信し、受信した歌唱スコアデータを整形手段202に送信する。データ入力手段201が外部機器等から受信する歌唱スコアデータの構成は、図3に示したものと同じである。
【0051】
整形手段202は、歌唱スコアデータの各パートデータに含まれるノートデータを、発音期間の始期の早い順に、また発音期間の始期が同じ場合には、発音期間の終期が早い順に並び替える。さらに、整形手段202は、歌唱スコアデータに番号および重なりの項目を追加する。
【0052】
図5は、整形手段202により項目の追加等が行われた後の歌唱スコアデータを示している。番号の欄には、各ノートデータの識別番号が昇順等の規則に従って割り当てられる。重なりの欄には、他のノートデータが示す音との間に時間的な重なりがある場合に、その重なりを持つ相手のノートデータの番号が書き込まれる。整形手段202は項目の追加等を行った歌唱スコアデータを、記憶手段203に記憶させる。
【0053】
[1.2.1.発音期間の重なりの解消に関する動作]
整形手段202の指示により記憶手段203に歌唱スコアデータが記憶されると、判定手段204は、歌唱スコアデータの各パートデータについて、時間軸上において重複する発音期間を持ったノートデータの組が含まれているかどうかを判定する。
【0054】
そして、例えば、同一パートデータに属するノートデータAおよびノートデータBが示す音の発音期間に重なりがあると判定した場合、判定手段204は、ノートデータAの重なりの欄にノートデータBの番号を、ノートデータBの重なりの欄にノートデータAの番号を書き込む。なお、あるノートデータが示す音の発音期間が、他の複数のノートデータが示す音の発音期間と重なりを持つ場合もあり、その場合には重なりの欄に該当する複数のノートデータの番号が書き込まれる。図5に示した歌唱スコアデータにおいては、他のノートデータと発音期間に重なりを持つノートデータは含まれていないので、全てのノートデータに関して、重なりの欄は空欄となっている。
【0055】
表示手段205は、歌唱スコアデータに基づき、ピアノロール表示を行う。図6は、図5に示した歌唱スコアデータに基づき表示手段205が行うピアノロール表示の画面である。図6において、ノートバー401a〜fのそれぞれは、ノートデータに対応している。画面の上下方向は音の高さに対応しており、画面左部に示されるピアノ鍵盤の図により、ユーザは各ノートバーが示すノートデータの音高を確認することができる。画面の左右方向は時間に対応しており、ユーザは各ノートバーの左端の位置および右端の位置から、ノートバーが示すノートデータの発音期間の始期および発音期間の終期を確認することができる。
【0056】
図6においては、パート1のパートデータに関してのみ、ノートバーが表示されている。ユーザは操作手段206を用いて所定の操作を行うことにより、表示手段205に表示させるパートデータを指示することができる。ユーザにより複数のパートデータの表示が指示された場合、表示手段205は、例えばパートデータごとに異なる色でノートバーを表示する。
【0057】
また、表示手段205は重なりの欄にいずれかのノートデータの番号が書き込まれている音に対応するノートバーについては、例えば斜線を付けて表示することにより、重なりの欄にいずれのノートデータの番号も書き込まれていない音に対応するノートバーと区別する。なお、重なりの欄にいずれかのノートデータの番号が書き込まれている音、すなわち他の音との間に発音期間の重なりを持つ音に対応するノートバーを他の音と区別する方法は、斜線を付す以外に、色や線の太さを変えたり、ノートバーを点滅させる等、様々な方法が適用可能である。
【0058】
ピアノロール表示の画面には通常、ノートデータに含まれる音の強さ、発音記号等の情報も表示される。図6の例では、ノートバー401aがユーザの操作手段206を用いた操作により選択されており、画面左下部に選択されたノートバー401aに対応するノートデータの音の強さおよび発音記号、さらにノートバー401aを含むパートデータの名称が示されている。また、ユーザにより選択されたノートバー401aは、境界が太線で表示されている。
【0059】
ユーザは、操作手段206を用いてピアノロール表示におけるノートバーを操作することにより、スコアデータ編集部20に対し、そのノートバーに対応するノートデータの音高および発音期間の変更を指示することができる。例えば、ユーザはノートバーをマウスでクリックして選択した後、上下のカーソルキーを押下することにより、選択したノートバーに対応するノートデータの音高を示すデータの増減を指示することができる。また、ユーザはノートバーの左端もしくは右端をマウスでドラッグすることにより、そのノートバーに対応するノートデータの発音期間の始期もしくは終期を示すデータの増減を指示することができる。
【0060】
操作手段206は、上記のようなユーザによるノートバーに対する操作に関するデータを編集手段207に送信し、編集手段207はその操作に関するデータに基づいて、歌唱スコアデータの内容を変更する。
【0061】
歌唱スコアデータに含まれる発音期間の始期もしくは終期に関するデータの変更が行われると、判定手段204は変更後の歌唱スコアデータに対して、上述した発音期間の重なりの有無に関する判定処理を行う。判定手段204は判定処理の結果に従い、変更の結果、発音期間に重なりを持つこととなった2つのノートデータについては重なりの欄に相手のノートデータの番号が登録され、逆に変更の結果、発音期間に重なりを持たないこととなった2つのノートデータについては重なりの欄のデータが消去される。編集手段207もしくは判定手段204により歌唱スコアデータが変更されると、表示手段205は変更後の歌唱スコアデータに基づいて、ピアノロール表示を更新する。
【0062】
図7は、ユーザが図6に示したピアノロール表示において、ノートバー401cに対し操作を行い、ノートバー401cに対応するノートデータの発音期間の始期を早くした場合に表示手段205が表示する画面の例を示している。図7に示されるように、ノートバー401bとノートバー401cのそれぞれに対応する音の発音期間に重なりが生じているため、ノートバー401bとノートバー401cには斜線が付されている。また、この場合、歌唱スコアデータにおいて、ノートバー401bに対応するノートデータの重なりの欄にはノートバー401cに対応するノートデータの番号が、またノートバー401cに対応するノートデータの重なりの欄にはノートバー401bに対応するノートデータの番号が登録されている。
【0063】
ユーザは歌唱スコアデータの編集作業を終えると、操作手段206を用いて、歌唱スコアデータを歌唱合成部30に送信する指示を行う。操作手段206はユーザによる歌唱スコアデータの送信指示に関するデータを、調整手段208に送信する。調整手段208は、送信指示に関するデータを受信すると、歌唱スコアデータに含まれるノートデータを1つ取り出し、取り出したノートデータの重なりの欄にいずれかの番号が書き込まれているか否かを判定する。
【0064】
調整手段208は、上記の判定処理において重なりの欄にいずれかの番号が書き込まれていると判定した場合には、表示手段205に対し、そのノートデータおよび重なりの欄に書き込まれている番号(複数の番号が書き込まれている場合にはそのうちの1つ)に対応するノートデータについて、対応するノートバーを強調表示するように指示する。さらに、調整手段208は表示手段205に対し、ユーザに発音期間に重なりを持つそれらの2つのノートデータについて、タイミングの調整処理を行うか否かの指示を促すメッセージ窓を表示するように指示する。図8は調整手段208の指示により表示手段205により表示されるメッセージ窓の例を示している。
【0065】
ユーザが図8に示したメッセージ窓に対し「後発優先で調整する」を選択して、「実行」を指示すると、調整手段208は発音期間に重なりを持つ2つのノートデータに関し、図9の(a)に示すように、後発のノートデータの発音期間の始期と同じになるように、先発のノートデータの発音期間の終期関するデータを変更する。
【0066】
ユーザが図8に示したメッセージ窓に対し「先発優先で調整する」を選択して、「実行」を指示すると、調整手段208は発音期間に重なりを持つ2つのノートデータに関し、図9の(b)に示すように、先発のノートデータの発音期間の終期と同じになるように、後発のノートデータの発音期間の始期に関するデータを変更する。
【0067】
「後発優先で調整する」もしくは「先発優先で調整する」のいずれかが選択された場合であって、発音期間に重なりを持つ2つノートデータの発音期間の始期が互いに同じ場合や発音期間の終期が互いに同じ場合には、調整手段208は例えば図9の(c)や(d)に示すように、発音期間の始期もしくは終期を変更する。
【0068】
なお、発音期間に重なりを持つ2つノートデータの発音期間の調整処理の方法は上記の後発優先や先発優先に限られない。例えばユーザが指定する比率に従って発音期間の重なりを分割したタイミングに、先発のノートデータの発音期間の終期と、後発のノートデータの発音期間の始期を一致させるようにしてもよい。調整手段208は、上記のように発音期間の始期もしくは終期の変更を行った後、2つのノートデータの重なりの欄から、重なりが解消した相手のノートデータの番号を削除する。
【0069】
ユーザが図8に示したメッセージ窓に対し「何もしない」を選択して、「実行」を指示すると、調整手段208は発音期間に重なりを持つ2つノートデータの発音期間の始期および終期に変更を加えず、重なりの欄の番号に、ユーザが意図的に重なりを残したことを示すマーク、例えば「*」を付ける。
【0070】
調整手段208は、歌唱スコアデータに含まれる全てのノートデータに関し、上記の調整処理を繰り返す。なお、ユーザが図8のメッセージ窓において、「全ての重なり部分について適用する」にチェックを付けて「実行」を指示すると、調整手段208は個々の重なりについてユーザの確認を促すことなく、全てのノートデータに関し上記の調整処理を行う。その結果、重なりの欄が全て空欄であるか、もしくは重なりの欄の全ての番号に、ユーザが意図的に重なりを残したことを示す「*」が付けられた歌唱スコアデータが生成される。
【0071】
調整手段208により歌唱スコアデータが変更されると、表示手段205は変更後の歌唱スコアデータに基づいて、ピアノロール表示を行う。図10は図7に示したピアノロール表示に対応する歌唱スコアデータに対し、調整手段208が調整処理を行った結果、表示手段205により表示されるピアノロール表示の画面である。続いて調整手段208は、歌唱スコアデータから番号および重なりの欄を取り除いた部分を、データ出力手段209を介して歌唱合成部30に送信する。
【0072】
歌唱合成部30は、既に説明した動作に従って、スコアデータ編集部20から受信した歌唱スコアデータに基づいて歌唱音声データを生成し、その歌唱音声データを再生することにより歌唱演奏を行う。
【0073】
[1.2.2.基準のパートデータに基づくタイミングの調整に関する動作]
一般的に歌唱合成装置は、複数の人の声による合唱演奏を行うこともできる。その場合の歌唱スコアデータは、歌唱演奏パートに対応するパートデータを複数含んでいる。合唱楽曲においては、複数の歌唱演奏パートの間で、音高のみが異なる演奏がよく行われる。これは合唱楽曲において、複数の声による和声が作られることが意図されるからである。
【0074】
合唱楽曲の歌唱スコアデータを編集する場合、複数のパートデータ間で発音期間に関するデータが共通していると、ユーザが発音期間に関し行う編集作業はそれらのパートデータのそれぞれに関して同じである。しかしながら、従来技術によれば、それらのパートデータは音高に関するデータが異なっているため、編集済みのパートデータの内容を、未編集のパートデータの内容に反映させることができなかった。従って、ユーザはあるパートデータに含まれるタイミングに関するデータを編集した後、全く同じ編集作業を、他のパートデータにおいて繰り返す必要があり、不便であった。
【0075】
このような不都合を解消するために、本実施形態には、編集済みのパートデータの発音期間を示すデータに基づき未編集のパートデータの発音期間を示すデータを自動的に修正する機能が設けられている。以下、その動作を説明する。
【0076】
スコアデータ編集部20の表示手段205は、既に述べたように、複数のパートデータを含む歌唱スコアデータに基づいて、複数のパートデータに含まれるノートデータを、異なる色で区別して同時にピアノロール表示することができる。図11は2つのパートデータに関し、表示手段205がピアノロール表示を行った場合の画面の例を示している。図11において、ノートバー401a〜fはパート1のパートデータ、ノートバー402a〜fはパート2のパートデータに対応している。
【0077】
図11に例示した歌唱スコアデータは、例えば外部装置によりユーザの実演奏に基づき作成されたものであり、ユーザが意図しない発音期間を示すデータを含んでいる。ここで、ユーザはパート1のパートデータに関しては、既に発音期間に関する情報の編集を行い、パート1に属する各歌唱音の発音期間はユーザが意図したものになっているものとする。また、パート2のパートデータに関しては、ユーザはまだ編集作業を行っていないものとする。このような場合、ユーザはパート1のパートデータの発音期間を示すデータを基準として、パート2のパートデータの発音期間を示すデータを変更することができる。
【0078】
まず、ユーザは基準としたいノートデータおよび発音期間の変更をしたいノートデータを全て、操作手段206を用いて選択する。例えば、ユーザは図11のピアノロール表示において、マウスを用いて選択したいと考えるノートバーを長方形で囲む操作を行う。その後、ユーザは、スコアデータ編集部20に対し、操作手段206を用いてタイミングの調整処理の実行を指示する。操作手段206は判定手段204に対し、ユーザにより選択されたノートデータを特定するデータと共に、タイミングの調整処理の実行を指示するデータを送信する。
【0079】
判定手段204は、操作手段206からユーザにより選択されたノートデータを特定するデータ等を受信すると、記憶手段203に記憶されている歌唱スコアデータから、ユーザにより選択されたノートデータの番号、発音期間に関するデータを読み出す。図12は、ユーザが図11のピアノロール表示において、ノートバー401b〜eおよびノートバー402b〜eを選択し、タイミングの調整処理の実行を指示した際に判定手段204により読み出されるデータの例を示している。
【0080】
続いて、判定手段204は、ユーザに基準とするパートデータの指定等を促すメッセージ窓を表示手段205に表示するよう指示する。図13は、判定手段204の指示により、表示手段205が表示するメッセージ窓の例を示している。図13における「基準とするパート」には、ユーザにより指定されたノートデータのいずれかを含む全てのパートデータの名称がリストアップされ、ユーザはリストアップされたパートデータの名称から、必ず1つを選択する必要がある。
【0081】
「感度」は、基準とするパートデータの発音期間の始期もしくは終期と、変更対象のパートデータの発音期間の始期もしくは終期とのズレの最大時間を、単位時間数にて示した値である。例えば、感度が150であり、基準となるノートデータの発音期間の始期が「0001:02:015」である場合、発音期間の始期が「0001:01:345」〜「0001:02:165」の範囲内であるノートデータが、変更の対象となる。
【0082】
「強さ」は、基準となる発音期間と、変更対象となる発音期間とのズレに対する、修正時間の比率をパーセントで示した値である。例えば、強さが100%であれば、変更対象の発音期間の始期もしくは終期は、基準となる発音期間の始期もしくは終期と完全に一致する。また、強さが70%であれば、変更対象となる発音期間の始期もしくは終期は、基準となる発音期間の始期もしくは終期との差の70%にあたる時間だけ、基準となる発音期間に近づけられる。
【0083】
「発音期間の始期を修正する」および「発音期間の終期を修正する」は、ユーザが変更を行うタイミングの種類を指示する項目である。
図13に示したメッセージ窓において、ユーザが「実行」を指示すると、判定手段204はユーザにより修正指示が行われたタイミングに関して、以下の判定処理を行う。例として、ユーザにより、基準とするパートとしてパート1が、感度として150が、強さとして70%が指定され、「発音期間の始期を修正する」および「発音期間の終期を修正する」の両方にチェックが付けられた場合につき説明する。
【0084】
判定手段204はまず、図12に示したデータの変更対象となるパートデータ、すなわちパート2に関する部分に対し、「基準−始期」および「基準−終期」という欄を追加する。続いて、判定手段204はパート2の発音期間の始期のそれぞれについて、基準となるパートデータ、すなわちパート1の発音期間の始期の中から最も近いものを検索する。
【0085】
判定手段204は検索したパート1の発音期間の始期から、パート2の発音期間の始期を減算し、その減算結果の絶対値が感度として指定された150以下であるか否かを判定する。判定手段204は減算結果の絶対値が150以下であると判定した場合、「基準−始期」の欄に、検索したパート1のノートデータの番号を基準となるノートデータの番号として書き込む。一方、判定手段204は減算結果の絶対値が150以下でないと判定した場合、そのパート2のノートデータに関しては、「基準−始期」の欄を空欄のままとする。
【0086】
判定手段204は上記の検索、判定および番号の書き込みの処理を、パート2の変更対象のノートデータの発音期間の始期の全てについて繰り返す。
【0087】
続いて、判定手段204はパート2のノートデータの発音期間の終期に関しても、上記の発音期間の始期に関する場合と同様に、検索、判定および番号の書き込みの処理を行う。その結果、判定手段204は図14に示すデータを生成する。判定手段204は生成したデータを、先にユーザにより指定された強さを示すデータ、すなわち「70%」と共に、調整手段208に送信する。
【0088】
調整手段208は判定手段204からデータを受信すると、まずパート2のノートデータの発音期間の始期のデータで、「基準−始期」の欄に番号が書き込まれているものに関し、「基準−始期」の欄の番号により指定されるパート1のノートデータにおける発音期間の始期から、パート2のノートデータの発音期間の始期を減算し、その減算結果に70%、すなわち0.70を乗ずる。
【0089】
続いて、調整手段208は乗算結果を、パート2のノートデータの発音期間の始期に加算する。調整手段208は、その加算結果で、記憶手段203に記憶されている歌唱スコアデータの、パート2のパートデータにおける、対応する番号のノートデータの発音期間の始期を書き換える。
【0090】
調整手段208は図14に示したデータの、パート2のノートデータの発音期間の始期に関し、全てのノートデータについて上記の減算、乗算、加算および歌唱スコアデータの書き換えの処理を行う。さらに、調整手段208は発音期間の終期に関しても、上記の発音期間の始期に関する場合と同様に、減算、乗算、加算および歌唱スコアデータの書き換えの処理を行う。
【0091】
上記の例においては、ユーザにより発音期間の始期と終期の両方が変更の対象として選択された場合につき説明したが、いずれか片方のみが選択された場合には、選択されなかったタイミングに関しては、単にタイミングの調整処理が行われない。
【0092】
また、上記の例においては、判定手段204は、変更対象のノートデータと基準となるノートデータとの対応付けを、発音期間の始期と終期のそれぞれに関し個別に行っている。しかしながら、例えば発音期間の始期と終期の両方が、基準となるタイミングから「感度」により指定された時間範囲に入る時にのみ、変更対象のノートデータと基準となるノートデータとの対応付けを行うなど、他の対応付けの方法が用いられてもよい。
【0093】
調整手段208により歌唱スコアデータが変更されると、表示手段205は変更後の歌唱スコアデータに基づいて、ピアノロール表示を行う。図15は図11のピアノロール表示に示された歌唱スコアデータに対し、パート1のパートデータを基準とするパート2のパートデータのタイミングの調整処理が行われた結果、表示手段205により表示される画面である。
【0094】
ユーザは上記のようにタイミングの調整処理を終えた後、歌唱スコアデータを歌唱合成部30に送信する指示を行う。その結果、既に説明したように、スコアデータ編集部20から歌唱合成部30に対し歌唱スコアデータが送信され、歌唱合成部30により歌唱演奏が行われる。
【0095】
[2.変形例]
上述した実施形態は、本発明の実施形態の例示であり、上記実施形態に対しては、本発明の主旨から逸脱しない範囲で様々な変形を加えることができる。
【0096】
例えば、スコアデータ編集装置により編集されたスコアデータが、歌唱合成装置に対してではなく、単声楽器の音を出力可能な音源装置に対して送信されてもよい。ただし、その場合には、スコアデータには発音記号に関するデータは含まれない。
【0097】
また、歌唱スコアデータの形式としては、例えばMIDI(Musical Instrument Digital Interface)規格に従ったデータ形式など、他のデータ形式が用いられてもよい。
【0098】
また、上述した実施形態においては、汎用的なコンピュータに、アプリケーションに従った処理を実行させることにより、歌唱合成システムを実現したが、同様の歌唱合成システムを専用のハードウェアにより構成してもよい。さらに、汎用的なコンピュータを用いる場合、専用のハードウェアを用いる場合のいずれにおいても、歌唱合成システムの構成要素は一つの筐体に配置される必要はない。例えば、歌唱合成システムの個々の構成要素が独立した装置を形成し、それらが互いにLAN等により接続されていてもよい。
【0099】
また、上述した実施形態において、発音期間に重なりを持つ2以上のノートデータ間の発音期間の変更処理は、ユーザが歌唱スコアデータの送信を指示した時点で行われていた。しかしながら、変更処理のタイミングは上記の実施形態におけるものに限られない。例えば、ユーザによりピアノロール表示におけるノートバーに対する操作が行われ、発音期間に関するデータの変更が行われる度に、重なりの判定処理が行われ、ユーザにより変更が行われた発音期間に関するデータが再変更されるようにしてもよい。その際、ユーザに対する確認作業を行わないようにすれば、いわゆる「吸着」と呼ばれる、近くにあるノートバーの端点に、編集中のノートバーの端点が自動的に一致される処理が行われることになる。
【0100】
また、上述した実施形態において、基準とするパートデータのノートデータと他のパートデータのノートデータの間における発音期間の変更処理は、ユーザがタイミングの調整処理を指示した時点で行われていた。しかしながら、これらの処理のタイミングは上記の実施形態におけるものに限られない。例えば、ユーザによりピアノロール表示におけるノートバーに対する操作が行われ、発音期間に関するデータの変更が行われる度に、基準として指定されたパートデータに含まれるノートデータの発音期間の始期もしくは終期と、ユーザにより変更されたノートデータの発音期間の始期もしくは終期との差が所定の期間以下であるか否かが判定され、ユーザにより変更されたノートデータの発音期間が再変更されるようにしてもよい。その際、ユーザに対する確認作業を行わないようにすれば、いわゆる「吸着」処理が行われることになる。
【0101】
【発明の効果】
以上示したように、本発明にかかるスコアデータ表示装置およびプログラムによれば、ユーザが歌唱もしくは単声楽器による演奏に関するスコアデータを編集する際に、誤って同時に複数音の発音を指示するデータ部分が生じてしまっても、ユーザは容易にそのデータ部分を確認することができ、歌唱合成装置もしくは単声楽器の音源装置に不自然な演奏を行わせるスコアデータが作成されることが防止される。
【0102】
また、本発明にかかるスコアデータ編集装置およびプログラムによれば、ユーザが歌唱もしくは単声楽器による演奏に関するスコアデータを編集する際に、ユーザは、スコアデータに含まれる、同時に複数音の発音を指示するデータ部分を、同時に1音の発音を指示するデータに容易に修正することができる。
【0103】
また、本発明にかかるスコアデータ編集装置およびプログラムによれば、ユーザはあるパートデータの発音期間に関するデータに基づき、他のパートデータの発音期間に関するデータを容易に修正することができ、発音期間に関するデータが同じもしくは類似する複数のパートデータを含むスコアデータの編集において、ユーザの作業が軽減される。
【図面の簡単な説明】
【図1】 本実施形態の歌唱合成システムを実現するコンピュータの構成を示すブロック図である。
【図2】 本実施形態の歌唱合成システムの機能を示すブロック図である。
【図3】 本実施形態の歌唱スコアデータの構成を示す図である。
【図4】 本実施形態の素片データベースの構成を示す図である。
【図5】 本実施形態の整形手段による整形が行われた後の歌唱スコアデータを示す図である。
【図6】 本実施形態のピアノロール表示の画面を示す図である。
【図7】 本実施形態のピアノロール表示の画面を示す図である。
【図8】 本実施形態の調整手段の指示により表示されるメッセージ窓を示す図である。
【図9】 本実施形態の調整手段が行う発音期間の調整の様子を示す図である。
【図10】 本実施形態のピアノロール表示の画面を示す図である。
【図11】 本実施形態のピアノロール表示の画面を示す図である。
【図12】 本実施形態の判定手段により読み出されるデータを示す図である。
【図13】 本実施形態の判定手段の指示により表示されるメッセージ窓を示す図である。
【図14】 本実施形態の判定手段により生成されるデータを示す図である。
【図15】 本実施形態のピアノロール表示の画面を示す図である。
【符号の説明】
1…コンピュータ、101…CPU、102…ROM、103…RAM、104…HD、105…表示部、106…操作部、107…データ入出力部、108…D/Aコンバータ、109…アンプ、110…スピーカ、115…バス、20…スコアデータ編集部、30…歌唱合成部、201・301…データ入力手段、202…整形手段、203・302…記憶手段、204…判定手段、205…表示手段、206・308…操作手段、207…編集手段、208…調整手段、209…データ出力手段、303…素片データベース、304…データ選択手段、305…音高調整手段、306…継続期間調整手段、307…音量調整手段、309…音声出力手段。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an apparatus for editing and displaying score data for automatic performance, and a program.
[0002]
[Prior art]
There is a technique for causing an automatic performance apparatus to perform automatic performance of music by using score data that is data indicating the pitch and sound generation period of a sound included in the music. There is also a device for editing score data for automatic performance.
[0003]
One method of displaying score data in the score data editing apparatus is called piano roll display. On the piano roll display screen, a bar-shaped figure corresponding to each sound indicated by the score data is arranged on a coordinate plane composed of an axis indicating pitch and an axis indicating time. The user can know the pitch and sound generation period of each sound from the position in the pitch axis direction of the bar-shaped figure and the position and length in the time axis direction.
[0004]
Furthermore, the data in the score data corresponding to the position and size of the figure can be changed by changing the position and size of the bar-shaped figure arranged on the piano roll display screen with a mouse or the like (for example, (See Patent Document 1).
[0005]
On the other hand, there is a technique in which singing is automatically performed by a singing synthesizer using singing score data including data on lyrics in addition to data on pitches and pronunciation periods (see, for example, Patent Document 2).
[0006]
[Patent Document 1]
JP-A-1-321484
[Patent Document 2]
JP 2002-202790 A
[0007]
[Problems to be solved by the invention]
By the way, as in the case of editing score data for automatic performance with instrument sounds, the score data editing device displays the pitch and pronunciation period of the sounds included in the singing score data by piano roll display etc. If the data relating to the pitch and the pronunciation period included in the singing score data can be edited by operating, the user's editing work becomes easy.
[0008]
However, in a singing performance, a single person does not emit a plurality of voices simultaneously, whereas many musical instruments can emit a plurality of sounds simultaneously. Therefore, if the score data editing device is used for editing the singing score data, the user may erroneously create singing score data instructing to utter a plurality of sounds simultaneously with the same person's voice. .
[0009]
If the synthesizer sings according to such singing score data, the singing performance becomes unnatural. In some cases, when the singing voice synthesizing apparatus finds an instruction to utter a plurality of sounds at the same time, the singing synthesizer performs processing such as uttering the subsequent sound after stopping the preceding sound. In such a case, the singing performance performed by the singing synthesizing apparatus may be different from what the user intended, which is inconvenient.
[0010]
In view of the above situation, the present invention prevents the user from creating score data that causes a plurality of sounds to be pronounced at the same time in displaying and editing score data for singing and monophonic instruments. The present invention provides an apparatus that can save a user's trouble by automatically correcting a data portion that has been created in error.
[0011]
[Means for Solving the Problems]
  In order to solve the problems described above, the present invention provides (1) pitch data indicating the pitch of the sound and (2) score data including a plurality of note data including at least the sounding period data indicating the sounding period of the sound. With respect to storage means for storing and two or more note data included in the score data,oneA first sound generation period indicated by first sound generation period data included in the note data;oneDetermining means for determining whether or not there is an overlapping portion between the second sound generation period indicated by the second sound generation period data included in other note data different from the note data ofThe sound indicated by the pitch data included in the note data for each of the note data included in the score data on the coordinates having the first axis indicating the pitch and the second axis indicating the passage of time. The position in the first axial direction corresponding to the height of the second axial direction corresponds to the position in the second axial direction corresponding to the beginning and end of the sounding period indicated by the sounding period data included in the note data, respectively. Display means for displaying a graphic as another end point, the display means,If it is determined by the determining means that there is an overlapping part,oneofShape corresponding to note dataAnd saidotherofNotedataCompatible withDoShapes, other shapesWhenDifferentRuDisplay by wayScore data characterized bydisplayProviding equipment.
[0012]
  Score data with this configurationdisplayAccording to the deviceEasy for usersData indicating simultaneous pronunciation of multiple sounds included in score data for singing or monophonic instrumentsPart can be confirmed.
[0013]
  Also, the score data according to the present inventiondisplayIn the apparatus, the adjusting means includes theWhen it is judged by the judging means that there is an overlapping partThe first pronunciation periodWhenThe second pronunciation period andThere is no overlap betweenThe first sound generation period data and the second sound generation period dataat leastIt may be configured to change one.
[0014]
  Score data with this configurationdisplayAccording to the apparatus, data indicating the simultaneous pronunciation of a plurality of sounds included in the score data for singing or for a monophonic instrument is provided.It is automatically corrected and the score data correction work by the user is reduced..
[0015]
  In the score data display device according to the aspect described above, the adjusting unit may determine the earlier of the end of the first sound generation period and the end of the second sound generation period as the start of the first sound generation period and One of the first sound generation period data and the second sound generation period data may be changed so as to coincide with a later one of the start periods of the second sound generation period. .
[0016]
  According to the score data display device having such a configuration,In many cases,Data indicating simultaneous pronunciation of multiple sounds included in score data for singing or monophonic instrumentsIs corrected to the contents intended by the user.
[0019]
  Furthermore, the present invention providesThe above score data display deviceA program for causing a computer to execute processing similar to that performed by the computer is provided.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
[1. Embodiment]
[1.1. Constitution]
FIG. 1 is a block diagram showing a configuration of a computer 1 that realizes a singing voice synthesis system according to an embodiment of the present invention. 1, a computer 1 includes a CPU (Central Processing Unit) 101, a ROM (Read Only Memory) 102, a RAM (Random Access Memory) 103, an HD (Hard Disk) 104, a display unit 105, an operation unit 106, and data input / output. A unit 107, a D / A (Digital to Analog) converter 108, an amplifier 109, and a speaker 110. Components other than the amplifier 109 and the speaker 110 are connected via a bus 115 and can transmit and receive data to and from each other.
[0021]
The CPU 101 is a microprocessor that performs general-purpose data processing. According to a control program such as BIOS (Basic Input / Output System) stored in the ROM 102 and an OS (Operating System) stored in the HD 104, the CPU 101 The control process of the component is performed.
[0022]
The ROM 102 is a non-volatile memory that stores a control program such as BIOS. The RAM 103 is a volatile memory for temporarily storing data used by the CPU 101 and other components. The BIOS in the ROM 102 is read by the CPU 101 and written in the RAM 103 when the computer 1 is turned on. The CPU 101 constructs a hardware usage environment according to the BIOS in the RAM 103.
[0023]
The HD 104 is a nonvolatile memory having a large capacity storage area, and data stored in the HD 104 can be rewritten. The HD 104 stores an OS, various applications, and data used by each application. The CPU 101 reads out the OS from the HD 104 and writes it into the RAM 103 after constructing the hardware environment using the BIOS, and performs processing such as construction of a GUI (Graphical User Interface) environment and an application execution environment according to the OS.
[0024]
Among the applications stored in the HD 104, there is a song synthesis application. When the CPU 101 receives a singing synthesis application execution instruction from the user through a mouse operation or the like, the CPU 101 reads out the singing synthesis application from the HD 104 and writes it into the RAM 103, and constructs an environment for performing various processes according to the singing synthesis application. Thus, the computer 1 functions as a singing voice synthesis system according to this embodiment.
[0025]
The display unit 105 includes a liquid crystal display and a drive circuit that drives the liquid crystal display under the control of the CPU 101, and displays information such as characters and graphics. The operation unit 106 includes a keypad, a mouse, and the like, and transmits data reflecting the contents of operations performed by the user to the CPU 101.
[0026]
The data input / output unit 107 is an interface capable of inputting / outputting various types of data, such as a USB (Universal Serial Bus) interface. The data input / output unit 107 receives data from an external device, transfers the received data to the CPU 101, and is generated by the CPU 101. Send data to an external device.
[0027]
The D / A converter 108 receives digital audio data from the CPU 101, converts it into an analog audio signal, and outputs it to the amplifier 109. The amplifier 109 amplifies this analog audio signal and outputs it from the speaker 110 as sound.
[0028]
FIG. 2 is a block diagram showing functions of the song synthesis system provided by the CPU 101 in accordance with the song synthesis application. The singing voice synthesis system includes a score data editing unit 20 and a singing voice synthesis unit 30. The score data editing unit 20 is a module that displays the singing score data to the user, edits it according to the user's operation, and delivers the edited singing score data to the singing synthesis unit 30. Here, the singing score data includes pitch data that specifies the pitches of the time-series singing sounds constituting the singing musical piece, pronunciation period data that specifies the pronunciation period, pronunciation symbols corresponding to the lyrics, and the like. The singing voice synthesizing unit 30 is a module that synthesizes singing voice data based on the singing score data.
[0029]
The score data editing unit 20 includes data input means 201, shaping means 202, storage means 203, determination means 204, display means 205, operation means 206, editing means 207, adjustment means 208, and data output means 209. Among these, the storage means 203 is the RAM 103 and the HD 104 of the computer 1. The other elements are software modules constituting the singing voice synthesis application.
[0030]
The song synthesizer 30 includes a data input unit 301, a storage unit 302, a segment database 303, a data selection unit 304, a pitch adjustment unit 305, a duration adjustment unit 306, a volume adjustment unit 307, an operation unit 308, and an audio output unit 309. It has. Of these, the segment database 303 and the storage means 302 are the RAM 103 or the HD 104 of the computer 1. The other elements are software modules constituting the singing voice synthesis application.
[0031]
In addition, in order to avoid duplication of description, the function of each component of the score data editing unit 20 and the singing voice synthesizing unit 30 will be described together in the operation description section of the present embodiment.
[0032]
[1.2. Operation]
The feature of the present invention resides in the score data editing unit 20. However, in order to understand the technical significance of the processing performed by the score data editing unit 20, the processing content of the singing synthesis unit 30 that performs singing synthesis using the output data of the score data editing unit 20 is understood. It is preferable to leave. Therefore, hereinafter, the operation of the singing voice synthesizing unit 30 will be described first, and then the operation of the score data editing unit 20 will be described.
[0033]
First, the data input means 301 of the song synthesis unit 30 receives song score data from the score data editing unit 20 and stores the received song score data in the storage means 302.
[0034]
FIG. 3 is a diagram showing the configuration of the singing score data. The singing score data includes one or more part data representing singing performance. In addition to the part data, the singing score data includes data indicating the time and tempo used in the performance, and data indicating the resolution. The singing score data shown in FIG. 3 includes three part data of parts 1 to 3, in which 4/4 time is set as the time, 120 is set as the tempo, and 480 is set as the resolution. The numerical value “120” regarding the tempo indicates that the music indicated by the singing score data is played at a tempo including 120 quarter notes per minute. The numerical value “480” regarding the resolution indicates that the time obtained by dividing one quarter note into 480 is used as the unit time in this singing score data.
[0035]
The part data includes a plurality of note data that is a set of data indicating a pitch, a pronunciation period, a pronunciation symbol, and a strength for each of a plurality of singing sounds constituting the part. In the part data, for example, note data are arranged in order from the earliest beginning of the sounding period, or in the order from the earliest end of the sounding period when the sounding period has the same beginning.
[0036]
In the present embodiment, the information related to the pronunciation period included in the singing score data is composed of information indicating the beginning of the pronunciation period and information indicating the end of the pronunciation period. It is expressed in the format of “+ unit time number”. For example, “0005: 03: 240” represents a timing at which a time of 240 unit times, that is, a time of 1/2 beat has elapsed from the timing of the third beat of the fifth measure. Note that the method of expressing the timing in the song score data is not limited to “measure number + beat number + unit time number”. Various expression methods such as a normal “hour + minute + second” format can be adopted. Moreover, you may employ | adopt the method of specifying the timing of subsequent data not by the absolute time from the reference | standard timing but by the relative time from preceding data.
[0037]
When the singing score data is stored in the storage unit 302 by the data input unit 301, the data selection unit 304 extracts the data necessary for generating the singing voice data of the singing sound designated by the singing score data. Processing to read from the database 303 is performed.
[0038]
FIG. 4 is a diagram showing the configuration of the segment database 303. The segment database 303 is divided into individual databases corresponding to each of a plurality of singers. In the example shown in FIG. 4, the segment database 303 includes individual databases 303a to 303c corresponding to three singers, respectively.
[0039]
The individual database corresponding to each singer includes a plurality of segment data collected from the singing voice waveform of the singer. The segment data is voice data obtained by extracting and encoding a phonetic feature from a singing voice waveform.
[0040]
Here, the case of singing the lyrics of “sai” with respect to the segment data will be described as an example. The lyrics “Saita” are expressed by phonetic symbols “saita”. When analyzing the waveform of the sound represented by the phonetic symbol “saita”, the rising portion of the sound of “s” → the sound of “s” → the transition portion from the sound of “s” to the sound of “a” → “ The sound of “a” is continued, and ends with the attenuation part of the sound of “a”. Each piece of data is audio data corresponding to these phonetic features.
[0041]
The segment database 303 includes speech data corresponding to the above phonetic features as segment data for all sounds and combinations of sounds. In the following description, segment data corresponding to a rising portion of a sound represented by a phonetic symbol is represented as “#s” by adding “#” in front of the phonetic symbol. The segment data corresponding to the sound attenuation part represented by a phonetic symbol is represented as “a #” by adding “#” after the phonetic symbol. Also, segment data corresponding to a transition portion from a sound represented by a certain phonetic symbol to a sound represented by another phonetic symbol is inserted between those phonetic symbols, and “sa” is entered. ". Thus, for example, “saita” is “#s” “s” “sa” “a” “ai” “i” “it” “t” “ta” “a” “a #” Is broken down into unit data units.
[0042]
The data selection means 304 includes, for example, the lyrics “saita” in the singing score data. When synthesizing the singing voice of the lyrics, “#s” “s” “s-a” is stored from the segment database 303. The piece data is read out in the order of “a”, “ai”, “i”, “it”, “t”, “ta”, “a”, and “a #”. The data selection unit 304 transmits the read segment data to the pitch adjustment unit 305 together with the singing score data.
[0043]
The pitch adjusting means 305 adjusts the pitch of the received segment data based on the data related to the pitch included in the singing score data. The pitch adjusting unit 305 transmits the segment data subjected to the pitch adjustment to the duration adjusting unit 306 together with the singing score data.
[0044]
The singing score data sent to the duration adjustment means 306 includes data for designating the sound generation period corresponding to the individual segment data. The duration adjustment unit 306 performs time adjustment of the sound generation period of each piece data so that the sound lasts for the period specified by this data. The duration adjustment unit 306 transmits the segment data that has been subjected to the time adjustment of the pronunciation period to the volume adjustment unit 307 together with the singing score data.
[0045]
The singing score data sent to the volume adjusting means 307 includes data relating to the sound intensity corresponding to each piece of piece data. The volume adjusting unit 307 adjusts the volume of each piece of data based on this data. Further, the volume adjustment unit 307 is arranged near the end of the segment data or at the beginning so that the last volume of the preceding data and the first volume of the subsequent data coincide with each other for each piece of segment data for which volume adjustment has been performed. Adjust the volume near you.
[0046]
The volume adjusting unit 307 connects the segment data whose volume has been adjusted in the order indicated by the singing score data, generates singing voice data, and stores the generated singing voice data in the storage unit 302.
[0047]
When the user gives a playback instruction to the singing voice synthesizing unit 30 using the operation unit 308, the voice output unit 309 reads the singing voice data from the storage unit 302 and outputs it to the D / A converter 108 in FIG. As a result, the user can listen to the singing performance indicated by the singing score data.
[0048]
In order to make the singing performance by the singing synthesizing unit 30 more natural, the segment database 303 has different tempos and pitches, accents, legatos, etc. regarding the characteristic portions of the sounds represented by the same phonetic symbols. It is also possible to store a plurality of different pieces of segment data corresponding to the musical expression and the like, and allow the data selection means 304 to read out the optimum data from these segment data.
[0049]
In the above description, the segment data used in the singing voice synthesizing unit 30 is speech data obtained by encoding a speech waveform, but the format of the segment data is not limited to this. For example, the unit database 303 stores, as segment data, a parameterized characteristic of frequency components of speech data obtained from speech waveforms, and the data selection unit 304 or the like is based on the parameters included in the segment data. Singing voice data may be generated by regenerating the voice data.
[0050]
Next, the operation of the score data editing unit 20 will be described. First, the data input unit 201 of the score data editing unit 20 receives singing score data from an external device or the like, and transmits the received singing score data to the shaping unit 202. The configuration of the singing score data that the data input means 201 receives from an external device or the like is the same as that shown in FIG.
[0051]
The shaping unit 202 rearranges the note data included in each part data of the singing score data in the order from the earliest beginning of the pronunciation period, or in the order from the earliest end of the pronunciation period when the pronunciation period is the same. Further, the shaping unit 202 adds items of number and overlap to the singing score data.
[0052]
FIG. 5 shows the singing score data after the item is added by the shaping means 202. In the number column, identification numbers of the respective note data are assigned according to a rule such as ascending order. In the overlap column, when there is a temporal overlap with the sound indicated by other note data, the number of the other party's note data having the overlap is written. The shaping unit 202 causes the storage unit 203 to store singing score data on which an item has been added.
[0053]
[1.2.1. Operation related to elimination of overlapping pronunciation periods]
When the singing score data is stored in the storage unit 203 according to the instruction of the shaping unit 202, the determining unit 204 includes a set of note data having overlapping pronunciation periods on the time axis for each part data of the singing score data. It is determined whether it is.
[0054]
For example, when it is determined that there is an overlap in the sound generation periods indicated by the note data A and the note data B belonging to the same part data, the determination unit 204 sets the number of the note data B in the overlap field of the note data A. The number of the note data A is written in the overlap column of the note data B. Note that the sound generation period indicated by a certain note data may overlap with the sound generation period indicated by other note data. In such a case, the numbers of the plurality of note data corresponding to the overlap column are displayed. Written. The singing score data shown in FIG. 5 does not include note data that overlaps with other note data in the pronunciation period, so the overlap column is blank for all note data.
[0055]
The display means 205 performs a piano roll display based on the singing score data. FIG. 6 is a piano roll display screen performed by the display means 205 based on the singing score data shown in FIG. In FIG. 6, each of the note bars 401a to 401f corresponds to note data. The vertical direction of the screen corresponds to the pitch of the sound, and the user can confirm the pitch of the note data indicated by each note bar by referring to the piano keyboard shown on the left side of the screen. The left-right direction of the screen corresponds to time, and the user can confirm the beginning of the sound generation period and the end of the sound generation period of the note data indicated by the note bar from the position of the left end and the right end of each note bar.
[0056]
In FIG. 6, the note bar is displayed only for the part data of part 1. The user can instruct part data to be displayed on the display unit 205 by performing a predetermined operation using the operation unit 206. When the user instructs display of a plurality of part data, the display unit 205 displays a note bar in a different color for each part data, for example.
[0057]
Further, the display means 205 displays, for example, a note bar corresponding to the sound in which the number of any note data is written in the overlap column, with a hatched line, so that any note data is displayed in the overlap column. Distinguishes from note bars corresponding to sounds for which no number is written. In addition, the method of distinguishing the note bar corresponding to the sound in which the number of the note data is written in the overlap column, that is, the sound having the overlap of the pronunciation period with the other sound, from the other sound is as follows: In addition to the hatching, various methods such as changing the color and line thickness and blinking the note bar can be applied.
[0058]
On the screen of the piano roll display, information such as the sound intensity and phonetic symbols included in the note data is usually displayed. In the example of FIG. 6, the note bar 401a is selected by the user's operation using the operation means 206, and the sound intensity and phonetic symbol of the note data corresponding to the selected note bar 401a at the lower left part of the screen, The name of the part data including the note bar 401a is shown. In addition, the note bar 401a selected by the user has a border displayed as a bold line.
[0059]
The user can instruct the score data editing unit 20 to change the pitch and the sound generation period of the note data corresponding to the note bar by operating the note bar in the piano roll display using the operation means 206. it can. For example, the user can instruct increase / decrease of data indicating the pitch of the note data corresponding to the selected note bar by pressing the up and down cursor keys after selecting the note bar with the mouse. Further, the user can instruct increase / decrease of data indicating the start or end of the sound generation period of the note data corresponding to the note bar by dragging the left end or the right end of the note bar with the mouse.
[0060]
The operation unit 206 transmits data related to the operation on the note bar by the user as described above to the editing unit 207, and the editing unit 207 changes the content of the singing score data based on the data related to the operation.
[0061]
When the data related to the start or end of the pronunciation period included in the singing score data is changed, the determination unit 204 performs the above-described determination process on the presence or absence of overlapping of the pronunciation periods for the singing score data after the change. In accordance with the result of the determination process, the determination unit 204 registers the number of the other party's note data in the overlap column for the two note data that have overlapped in the pronunciation period as a result of the change. For the two note data that have no overlap in the pronunciation period, the data in the overlap column is deleted. When the singing score data is changed by the editing unit 207 or the determining unit 204, the display unit 205 updates the piano roll display based on the changed singing score data.
[0062]
FIG. 7 shows a screen displayed by the display means 205 when the user operates the note bar 401c in the piano roll display shown in FIG. 6 and the start of the sounding period of the note data corresponding to the note bar 401c is advanced. An example is shown. As shown in FIG. 7, since the sound generation periods corresponding to the note bar 401b and the note bar 401c overlap each other, the note bar 401b and the note bar 401c are hatched. In this case, in the singing score data, the note data number corresponding to the note bar 401c is displayed in the note data overlap field corresponding to the note bar 401b, and the note data overlap field corresponding to the note bar 401c. The number of the note data corresponding to the note bar 401b is registered.
[0063]
When the user finishes editing the song score data, the user uses the operation means 206 to give an instruction to transmit the song score data to the song composition unit 30. The operation unit 206 transmits data related to the transmission instruction of the singing score data by the user to the adjustment unit 208. When receiving the data related to the transmission instruction, the adjusting unit 208 extracts one piece of note data included in the singing score data, and determines whether any number is written in the overlapped column of the extracted note data.
[0064]
If the adjustment unit 208 determines that any number is written in the overlap column in the determination process, the adjustment unit 208 instructs the display unit 205 to write the note data and the number written in the overlap column ( For note data corresponding to one of a plurality of numbers, an instruction is given to highlight the corresponding note bar. Further, the adjustment unit 208 instructs the display unit 205 to display a message window that prompts the user to instruct whether or not to perform timing adjustment processing on the two note data having overlapping pronunciation periods. . FIG. 8 shows an example of a message window displayed by the display unit 205 according to an instruction from the adjustment unit 208.
[0065]
When the user selects “Adjust with priority to later” in the message window shown in FIG. 8 and instructs “execute”, the adjustment means 208 relates to two note data having overlapping pronunciation periods ( As shown in a), the data related to the end of the sounding period of the preceding note data is changed so as to be the same as the start time of the sounding period of the later note data.
[0066]
When the user selects “adjust with priority from the start” in the message window shown in FIG. 8 and instructs “execute”, the adjustment means 208 relates to two note data having overlapping pronunciation periods ( As shown in b), the data related to the start of the sounding period of the subsequent note data is changed so as to be the same as the end of the sounding period of the preceding note data.
[0067]
If either “Adjust with Subsequent Priority” or “Adjust with Prior Priority” is selected and the start period of two note data with overlapping pronunciation periods is the same, When the end periods are the same as each other, the adjusting unit 208 changes the start period or the end period of the sound generation period, for example, as shown in (c) and (d) of FIG.
[0068]
It should be noted that the method of adjusting the sound generation period of two note data having overlapping sound generation periods is not limited to the above-mentioned prior priority or first priority. For example, the end of the sound generation period of the first note data may coincide with the start of the sound generation period of the subsequent note data at the timing at which the overlap of the sound generation periods is divided according to the ratio specified by the user. After changing the start or end of the sound generation period as described above, the adjustment means 208 deletes the number of the other note data whose overlap has been eliminated from the overlap field of the two note data.
[0069]
When the user selects “do nothing” in the message window shown in FIG. 8 and instructs “execute”, the adjustment means 208 starts and ends the sound generation periods of two note data having overlapping sound generation periods. A mark indicating that the user intentionally left an overlap, for example, “*” is added to the number in the overlap column without changing.
[0070]
The adjustment unit 208 repeats the adjustment process described above for all the note data included in the singing score data. When the user checks “Apply for all overlapping portions” in the message window of FIG. 8 and instructs “execute”, the adjusting unit 208 does not prompt the user to confirm each overlap, The above adjustment process is performed on the note data. As a result, singing score data is generated in which all the overlapping columns are blank or all the numbers in the overlapping column are marked with “*” indicating that the user intentionally left the overlapping.
[0071]
When the singing score data is changed by the adjusting unit 208, the display unit 205 performs piano roll display based on the singing score data after the change. FIG. 10 is a piano roll display screen displayed by the display unit 205 as a result of the adjustment unit 208 performing adjustment processing on the singing score data corresponding to the piano roll display shown in FIG. Subsequently, the adjusting unit 208 transmits the part obtained by removing the number and the overlap column from the singing score data to the singing synthesizing unit 30 via the data output unit 209.
[0072]
The singing voice synthesizing unit 30 performs singing performance by generating singing voice data based on the singing score data received from the score data editing unit 20 and reproducing the singing voice data in accordance with the operation described above.
[0073]
[1.2.2. Operation related to timing adjustment based on reference part data]
In general, a singing synthesizer can also perform a choral performance based on the voices of a plurality of people. The singing score data in that case includes a plurality of part data corresponding to the singing performance part. In choral music, performances that differ only in pitch are often performed among a plurality of singing performance parts. This is because it is intended that a chorus with a plurality of voices is created in the choral music.
[0074]
When editing the singing score data of the choral music, if the data related to the pronunciation period is common among the plurality of part data, the editing work performed by the user regarding the pronunciation period is the same for each of the part data. However, according to the prior art, since the data regarding the pitches of these part data are different, the contents of the edited part data cannot be reflected in the contents of the unedited part data. Therefore, it is inconvenient because the user needs to repeat the same editing operation for other part data after editing data related to timing included in a part data.
[0075]
In order to eliminate such inconvenience, the present embodiment is provided with a function for automatically correcting data indicating the pronunciation period of unedited part data based on data indicating the pronunciation period of edited part data. ing. Hereinafter, the operation will be described.
[0076]
As described above, the display unit 205 of the score data editing unit 20 distinguishes the note data included in the plurality of part data with different colors based on the singing score data including the plurality of part data, and simultaneously displays the piano roll. can do. FIG. 11 shows an example of a screen when the display unit 205 performs piano roll display for two part data. In FIG. 11, note bars 401 a to 401 f correspond to part 1 part data, and note bars 402 a to f correspond to part 2 part data.
[0077]
The singing score data illustrated in FIG. 11 is created based on the actual performance of the user by an external device, for example, and includes data indicating a pronunciation period that is not intended by the user. Here, regarding the part data of part 1, the user has already edited information related to the sound generation period, and it is assumed that the sound generation period of each singing sound belonging to part 1 is intended by the user. Further, it is assumed that the user has not yet edited the part data of part 2. In such a case, the user can change the data indicating the sound generation period of the part data of Part 2 with reference to the data indicating the sound generation period of the part data of Part 1.
[0078]
First, the user selects all the note data to be used as a reference and the note data to be changed in the pronunciation period using the operation means 206. For example, in the piano roll display of FIG. 11, the user performs an operation of surrounding a note bar to be selected using a mouse with a rectangle. Thereafter, the user instructs the score data editing unit 20 to execute timing adjustment processing using the operation unit 206. The operation unit 206 transmits data for instructing execution of the timing adjustment process to the determination unit 204 together with data for specifying the note data selected by the user.
[0079]
When the determination unit 204 receives data specifying the note data selected by the user from the operation unit 206, the determination unit 204 determines the number of the note data selected by the user, the pronunciation period from the singing score data stored in the storage unit 203. Read data about. FIG. 12 shows an example of data read by the determination unit 204 when the user selects the note bars 401b to e and note bars 402b to e in the piano roll display of FIG. 11 and instructs execution of timing adjustment processing. Show.
[0080]
Subsequently, the determination unit 204 instructs the display unit 205 to display a message window that prompts the user to designate part data as a reference. FIG. 13 shows an example of a message window displayed on the display unit 205 according to an instruction from the determination unit 204. In the “part as reference” in FIG. 13, names of all part data including any of the note data designated by the user are listed, and the user must always select one of the listed part data names. It is necessary to select.
[0081]
“Sensitivity” is a value indicating the maximum time of the difference between the start or end of the sound generation period of the reference part data and the start or end of the sound generation period of the part data to be changed, in unit time. For example, when the sensitivity is 150 and the start time of the sound generation period of the reference note data is “0001: 02: 015”, the start time of the sound generation period is “0001: 01: 345” to “0001: 02: 165”. Note data within the range is subject to change.
[0082]
The “strength” is a value indicating the ratio of the correction time to the deviation between the reference sound generation period and the sound generation period to be changed as a percentage. For example, if the strength is 100%, the start or end of the sound generation period to be changed completely coincides with the start or end of the reference sound generation period. If the strength is 70%, the start or end of the sound generation period to be changed is brought closer to the reference sound generation period by a time corresponding to 70% of the difference from the start or end of the reference sound generation period. .
[0083]
“Correct the beginning of the pronunciation period” and “Correct the end of the pronunciation period” are items for instructing the type of timing for the user to change.
When the user instructs “execute” in the message window shown in FIG. 13, the determination unit 204 performs the following determination process regarding the timing when the correction instruction is issued by the user. As an example, the user designates part 1 as a reference part, 150 as sensitivity, and 70% as strength, and both “correct the beginning of the pronunciation period” and “correct the end of the pronunciation period” The case where is checked will be described.
[0084]
First, the determination unit 204 adds the columns “reference-start” and “reference-end” to the part data to be changed shown in FIG. Subsequently, for each of the start periods of the part 2 sounding period, the determination unit 204 searches for the closest part data from among the reference part data, that is, the start period of the part 1 sounding period.
[0085]
The determination unit 204 subtracts the start period of the sound generation period of Part 2 from the start time of the sound period of Part 1 searched, and determines whether or not the absolute value of the subtraction result is 150 or less designated as the sensitivity. If the determination means 204 determines that the absolute value of the subtraction result is 150 or less, it writes the number of the searched note data of part 1 as the reference note data number in the “reference-start” column. On the other hand, when the determination unit 204 determines that the absolute value of the subtraction result is not 150 or less, the “reference-start” column is left blank for the note data of Part 2.
[0086]
The determination unit 204 repeats the above search, determination, and number writing processes for all the beginnings of the pronunciation periods of the note data to be changed in Part 2.
[0087]
Subsequently, the determination unit 204 performs the search, determination, and number writing processes for the end of the sound generation period of the part 2 note data as in the case of the start of the sound generation period. As a result, the determination unit 204 generates data shown in FIG. The determination unit 204 transmits the generated data to the adjustment unit 208 together with data indicating the strength previously specified by the user, that is, “70%”.
[0088]
When the adjustment unit 208 receives the data from the determination unit 204, the adjustment unit 208 first relates to the data at the beginning of the sound generation period of the note data of Part 2, in which the number is written in the “reference-start” column. The start period of the sound generation period of the note data of part 2 is subtracted from the start time of the sound generation period in the note data of part 1 specified by the number in the column of, and the subtraction result is multiplied by 70%, that is, 0.70.
[0089]
Subsequently, the adjusting unit 208 adds the multiplication result to the beginning of the sound generation period of the note data of Part 2. The adjustment means 208 rewrites the beginning of the pronunciation period of the note data of the corresponding number in the part data of the part 2 of the singing score data stored in the storage means 203 as a result of the addition.
[0090]
The adjustment means 208 performs the above-described subtraction, multiplication, addition, and rewriting of the singing score data for all the note data with respect to the beginning of the pronunciation period of the note data of Part 2 of the data shown in FIG. Further, the adjustment means 208 performs subtraction, multiplication, addition, and rewriting of the singing score data for the end of the sound generation period as in the case of the start of the sound generation period.
[0091]
In the above example, the case where both the start and the end of the pronunciation period are selected as the change target by the user has been described, but when only one of them is selected, regarding the timing not selected, The timing adjustment process is simply not performed.
[0092]
In the above example, the determination unit 204 associates the note data to be changed with the reference note data individually for each of the start period and the end period of the sound generation period. However, for example, only when both the start and end of the pronunciation period fall within the time range specified by “sensitivity” from the reference timing, the note data to be changed and the reference note data are associated with each other. Other association methods may be used.
[0093]
When the singing score data is changed by the adjusting unit 208, the display unit 205 performs piano roll display based on the singing score data after the change. FIG. 15 is displayed by the display unit 205 as a result of the adjustment processing of the timing of the part data of the part 2 based on the part data of the part 1 on the singing score data shown in the piano roll display of FIG. It is a screen.
[0094]
After finishing the timing adjustment process as described above, the user gives an instruction to transmit the song score data to the song composition unit 30. As a result, as already described, the singing score data is transmitted from the score data editing unit 20 to the singing synthesis unit 30, and the singing synthesis unit 30 performs the singing performance.
[0095]
[2. Modified example]
The above-described embodiment is an exemplification of the embodiment of the present invention, and various modifications can be made to the above-described embodiment without departing from the gist of the present invention.
[0096]
For example, score data edited by the score data editing device may be transmitted not to the singing synthesizer but to a sound source device capable of outputting a sound of a monophonic instrument. In this case, however, the score data does not include data related to phonetic symbols.
[0097]
As the format of the singing score data, other data formats such as a data format according to the MIDI (Musical Instrument Digital Interface) standard may be used.
[0098]
In the above-described embodiment, the singing synthesis system is realized by causing a general-purpose computer to execute processing according to the application. However, a similar singing synthesis system may be configured by dedicated hardware. . Furthermore, in the case of using a general-purpose computer or the case of using dedicated hardware, the constituent elements of the singing synthesis system do not need to be arranged in one casing. For example, the individual components of the singing voice synthesis system may form an independent device, and they may be connected to each other via a LAN or the like.
[0099]
In the above-described embodiment, the process of changing the pronunciation period between two or more note data that overlap in the pronunciation period is performed when the user instructs transmission of the singing score data. However, the timing of the change process is not limited to that in the above embodiment. For example, each time the user performs an operation on the note bar in the piano roll display and the data related to the sound generation period is changed, the overlap determination process is performed, and the data related to the sound generation period changed by the user is changed again. You may be made to do. At this time, if the confirmation work for the user is not performed, so-called “sucking” is performed, and the processing of automatically matching the end point of the note bar being edited with the end point of the nearby note bar is performed. become.
[0100]
In the above-described embodiment, the sound generation period changing process between the note data of the reference part data and the note data of other part data is performed when the user instructs the timing adjustment process. However, the timing of these processes is not limited to that in the above embodiment. For example, every time the user performs an operation on the note bar in the piano roll display and changes the data related to the pronunciation period, the beginning or end of the pronunciation period of the note data included in the part data specified as the reference, and the user It may be determined whether or not the difference between the start time or the end time of the sound generation period of the note data changed by the step is equal to or less than a predetermined period, and the sound generation period of the note data changed by the user may be changed again. . At this time, if the confirmation operation for the user is not performed, a so-called “adsorption” process is performed.
[0101]
【The invention's effect】
As described above, according to the score data display device and the program according to the present invention, when the user edits the score data related to the performance by the singing or the monophonic instrument, the data portion erroneously instructing the simultaneous sound generation simultaneously. Even if this occurs, the user can easily check the data portion, and it is possible to prevent the creation of score data that causes the singing synthesizer or the sound generator of the monophonic instrument to perform an unnatural performance. .
[0102]
Further, according to the score data editing apparatus and the program according to the present invention, when the user edits score data related to singing or playing with a monophonic instrument, the user instructs the pronunciation of a plurality of sounds simultaneously included in the score data. It is possible to easily correct the data portion to be changed to data for instructing the pronunciation of one sound at the same time.
[0103]
Further, according to the score data editing apparatus and program according to the present invention, the user can easily correct the data related to the pronunciation period of other part data based on the data related to the pronunciation period of certain part data. In editing score data including a plurality of part data having the same or similar data, the user's work is reduced.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of a computer that realizes a singing voice synthesis system according to an embodiment.
FIG. 2 is a block diagram illustrating functions of the singing voice synthesis system according to the present embodiment.
FIG. 3 is a diagram illustrating a configuration of song score data according to the present embodiment.
FIG. 4 is a diagram showing a configuration of a segment database according to the present embodiment.
FIG. 5 is a diagram showing singing score data after shaping by the shaping unit of the present embodiment.
FIG. 6 is a diagram showing a piano roll display screen of the present embodiment.
FIG. 7 is a diagram showing a piano roll display screen of the present embodiment.
FIG. 8 is a diagram showing a message window displayed in accordance with an instruction from the adjusting unit of the present embodiment.
FIG. 9 is a diagram showing how sound generation periods are adjusted by the adjusting means of the present embodiment.
FIG. 10 is a diagram showing a piano roll display screen of the present embodiment.
FIG. 11 is a diagram showing a piano roll display screen of the present embodiment.
FIG. 12 is a diagram illustrating data read by the determination unit of the present embodiment.
FIG. 13 is a diagram showing a message window displayed in accordance with an instruction from a determination unit according to the present embodiment.
FIG. 14 is a diagram illustrating data generated by the determination unit of the present embodiment.
FIG. 15 is a diagram showing a piano roll display screen of the present embodiment.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 1 ... Computer, 101 ... CPU, 102 ... ROM, 103 ... RAM, 104 ... HD, 105 ... Display part, 106 ... Operation part, 107 ... Data input / output part, 108 ... D / A converter, 109 ... Amplifier, 110 ... Speaker, 115 ... Bus, 20 ... Score data editing unit, 30 ... Singing synthesis unit, 201.301 ... Data input means, 202 ... Shaping means, 203.302 ... Storage means, 204 ... Determination means, 205 ... Display means, 206 308 ... operation means, 207 ... editing means, 208 ... adjustment means, 209 ... data output means, 303 ... segment database, 304 ... data selection means, 305 ... pitch adjustment means, 306 ... duration adjustment means, 307 ... Volume adjustment means, 309... Audio output means.

Claims (5)

(1)音の高さを示す音高データおよび(2)該音の発音期間を示す発音期間データを少なくとも含むノートデータを複数含むスコアデータを記憶する記憶手段と、
前記スコアデータに含まれる2以上のノートデータに関し、のノートデータに含まれる第1の発音期間データにより示される第1の発音期間と、前記のノートデータとは異なる他のノートデータに含まれる第2の発音期間データにより示される第2の発音期間との間に重複部分があるか否かを判定する判定手段と、
音の高さを示す第1の軸と時間の経過を示す第2の軸を有する座標上に、前記スコアデータに含まれるノートデータの各々について、該ノートデータに含まれる音高データが示す音の高さに対応する前記第1の軸方向の位置に、該ノートデータに含まれる発音期間データが示す発音期間の始期および終期に対応する前記第2の軸方向の位置をそれぞれの端点および他の端点とする図形を表示する表示手段と
を備え、
前記表示手段は、前記判定手段により重複部分があると判定された場合、前記のノートデータに対応する図形と、前記他のノートデータに対応する図形を、他の図形と異なる態様で表示する
ことを特徴とするスコアデータ表示装置。
Storage means for storing (1) pitch data indicating a pitch, and (2) score data including a plurality of note data including at least sound generation period data indicating a sound generation period;
Relates two or more note data included in the score data, contained in the first and sounding period, different from the note data from said one note data indicated by the first sound production period data included in one note data Determining means for determining whether or not there is an overlapping portion between the second sound generation period data indicated by the second sound generation period data;
The sound indicated by the pitch data included in the note data for each of the note data included in the score data on the coordinates having the first axis indicating the pitch and the second axis indicating the passage of time. of the position of the first axis direction corresponding to the height, said second position to one respective axial end points corresponding to the beginning and end of the sounding period indicated by the sound production period data included in the note data and And display means for displaying a figure as another end point,
The display means displays the graphic corresponding to the one note data and the graphic corresponding to the other note data in a different form from the other graphic when the determining means determines that there is an overlapping portion. A score data display device characterized by that.
前記判定手段により重複部分があると判定された場合、前記第1の発音期間と前記第2の発音期間との間に重複部分が無くなるように、前記第1の発音期間データおよび前記第2の発音期間データの少なくとも一方を変更する調整手段
を備えることを特徴とする請求項1に記載のスコアデータ表示装置。
When it is determined by the determining means that there is an overlapping portion, the first sounding period data and the second sounding period data and the second sounding period are set such that there is no overlapping portion between the first sounding period and the second sounding period. The score data display device according to claim 1, further comprising an adjusting unit that changes at least one of the pronunciation period data.
前記調整手段は、前記第1の発音期間の終期および前記第2の発音期間の終期のうち、より早い方を、前記第1の発音期間の始期および前記第2の発音期間の始期のうち、より遅い方と同時となるように、前記第1の発音期間データおよび前記第2の発音期間データのいずれか一方を変更する
ことを特徴とする請求項に記載のスコアデータ表示装置。
The adjusting means may determine the earlier of the end of the first sounding period and the end of the second sounding period, among the start of the first sounding period and the start of the second sounding period, The score data display device according to claim 2 , wherein one of the first sound generation period data and the second sound generation period data is changed so as to coincide with a later one.
(1)音の高さを示す音高データおよび(2)該音の発音期間を示す発音期間データを少なくとも含むノートデータを複数含むスコアデータを記憶する記憶処理と、
前記スコアデータに含まれる2以上のノートデータに関し、のノートデータに含まれる発音期間データにより示される第1の発音期間と、前記のノートデータとは異なる他のノートデータに含まれる第2の発音期間データにより示される第2の発音期間との間に重複部分があるか否かを判定する判定処理と、
音の高さを示す第1の軸と時間の経過を示す第2の軸を有する座標上に、前記スコアデータに含まれるノートデータの各々について、該ノートデータに含まれる音高データが示す音の高さに対応する前記第1の軸方向の位置に、該ノートデータに含まれる発音期間データが示す発音期間の始期および終期に対応する前記第2の軸方向の位置をそれぞれの端点および他の端点とする図形を表示する表示処理と
をコンピュータに実行させ、
前記表示処理においては、前記判定処理において重複部分があると判定された場合、前記のノートデータに対応する図形と、前記他のノートデータに対応する図形を、他の図形と異なる態様で表示する処理を
前記コンピュータに実行させることを特徴とするプログラム。
A storage process for storing (1) pitch data indicating a pitch and (2) score data including a plurality of note data including at least a pronunciation period data indicating a pronunciation period of the sound;
Relates two or more note data included in the score data, the second contained in other different note data and a first sounding period, and the one note data indicated by sounding period data included in one note data A determination process for determining whether or not there is an overlapping portion between the second sound generation period indicated by the sound generation period data;
The sound indicated by the pitch data included in the note data for each of the note data included in the score data on the coordinates having the first axis indicating the pitch and the second axis indicating the passage of time. of the position of the first axis direction corresponding to the height, said second position to one respective axial end points corresponding to the beginning and end of the sounding period indicated by the sound production period data included in the note data and Let the computer execute the display process to display the graphic with the other end point,
In the display process, when it is determined in the determination process that there is an overlapping portion, the graphic corresponding to the one note data and the graphic corresponding to the other note data are displayed in a different form from the other graphic. A program for causing a computer to execute a process to perform.
前記判定処理において重複部分があると判定された場合、前記第1の発音期間と前記第2の発音期間との間に重複部分が無くなるように、前記第1の発音期間データおよび前記第2の発音期間データの少なくとも一方を変更する調整処理
前記コンピュータに実行させることを特徴とする請求項4に記載のプログラム。
When it is determined in the determination process that there is an overlapping part, the first sounding period data and the second sounding period data and the second sounding period data are set such that there is no overlapping part between the first sounding period and the second sounding period. The program according to claim 4, wherein the computer is caused to execute adjustment processing for changing at least one of the pronunciation period data.
JP2003052059A 2003-02-27 2003-02-27 Score data editing device, score data display device, and program Expired - Lifetime JP3807380B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003052059A JP3807380B2 (en) 2003-02-27 2003-02-27 Score data editing device, score data display device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003052059A JP3807380B2 (en) 2003-02-27 2003-02-27 Score data editing device, score data display device, and program

Publications (2)

Publication Number Publication Date
JP2004258564A JP2004258564A (en) 2004-09-16
JP3807380B2 true JP3807380B2 (en) 2006-08-09

Family

ID=33117017

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003052059A Expired - Lifetime JP3807380B2 (en) 2003-02-27 2003-02-27 Score data editing device, score data display device, and program

Country Status (1)

Country Link
JP (1) JP3807380B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5217275B2 (en) * 2007-07-17 2013-06-19 ヤマハ株式会社 Apparatus and program for producing music
JP6372076B2 (en) * 2013-12-20 2018-08-15 ヤマハ株式会社 Music information display device, music information display method and program
CN111656434B (en) * 2018-02-14 2023-08-04 雅马哈株式会社 Sound parameter adjustment device, sound parameter adjustment method, and recording medium
JP7260312B2 (en) * 2019-02-01 2023-04-18 株式会社河合楽器製作所 Music data display program and music data display device
CN112652279A (en) * 2020-12-17 2021-04-13 广东爱乐社教育科技有限公司 Automatic electronic playing method, system, device, equipment and storage medium for music score
EP4303864A1 (en) * 2022-07-08 2024-01-10 Soundtrap AB Editing of audio files

Also Published As

Publication number Publication date
JP2004258564A (en) 2004-09-16

Similar Documents

Publication Publication Date Title
JP3823928B2 (en) Score data display device and program
EP3462443B1 (en) Singing voice edit assistant method and singing voice edit assistant device
JP5949607B2 (en) Speech synthesizer
JP6465136B2 (en) Electronic musical instrument, method, and program
JP5625321B2 (en) Speech synthesis apparatus and program
JP3807380B2 (en) Score data editing device, score data display device, and program
JP4456088B2 (en) Score data display device and program
JP5838563B2 (en) Electronic musical instruments and programs
JP2001042879A (en) Karaoke device
JP4221757B2 (en) Music score display apparatus and program for realizing music score display method
JP3709821B2 (en) Music information editing apparatus and music information editing program
JP2001013964A (en) Playing device and recording medium therefor
JP3173310B2 (en) Harmony generator
JP6583756B1 (en) Speech synthesis apparatus and speech synthesis method
CN117877459A (en) Recording medium, sound processing method, and sound processing system
JP3797180B2 (en) Music score display device and music score display program
JP3709820B2 (en) Music information editing apparatus and music information editing program
JP3931727B2 (en) Performance information editing apparatus and program
JP3797181B2 (en) Music score display device and music score display program
JP2006039326A (en) Automatic performance data characteristic changing device and program therefor
JP5509961B2 (en) Phrase data extraction device and program
JP2010186029A (en) Sound editing program, sound editing system, and sound editing method
JPH05333884A (en) Display device for karaoke device
JP2008276101A (en) Music piece reproduction system and device
JP2006038927A (en) Music score display device and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060508

R150 Certificate of patent or registration of utility model

Ref document number: 3807380

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100526

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110526

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130526

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140526

Year of fee payment: 8

EXPY Cancellation because of completion of term