JP2012083564A - 楽曲編集装置およびプログラム - Google Patents

楽曲編集装置およびプログラム Download PDF

Info

Publication number
JP2012083564A
JP2012083564A JP2010229845A JP2010229845A JP2012083564A JP 2012083564 A JP2012083564 A JP 2012083564A JP 2010229845 A JP2010229845 A JP 2010229845A JP 2010229845 A JP2010229845 A JP 2010229845A JP 2012083564 A JP2012083564 A JP 2012083564A
Authority
JP
Japan
Prior art keywords
note
attribute
notes
pitch
processing target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010229845A
Other languages
English (en)
Other versions
JP5589741B2 (ja
Inventor
Eiji Akazawa
英治 赤澤
Hidenori Kenmochi
秀紀 劔持
Kenichi Yamauchi
健一 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2010229845A priority Critical patent/JP5589741B2/ja
Publication of JP2012083564A publication Critical patent/JP2012083564A/ja
Application granted granted Critical
Publication of JP5589741B2 publication Critical patent/JP5589741B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】音符に対する音楽的な修飾を直感的な操作で入力することを可能にすること。
【解決手段】記憶手段11は、素片ライブラリと、文字列と、楽譜データとを記憶する。表示制御手段12は、音高を表す第1軸および時間を表す第2軸を有する座標系に従って、複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段13の画面に表示させる。表示手段13は、表示制御手段12の制御下で画像を表示する。位置検出手段14は、画面上の位置を検出する。属性変更手段15は、位置検出手段14により検出された位置の軌跡の始点が、音符列の各々に相当する領域内になかった場合、始点に応じた発音期間の始期を有する新たな音符を処理対象音符として、軌跡に応じて、処理対象音符の付加属性を記憶手段11に追加する。
【選択図】図1

Description

本発明は楽曲を示すデータを編集する技術に関する。
楽曲のデータを編集する種々の技術が知られている。特許文献1は、テキスト情報を解析してピッチを変化させる技術を開示している。特許文献2は、楽器の画像の上でマウスをドラッグするとビブラート等の特殊効果を音色に加えることを開示している。特許文献3は、正規化したビブラート波形にエンベロープ波形を乗算し、ビブラート波形として用いる技術を開示している。特許文献4は、ポインティング操作子のドラッグ操作に応じてパラメータ値をアサインする技術を開示している。
特開2005−250264号公報 特開平10−143155号公報 特開2001−318675号公報 特開2002−372972号公報
特許文献1〜4の技術によっても、音符に対する音楽的な修飾と直感的な操作で入力することは難しかった。
本発明は、音符に対する音楽的な修飾を直感的な操作で入力することを可能にする技術を提供する。
本発明は、複数の音符の各々について、当該音符の発音期間の始期、音高、音長、および当該音符に対する音楽的な修飾を示す付加属性を含む属性を記憶する属性記憶手段と、
音高を表す第1軸および時間を表す第2軸を有する座標系に従って、前記複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段の画面に表示させる表示制御手段と、前記画面上の位置を検出する位置検出手段と、前記位置検出手段により検出された位置の軌跡の始点が、前記複数の音符の各々に相当する領域内になかった場合、前記始点に応じた発音期間の始期を有する新たな音符を処理対象音符として、前記軌跡に応じて、前記処理対象音符の付加属性を前記属性記憶手段に追加する属性変更手段と、前記属性記憶手段に記憶されている属性を用いて、前記複数の音符に対応する楽曲データを生成するデータ生成手段とを有する楽曲編集装置を提供する。
また、本発明は、複数の音符の各々について、当該音符の発音期間の始期、音高、音長、および当該音符に対する音楽的な修飾を示す付加属性を含む属性を記憶する属性記憶手段と、音高を表す第1軸および時間を表す第2軸を有する座標系に従って、前記複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段の画面に表示させる表示制御手段と、前記画面上の位置を検出する位置検出手段と、前記位置検出手段により検出された位置の軌跡が、前記複数の音符のうち一の音符に対応する領域とあらかじめ決められた条件を満たした場合、前記軌跡に応じて、前記属性記憶手段に記憶されている前記一の音符の付加属性を変更する属性変更手段と、前記属性記憶手段に記憶されている属性を用いて、前記複数の音符に対応する楽曲データを生成するデータ生成手段とを有する楽曲編集装置を提供する。
好ましい態様において、前記付加属性は、それぞれ異なる音楽的修飾を示す複数のパラメータを含み、前記属性変更手段は、前記一の音符について、前記複数のパラメータの中から前記軌跡に応じて選択された一のパラメータの値を、前記軌跡に応じて変更してもよい。
さらに、本発明は、コンピュータを、複数の音符の各々について、当該音符の発音期間の始期、音高、音長、および当該音符に対する音楽的な修飾を示す付加属性を含む属性を記憶する属性記憶手段と、音高を表す第1軸および時間を表す第2軸を有する座標系に従って、前記複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段の画面に表示させる表示制御手段と、前記画面上の位置を検出する位置検出手段と、前記位置検出手段により検出された位置の軌跡の始点が、前記複数の音符の各々に相当する領域内になかった場合、前記始点に応じた発音期間の始期を有する新たな音符を処理対象音符として、前記軌跡に応じて、前記処理対象音符の付加属性を前記属性記憶手段に追加する属性変更手段と、前記属性記憶手段に記憶されている属性を用いて、前記複数の音符に対応する楽曲データを生成するデータ生成手段として機能させるためのプログラムを提供する。
さらに、本発明は、コンピュータを、複数の音符の各々について、当該音符の発音期間の始期、音高、音長、および当該音符に対する音楽的な修飾を示す付加属性を含む属性を記憶する属性記憶手段と、音高を表す第1軸および時間を表す第2軸を有する座標系に従って、前記複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段の画面に表示させる表示制御手段と、前記画面上の位置を検出する位置検出手段と、前記位置検出手段により検出された位置に応じて前記複数の音符の中から選択された一の音符を処理対象音符として、前記位置検出手段により検出された位置の軌跡に応じて、前記属性記憶手段に記憶されている前記処理対象音符の付加属性を変更する属性変更手段と、前記属性記憶手段に記憶されている属性を用いて、前記複数の音符に対応する楽曲データを生成するデータ生成手段として機能させるためのプログラムを提供する。
本発明によれば、音符に対する音楽的な修飾を一度の直感的な操作で入力することが可能になる。
一実施形態に係る音声合成装置1の機能構成を示すブロック図である。 素片ライブラリを例示する図である。 楽譜データを例示する図である。 音声合成装置1のハードウェア構成を示す図である。 音声合成装置1の外観を例示する図である。 音声合成アプリケーションが実行されているときの画面を例示する図である。 音声合成装置1の動作を示すフローチャートである。 新たな音符が追加された画面を例示する図である。 軌跡、特徴パラメータ、および処理対象付加属性の対応関係を例示する。 更新後の画面を例示する図である。 変形例1に係る画面を例示する図である。 変形例1に係る動作を示すフローチャートである。 ウインドウ213に表示される画像の変化を例示する図である。
1.構成
図1は、一実施形態に係る音声合成装置1の機能構成を示すブロック図である。音声合成装置1は、文字列および音符列を含む楽譜データに基づいて音声を合成し、合成された音声を出力する装置であり、楽曲編集装置の一例である。音声合成装置1は、大別すると、楽譜データを編集する機能と、楽譜データに基づいて音声を合成する機能とを有する。より詳細には、音声合成装置1は、記憶手段11と、表示制御手段12と、表示手段13と、位置検出手段14と、属性変更手段15と、音声合成手段16と、音声出力手段17とを有する。記憶手段11は、素片ライブラリと、歌詞(文字列)と、楽譜データとを記憶する。楽譜データは、複数の音符の各々について、その音符の発音期間の始期、音高、および音長、並びに文字列のうちその音符に割り当てられた文字を含む属性を有する。表示制御手段12は、音高を表す第1軸および時間を表す第2軸を有する座標系に従って、複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段13の画面に表示させる。表示手段13は、表示制御手段12の制御下で画像を表示する。位置検出手段14は、画面上の位置を検出する。属性変更手段15は、位置検出手段14により検出された位置の軌跡の始点が、音符列の各々に相当する領域内になかった場合、始点に応じた発音期間の始期を有する新たな音符を処理対象音符として、軌跡に応じて、処理対象音符の付加属性を記憶手段11に追加する。音声合成手段16(データ生成手段の一例)は、楽譜データに従って、素片ライブラリに含まれるデータを用いて音声を合成する。音声出力手段17は、合成された音声を出力する。この例で、付加属性は、それぞれ異なる音楽的修飾を示す複数のパラメータを含む。属性変更手段15は、処理対象音符について、複数のパラメータの中から軌跡に応じて選択された一のパラメータの値を、軌跡に応じて変更する。
図2は、素片ライブラリを例示する図である。素片ライブラリは、例えば人間の声からサンプリングした音楽素片(歌声の断片)を含むデータベースである。素片ライブラリは、複数の歌唱者の各々に対応した個人別データベースに分かれている。図2に示される例では、素片ライブラリはそれぞれ3人の歌唱者に対応する個人別データベース303a〜cを含んでいる。各歌唱者に対応した個人別データベース303には、その歌唱者の歌唱音声波形から採取された素片データが複数含まれている。素片データとは、歌唱音声波形から、音声学的な特徴部分を切り出して符号化した音声データである。
ここで、素片データについて、「さいた」という歌詞を歌唱する場合を例として説明する。「さいた」という歌詞は発音記号で「saita」と表される。発音記号「saita」で表される音声の波形を特徴により分析すると、「s」の音の立ち上がり部分→「s」の音→「s」の音から「a」の音への遷移部分→「a」の音・・・と続き、「a」の音の減衰部分で終わる。それぞれの素片データは、これらの音声学的な特徴部分に対応する音声データである。
以下の説明において、ある発音記号で表される音の立ち上がり部分に対応する素片データを、その発音記号の前に「#」を付けて、「#s」のように表す。また、ある発音記号で表される音の減衰部分に対応する素片データを、その発音記号の後に「#」を付けて、「a#」のように表す。また、ある発音記号で表される音から他の発音記号で表される音への遷移部分に対応する素片データを、それらの発音記号の間に「−」を入れて、「s−a」のように表す。素片ライブラリの素片データ群3030には、歌唱者が通常に歌唱した場合の歌唱音声波形から採取された、あらゆる音および音の組み合わせに関する素片データが格納されている。素片データ群3031H〜Lには、それぞれ、歌唱者が強いアクセント、中程度のアクセント、および弱いアクセントを付加して歌唱した場合の歌唱音声波形から採取された、あらゆる音および音の組み合わせに関する素片データが格納されている。素片データ群3032H〜Lには、それぞれ、歌唱者が強いレガート、中程度のレガート、および弱いレガートを付加して歌唱した場合の歌唱音声波形から採取された、あらゆる音および音の組み合わせに関する素片データが格納されている。
図3は、楽譜データを例示する図である。楽譜データには、歌唱演奏を表すパートデータが、1または複数含まれている。楽譜データには、このパートデータの他に、演奏で用いられる拍子およびテンポを示すデータ、および分解能を示すデータが含まれている。パートデータは、複数の音符のそれぞれにつき、基本属性および付加属性を示すデータの組であるノートデータを含んでいる。基本属性データは、音の発音を指示するにあたり不可欠な属性を示すデータであり、音高、発音期間(発音期間の始期および終期)、および発音記号を含んでいる。付加属性データは、音に対し表情付け等の指示、すなわち音楽的な修飾を与えるためのデータであり、この例では、音符と歌詞との対応関係、音の強さ、アクセントの強さ、レガートの強さ、ビブラートの強さ(深さ)、ビブラート期間を含んでいる。
次に、音声合成手段16による音声合成処理の概要を説明する。ここでは、楽譜データに含まれる「sakura」という発音記号列に対する処理を例として説明する。音声合成手段16は、発音記号列を素片データの単位に分解する。例えば、「sakura」は、「#s」、「s」、「s−a」、「a」、「a−k」、「k」、「k−u」、「u」、「u−r」、「r」、「r−a」、「a」、および「a#」に分解される。音声合成手段16は、分解された発音記号列のそれぞれに対応する素片データを、素片データ群3030から読み出す。音声合成手段16は、読み出した素片データに対し、各音符により示される音高に基づき、音高調整を行う。さらに音声合成手段16は、素片データに対し、付加属性データに応じた加工を施す。音声合成手段16は、音高調整を行った素片データに対し、音符列により示される発音期間に基づき、素片の継続時間の調整を施す。音声合成手段16は、継続時間の調整を行った素片データに対し、音量調節を行う。音声合成手段16は、音量調節を行った素片データを順番に接合し、合成音声データを生成する。音声合成手段16は、生成した合成音声データを、記憶手段11に記憶する。
ユーザが楽曲の再生指示を入力し、位置検出手段14がこれを取得すると、音声出力手段17は、記憶手段11に記憶されている合成音声データを読み出し、これに応じた音声を出力する。その結果、ユーザは楽譜データにより示される歌唱演奏を聴くことができる。
図4は、音声合成装置1のハードウェア構成を示す図である。この例で、音声合成装置1はコンピュータであり、CPU(Central Processing Unit)101と、ROM(Read Only Memory)102と、RAM(Random Access Memory)103と、記憶部104と、入力部105と、表示部106と、DAC(Digital Analog Converter)107と、アンプ108と、スピーカ109とを有する。CPU101は汎用的なデータ処理を行うマイクロプロセッサである。ROM102はBIOS(Basic Input/Output System)等の制御用プログラムを格納する不揮発性メモリである。RAM103はデータを記憶する揮発性メモリである。記憶部104は、不揮発性の記憶装置、例えばHDD(Hard Disk Drive)またはフラッシュメモリである。記憶部104は、OS(Operating System)、アプリケーションプログラム、および各種のデータを記憶する。CPU101は、BIOS、OS、またはアプリケーションプログラムに従い、音声合成装置1の他の構成部を制御する。
入力部105は、指示またはデータを入力するための装置である。表示部106は、液晶ディスプレイまたは有機EL(Electro-Luminescence)ディスプレイ等の表示装置と、表示装置を駆動する駆動回路とを有し、文字および図形等を表示する。この例で、入力部105と表示部106とを一体とした構成として、タッチパネル(タッチスクリーン)が用いられる。DAC107は、合成音声データ等の音声データを取得し、これをアナログ音声信号に変換する。DAC107は、アナログ音声信号をアンプ108に出力する。アンプ108は、アナログ音声信号を増幅し、スピーカ109に出力する。スピーカ109は、アナログ音声信号に応じた音波を出力する。
この例で、記憶部104は、コンピュータを音声合成装置として機能させるためのアプリケーションプログラム(以下このプログラムを「音声合成アプリケーション」という)を記憶している。CPU101がこの音声合成アプリケーションを実行することにより、音声合成装置1に図1に示される機能が実装される。音声合成アプリケーションを実行しているCPU101は、表示制御手段12、位置検出手段14、属性変更手段15、および音声合成手段16の一例である。ROM102、RAM103、または記憶部104は、記憶手段11の一例である。CPU101の制御下にある表示部106は、表示手段13の一例である。CPU101の制御下にあるDAC107、アンプ108、およびスピーカ109は、音声出力手段17の一例である。
図5は、音声合成装置1の外観を例示する図である。この例で、音声合成装置1はタッチパネル式の情報表示装置であり、筐体110と、タッチパネル111とを有する。筐体110にはスピーカ109およびタッチパネル111が設けられている。タッチパネル111は、表示装置の画面上に光透過性のタッチセンサが積層された構造を有している。ユーザは、表示されている画像を見ながらタッチパネル111に指を触れたり、タッチパネル111上を指でなぞったりすることにより、音声合成装置1に対して指示を入力する。すなわち、タッチパネル111は、入力部105と表示部106とを一体としたものである。
2.動作
図6は、音声合成アプリケーションが実行されているときの画面を例示する図である。この画面は、入力ボックス201、ウインドウ202、ガイド図形203、ノート図形204、ノート図形205、ノート図形206、ノート図形207、ノート図形208、再生ボタン209、および停止ボタン210を含む。入力ボックス201は、歌詞を入力および表示するための領域である。この例では、「あさがくるひるがくるよるがくる」という文字列が歌詞として入力されている。ウインドウ202は、音高を表す第1軸(この例では縦軸)および時間を表す第2軸(横軸)を有する座標系に従って、音符列を入力および表示するための領域である。音高軸は、図6において上向きが正方向(音が高くなる)である。時間軸は、図6において右向きが正方向(時間が後になる)である。ガイド図形203は、音高を示す図形であり、ウインドウ202の音高軸に沿って表示される。この例では、ガイド図形203としてピアノの鍵盤を模した図形が用いられる。このことから、ウインドウ202を用いた音符列の表示を「ピアノロール表示」という。ガイド図形203は、音高を特定する画像(この例では、「C3」および「C4」という文字)を含む。ノート図形204−208は、音符列を構成する各音符を示す図形である。この例でノート図形204−208は、長方形の形状を有しており、左端が発音期間の始期を、右端が発音器官の終期を示している。ノート図形204−208の縦方向の位置は音高を示している。ノート図形204−208の内部には、その音符に割り当てられた文字(歌詞の一部)が表示されている。この例で、ノート図形204−208が示す音符には、それぞれ、「あ」、「さ」、「が」、「く」、および「る」という文字が割り当てられている。再生ボタン209は、ピアノロール表示されている楽曲の再生を指示するためのボタンである。停止ボタン210は、楽曲の再生を停止するためのボタンである。
図7は、音声合成装置1の動作を示すフローチャートである。図7のフローは、例えば、音声合成アプリケーションの起動がユーザにより指示されたことを契機として開始する。音声合成アプリケーションが起動されると、図6に例示した画面が表示される。ステップS100において、CPU101は、ウインドウ202内においてタッチを検出したか判断する。詳細には以下のとおりである。タッチパネル111は、ユーザがタッチした位置を示す信号をCPU101に出力する。CPU101は、タッチパネル111から出力された信号が示す位置が、ウインドウ202内に相当する位置であるか判断する。タッチを検出していないと判断された場合(S100:NO)、CPU101は、タッチを検出するまで待機する。タッチを検出したと判断された場合(S100:YES)、CPU101は、処理をステップS110に移行する。
ステップS110において、CPU101は、処理対象となる一の音符(以下「処理対象音符」という)を特定する。処理対象音符は、楽譜データに含まれる音符列(入力済みの音符)の中から選ばれた一の音符であるか、または楽譜データに含まれていない新たな音符である。処理対象音符の特定は、例えば以下のように行われる。CPU101は、タッチされた位置が、ウインドウ202に表示されているノート図形のいずれかに相当する位置(すなわちノート図形に重なる位置)であった場合、CPU101は、そのノート図形が示す音符を処理対象音符として特定する。例えば、図6の画面でノート図形205をユーザがタッチした場合、CPU101は、ノート図形205が示す音符(歌詞「さ」が割り当てられている)を処理対象音符として特定する。タッチされた位置が、ウインドウ202に表示されているノート図形のいずれかにも相当しない位置であった場合、CPU101は、新たな音符を処理対象音符として特定する。この場合、CPU101は、新たな音符の属性を示すデータを生成し、RAM103に記憶する。新たな音符の属性は、決められた初期値に設定される。
図8は、新たな音符が追加された画面を例示する図である。図8には、ユーザが、時間軸においてノート図形204およびノート図形205の間に位置し、音高軸において「D3」に相当する位置を指Fでタッチした例が示されている。このときCPU101は、新たな音符を示すノート図形211を、ウインドウ202内においてユーザがタッチしている位置に応じた位置に表示する。CPU101は、タッチされた位置を、新たな音符の発音期間の始期として設定する。新たな音符のノート図形の時間軸方向の幅は、決められた初期値(例えば四分音符)に設定される。処理対象音符として新たな音符が追加されると、CPU101は、処理対象音符に対して歌詞を割り当てる。詳細には、まず、CPU101は、処理対象音符の時間軸上の位置、特に他の音符との前後関係に基づいて、処理対象音符の順番を特定する。図8の例では、処理対象音符の位置がノート図形204およびノート図形205の間に指定されているので、CPU101は、処理対象音符が第2音であると特定する。次に、CPU101は、特定された順番に基づいて、処理対象音符に割り当てるべき文字を決定する。この例で、処理対象音符は第2音なので、CPU101は、歌詞「あさがくるひるがくるよるがくる」のうち2文字目「さ」を処理対象音符に割り当てる。さらに、CPU101は、新たな文字の割り当てに伴って、他の音符への文字の割り当てを変更する。処理対象音符が第2音になったので、従前の第2音は第3音となり、以下順番が1つずつ繰り下がる。この例では、ノート図形205が示す音に割り当てられる文字が「さ」から「が」に変更される。他の音符についても同様である。CPU101は、この変更後の、音符と歌詞との対応関係を示すデータをRAM103に記憶する。
再び図7を参照する。ステップS120において、CPU101は、ユーザがタッチした位置の軌跡を記録する。詳細には以下のとおりである。CPU101は、決められた時間間隔で、タッチパネル111からタッチ位置を示す座標を取得する。CPU101は、取得した座標を、RAM103内の記憶領域に順番に書き込む。
ステップS130において、CPU101は、ウインドウ202内におけるタッチが検出されなくなったか(すなわちタッチ非検出状態になったか)判断する。ユーザがタッチパネル111をタッチしていないとき、タッチパネル111は、タッチされていないことを示す信号をCPU101に出力する。タッチが検出された場合(すなわち、ステップS100でタッチが検出されてから継続してタッチが検出された場合)(S130:NO)、CPU101は、処理を再びステップS120に移行する。すなわち、ステップS100でタッチが検出されてから継続してタッチが検出され続けている間、CPU101は、軌跡を記録し続ける。タッチが検出されなかった場合(S130:YES)、CPU101は、処理をステップS140に移行する。
タッチが検出されている間、CPU101は、軌跡に応じて処理対象音符のノート画像を変化させる。図8の例で、ユーザが指Fをタッチパネル111にタッチしたまま時間軸正方向に移動させる(いわゆる「ドラッグ」する)と、CPU101は、処理対象音符の発音期間の始期を固定したまま、終期を後に変更する。すなわち、ノート図形211の左端は固定したまま右端を時間軸正方向に移動させる(すなわち、ノート図形211を時間軸正方向に伸ばす)。この間、CPU101は、処理対象音符の発音期間の終期を示すデータをRAM103に書き込み、更新し続ける。既に入力済みの音符が処理対象音符である場合、CPU101は、タッチを検出していない状態(以下「非タッチ状態」という)から最初にタッチを検出したときにはノート図形は変化させず、タッチを検出してからドラッグを検出したときに、軌跡に応じて発音期間の終期を変更する。
ステップS140において、CPU101は、記録されている軌跡に基づいて処理対象となるパラメータすなわち楽譜データにおける付加属性を決定する。詳細には以下のとおりである。この例では、処理対象となる付加属性は、音の強さ、またはビブラートの強さである。CPU101は、RAM103に記録されている軌跡から、この軌跡の特徴を示すパラメータ(以下「特徴パラメータ」という)を抽出する。この例では、始点の座標、終点の座標、極値の数、および振幅(極値のうち最大値と最少値との差)が、特徴パラメータとして抽出される。記憶部104は、特徴パラメータが満たすべき条件と付加属性とを対応させる情報を記憶している。この情報は、例えば以下の内容を示す。
(1)極値の数がしきい値(例えば4つ)以上であった場合、処理対象となる付加属性はビブラートの強さである。
(2)極値の数がしきい値未満であり、かつ、始点の音高と終点の音高との差がしきい値以上であった場合、処理対象となる付加属性は、音の強さである。
CPU101は、これらの条件をRAM103に記録されている軌跡に適用して、処理対象となる付加属性を決定する。軌跡がどの条件も満たさなかった場合、CPU101は、処理対象となる付加属性は無いと判断する。別の例で、軌跡がどの条件も満たさなかった場合、CPU101は、決められた(デフォルトの)付加属性を処理の対象とすることを決定してもよい。デフォルトの付加属性は、例えば、ユーザにより設定される。この場合、後述する付加属性の値の決定の際には、決められた値が用いられる。例えば、軌跡がどの条件も満たさなかった場合、CPU101は、ビブラートの強さおよび早さを決められた値に決定する。
図9は、軌跡、特徴パラメータ、および処理対象付加属性の対応関係を例示する図である。実際には軌跡として記録されるデータは点の集合であるが、ここでは分かりやすくするため線で示している。図9上段の例では、何度か上下する波のような軌跡が示されている。この軌跡から、5つの極値および振幅が特徴パラメータとして抽出される。極値の数がしきい値以上であるので、ビブラートの強さが処理対象の付加属性として決定される。図9下段の例では、右上がりの軌跡が示されている。この軌跡から極値は抽出されず、始点および終点の座標が特徴パラメータとして抽出される。始点の音高と終点の音高との差がしきい値以上であった場合、音の強さが処理対象の付加属性として決定される。
再び図7を参照する。ステップS150において、CPU101は、記録されている軌跡に基づいて処理対象のパラメータすなわち付加属性の値を決定する。詳細には以下のとおりである。この例では、記憶部104は、付加属性と、その値を決定する方法とを対応させる情報を記憶している。この情報は、例えば以下の内容を示す。
(1)ビブラートの強さが処理対象である場合、軌跡から特徴パラメータとして抽出された振幅に応じて、ビブラートの強さをL、M、またはHに決定する(振幅が小さい場合はL、大きい場合はH)。ビブラートの早さおよび始期は、決められた初期値が用いられる。
(2)音の強さが処理対象の場合、始点の音高と終点の音高との差に応じて、音の強さを決定する。なお図3の例では、単一の音について音の強さが一定であるデータが例示されているが、単一の音について音の強さは変化してもよい。図3にはそのような音は示されていないが、決められた書式に従って音の強さが記述される。
CPU101は、これらの条件を処理対象の軌跡に適用して、処理対象の付加属性の値を決定する。
ステップS160において、CPU101は、ステップS140およびS150の結果に応じて、記憶部104に記憶されている楽譜データを書き替える。また、CPU101は、RAM103に記憶されている発音期間の終期の値を、記憶部104に記憶されている楽譜データに書き込む。さらに、CPU101は、書き替えた楽譜データに応じて、ピアノロール表示を更新する。
図10は、更新後の画面を例示する図である。図10は、図8で追加された新たな音符に対してビブラートが付加された例を示している。この例では、ノート図形211内に、ビブラートが付加されていることを示す記号が表示されている。この例では、ウインドウ202において非タッチ状態から最初にタッチが検出されたとき、CPU101は、タッチされた場所に応じて、処理対象音符を決定する。具体的には、ノート図形がタッチされた場合にはそのノート図形が示す音符が処理対象音符になり、ノート図形が無い場所がタッチされた場合には新たな音符が処理対象音符になる。これらいずれの場合でも、最初にタッチが検出されてから、非タッチ状態を経由せずそのままドラッグにより描かれた軌跡により、変更される付加属性およびその値が決定される。このように、音声合成装置1によれば、タッチパネル111をタッチして一連の軌跡を描く直感的な操作により、音符の長さとそれに対する音楽的な修飾とを入力することができる。
3.他の実施形態
本発明は上述の実施形態に限定されるものではなく、種々の変形実施が可能である。以下、変形例をいくつか説明する。以下の変形例のうち2つ以上のものが組み合わせて用いられてもよい。
3−1.変形例1
図11は、変形例1に係る画面を例示する図である。この画面は、図6に示した画面の要素に加えて、さらにウインドウ212およびウインドウ213を有する。ウインドウ212は、現時点での動作モードを示す画像を表示する領域である。この例で、音声合成装置1は、入力モードおよび編集モードを含む複数の動作モードで動作する。入力モードは、新たに音符を入力するための動作モードである。編集モードは、既に入力済みの音符の属性を変更するための動作モードである。編集モードは、さらにビブラート編集モードとダイナミクス編集モードとに分けられる。ビブラート編集モードは、ビブラートに関する付加属性を変更するための編集モードである。ダイナミクス編集モードは、音の強さに関する付加属性を変更するための編集モードである。
ウインドウ213は、動作モードに応じて、処理対象の付加属性を示す画像を表示する領域である。例えば、動作モードがビブラート編集モードであった場合、ウインドウ213には、ビブラートの強さ、速さ、ビブラートの始期および終期を表す画像が表示される。この画像は、例えば、音高を縦軸とし時間を横軸とする座標系において表される棒グラフの画像である。別の例で、動作モードがダイナミクス編集モードであった場合、ウインドウ213には、音の強さの時間変化を表す画像が表示される。この画像は、例えば、音の強さを縦軸とし時間を横軸とする座標系において表される棒グラフの画像である。
図12は、音声合成装置1の変形例1に係る動作を示すフローチャートである。ステップS200において、CPU101は、モード変更の指示が入力されたか判断する。モード変更の指示が入力されたと判断した場合(S200:YES)、CPU101は、処理をステップS210に移行する。モード変更の指示が入力されていないと判断した場合(S200:NO)、CPU101は、モード変更の指示が入力されるまで待機する。モード変更の指示は、ユーザによるタッチパネル111の操作を介して入力される。この例で、CPU101は、ウインドウ212に相当する位置においてタッチを検出しない状態から、ウインドウ212に相当する位置においてタッチを検出する状態に変わった場合に、モード変更の指示が入力されたと判断する。
ステップS210において、CPU101は、動作モードを切り替える。この例では、ユーザがウインドウ212をタッチするたびに、動作モードが、入力モード、ビブラート編集モード、およびダイナミクス編集モードの順番で切り替わり、ダイナミクス編集モードの次は再び入力モードに切り替わる。例えば、入力モードの状態においてモード変更の指示が入力された場合、CPU101は、動作モードを入力モードからビブラート編集モードに切り替える。
ステップS220において、CPU101は、現時点の動作モードが編集モードであるか判断する。RAM103は現時点の動作モードを示す識別子を記憶しており、CPU101は、動作モードを切り替えるたびにこの情報を書き替える。CPU101は、RAM103を参照して、現時点の動作モードが編集モードであるか判断する。現時点の動作モードが編集モードであると判断された場合(S220:NO)、CPU101は、処理をステップS230に移行する。現時点の動作モードが編集モードでないと判断された場合(S220:YES)、CPU101は、処理をステップS200に移行する。
ステップS230の処理は、図7のステップS100の処理と同様である。ステップS240において、CPU101は、処理対象音符を特定する。CPU101は、タッチされた位置が、ウインドウ202に表示されているノート図形のいずれかに相当する位置であった場合、CPU101は、そのノート図形が示す音符を処理対象音符として特定する。例えば、図11の画面でノート図形205をユーザがタッチした場合、CPU101は、ノート図形205が示す音符(歌詞「さ」が割り当てられている)を処理対象音符として特定する。
ステップS250において、CPU101は、ウインドウ213に相当する位置でタッチを検出したか判断する。ウインドウ213に相当する位置でタッチを検出した場合(S250:YES)、CPU101は、処理をステップS260に移行する。ウインドウ213に相当する位置でタッチを検出しなかった場合(S250:NO)、CPU101は、タッチを検出するまで待機する。
ステップS260において、CPU101は、ユーザがタッチした位置の軌跡を記録する。タッチが検出されている間、CPU101は、ウインドウ213に表示される画像を、軌跡に応じて変化させる。
図13は、ウインドウ213に表示される画像の変化を例示する図である。ウインドウ213に相当する位置のタッチが検出される前は、ウインドウ213には、処理対象付加属性の現状(変更されていない場合は決められた初期値)を示す画像を表示する。ウインドウ213において、横軸は規格化された時間を示す。例えば処理対象音符が四分音符である場合、ウインドウ213の左端が時間ゼロを、右端が四分音符に相当する時間を示す。別の例で処理対象音符が二分音符である場合、ウインドウ213の左端が時間ゼロを、右端が二分音符に相当する時間を示す。ウインドウ213においてタッチを検出すると、CPU101は、軌跡に応じて棒グラフの高さを変化させる。図13(A)は、ウインドウ213の左端付近から中央付近まで、矢印線に沿った軌跡が検出された場合を例示している。この場合、タッチが検出された位置においては、棒グラフの高さが軌跡に沿って変化している。図13(B)は、図13(A)の状態からさらにウインドウ213の右端付近まで、矢印線に沿った軌跡が検出された場合を例示している。
再び図12を参照する。ステップS270において、CPU101は、ウインドウ213内におけるタッチが検出されなくなったか(すなわちタッチ非検出状態になったか)判断する。タッチが検出された場合(すなわち、ステップS250でタッチが検出されてから継続してタッチが検出された場合)(S270:NO)、CPU101は、処理を再びステップS260に移行する。すなわち、ステップS250でタッチが検出されてから継続してタッチが検出され続けている間、CPU101は、軌跡を記録し続ける。タッチが検出されなかった場合(S270:YES)、CPU101は、処理をステップS280に移行する。
ステップS280において、CPU101は、付加属性(パラメータ)の値を決定する。付加属性の種類は、動作モードによって決められている。例えば、ビブラート編集モードにおいて図13(B)のような軌跡が検出された場合、CPU101は、軌跡に応じてビブラートの強さ、速さ、および始期を決定する。
ステップS290における処理は、ステップS160の処理と同様である。
以上で説明したように、変形例1では、属性変更手段15は、位置検出手段14により検出された位置に応じて音符列の中から選択された一の音符を処理対象音符として、位置検出手段14により検出された位置の軌跡に応じて、記憶手段11に記憶されている処理対象音符の付加属性を変更する。変形例1では、タッチまたはドラッグにより、3種類の指示が入力される。第1の指示は、モードの変更の指示(ステップS200およびS210)である。第2の指示は、処理対象音符を指定する指示(ステップS230およびS240)である。第3の指示は、パラメータの値の指示(ステップS250−S280)である。第1の指示と第2の指示の間、および第2の指示と第3の指示の間において、非タッチ状態を経由する。上述の実施形態と比較すると、操作の回数は増えるが、それぞれの指示を切り分けているため、誤操作を低減することができる。また、、ユーザは、ノート画像よりも大きいウインドウにおいて、すなわち、よりよい精度で、付加属性の変化を直感的に入力することができる。
3−2.変形例2
軌跡に応じて変化されるパラメータは、実施形態で説明したものに限定されない。例えば、以下のパラメータが変更されてもよい(実施形態で説明したものも再度記載する)。
(1)ビブラート
上下動を繰り返す軌跡の場合には、ビブラートに関連する付加属性を変更する。別の例で、タッチパネル111がタッチされている面積を取得可能な構成を有している場合、強くタッチされているとき(タッチされている面積が広いとき)はビブラートを強くし、弱くタッチされているとき(タッチされている面積が広いとき)はビブラートを弱くする。さらに別の例で、強くタッチされているときはビブラートを速くし、弱くタッチされているときはビブラートを遅くする。
(2)音の強さ
右上がりの軌跡の場合は音をだんだん強くし、右下がりの軌跡の場合は音を段々弱くする(一音の範囲で音の強さが時間的に変化する)。あるいは、右上がりの軌跡の場合は従前より音を強くし、右下がりの軌跡の場合は従前より音を弱くする(一音の範囲で音の強さが時間的に変化しない)。さらに別の例で、タッチパネル111がタッチされている面積を取得可能な構成を有している場合、強くタッチされているときは音を強くし、弱くタッチされているときは音を弱くする。
(3)ピッチ
右上がりの軌跡の場合はピッチをだんだん高くし、右下がりの軌跡の場合はピッチを段々低くする(一音の範囲でピッチが時間的に変化する)。あるいは、右上がりの軌跡の場合は従前よりピッチを高くし、右下がりの軌跡の場合は従前よりピッチを低くする(一音の範囲でピッチが時間的に変化しない)。さらに別の例で、タッチパネル111がタッチされている面積を取得可能な構成を有している場合、強くタッチされているときはピッチを高くし、弱くタッチされているときはピッチを低くする。
(4)音の遷移時間
ドラッグした速度に応じて、素片データの遷移時間の割り当てを変更する。早くドラッグした場合(軌跡の始点と終点の時間間隔が短い場合)、前後の音とのクロスフェードの時間を長くする。ゆっくりドラッグした場合、前後の音とのクロスフェードの時間を短くする。
(5)ブレス
ドラッグした速度に応じて、ブレスのオンオフを変更する。早くドラッグした場合、ブレスを入れない。ゆっくりドラッグした場合、前の音との間にブレスを入れる。この場合は、楽譜データにブレスの有無を示す付加属性が含まれている。
3−3.変形例3
軌跡に応じたパラメータの変化のさせ方は、実施形態で説明したものに限定されない。例えば、上下動を繰り返す軌跡が入力され、ビブラートに関する付加属性が変更される場合、付加属性の変化のさせ方は、以下のいずれか、または以下の2つ以上の組み合わせが用いられる。
(1)ビブラートをかけることだけが決定され、ビブラートの強さ、速さ、および始期は、決められた初期値が用いられる。
(2)軌跡から特徴パラメータとして抽出された振幅に応じてビブラートの強さが決定される(振幅が大きいほどビブラートは強く)。
(3)軌跡から特徴パラメータとして抽出された極値の数に応じてビブラートの早さが決定される(極値の数が多いほどビブラートは早く)。
(4)軌跡から特徴パラメータとして抽出された始点の時間軸座標に応じてビブラートの始期が決定される(時間が遅いほど始期が遅く)。
(5)記録された軌跡を決められた解像度で量子化(クオンタイズ)し、量子化後の軌跡に応じてビブラートの波形を決定。
(6)軌跡から特徴パラメータとして極値の座標が抽出される場合、極値の時間間隔の変化に応じてビブラートの早さが決定される(極値の時間間隔が段々短くすなわち段々密になると、一音の範囲でビブラートの速さが段々速く)。
(7)軌跡から特徴パラメータとして極値の座標が抽出される場合、振幅(時間軸で隣接する2つの極値の音高の差)の時間変化に応じてビブラートの強さが決定される(振幅が段々大きくなると、一音の範囲でビブラートの強さが段々強く)。
なお、ビブラート以外の付加属性に対し、上記(1)〜(7)のうち適用可能なものを適用してもよい。
3−4.変形例4
軌跡に応じて付加属性の変更が確定した後、確認音を出力してもよい。確認音とは、処理対象音符について、割り当てられた歌詞と属性(基本属性および付加属性)に基づいて合成された音声をいう。例えば処理対象音符にビブラートが付加された場合、CPU101は、ビブラートが付加された音声を合成してスピーカ109から出力させてもよい。この例によれば、ユーザは、変更後の付加属性を容易に確認することができる。
3−5.変形例5
軌跡に応じて、付加属性の値が決められた値(「値なし」または初期値)に書き替えられてもよい。例えば、終点の時間軸座標が始点の時間軸座標よりも小さい場合、すなわち、時間軸の負方向(逆向き)にドラッグした場合、CPU101は、付加属性の値を取り消し(値なし)にしてもよい。この場合において、軌跡の形状に応じて、値を取り消す付加属性を特定してもよい。例えば、時間軸の負方向に上下に振動する軌跡が得られた場合、CPUは、ビブラートに関するパラメータの値を「値なし」に書き替えてもよい。この場合において、付加属性だけでなく、処理対象音符の基本属性を消去してもよい。別の例で、処理対象音符がダブルクリックされた場合(すなわち、タッチパネル111においてタッチが検出され処理対象音符が確定してから、タッチ非検出状態を経由して、決められた時間内に処理対象音符に相当する位置において再度タッチが検出された場合)、CPU101は、処理対象音符の付加属性または基本属性を消去してもよい。さらに別の例で、タッチパネル111がマルチタッチ可能な構成(すなわち複数の位置を同時に検出可能な構成)を有している場合において、第1の指が処理対象音符をタッチし、第2の指が処理対象音符以外の場所をタッチしたとき(すなわち、一の音符(処理対象音符)に相当する位置における第1のタッチが検出され、タッチが検出されたままの状態で、処理対象音符以外の場所における第2のタッチが検出されたとき)、CPU101は、処理対象音符の付加属性または基本属性を消去してもよい。
3−6.他の変形例
音声合成装置1は、タッチパネル111を有していなくてもよい。例えば、音声合成装置1は、入力部105としてマウス、キーパッド、またはペンタブレットを有していてもよい。また、音声合成装置1は、タッチパネル式の情報表示装置に限定されない。音声合成装置1は、パーソナルコンピュータ、携帯電話機、携帯ゲーム機、携帯音楽プレーヤ、または電子ブックリーダであってもよい。
音声合成装置1のハードウェア構成は、図4で説明したものに限定されない。図1に示される機能を実装できるものであれば、音声合成装置1はどのようなハードウェア構成を有していてもよい。例えば、音声合成装置1は、図1に示される機能要素の各々に対応する専用のハードウェア(回路)を有していてもよい。別の例で、図4で例示した音声合成装置1のハードウェア構成要素の一部は、いわゆる外付けの装置であってもよい。例えば、表示部106またはスピーカ109は外付けの装置であってもよい。
文字列は平仮名に限定されない。アルファベットまたは発音記号等が、歌詞を示す文字列として用いられてもよい。
ピアノロール表示においてノート図形内に表示される文字は実施形態で説明したものに限定されない。歌詞の一部である平仮名に加え、対応する発音記号が併せて表示されてもよい。
楽譜データの構造は、図3で例示したものに限定されない。音符と歌詞との対応関係、および音符の属性を特定できるものであれば、どのような構造のデータが用いられてもよい。また、実施形態において歌詞(文字列)と楽譜データとが別のデータセットである例を説明したが、歌詞は楽譜データの一部であってもよい。別の例で、楽譜データは発音記号を含んでいなくてもよい。すなわち、本発明は、音声合成機能を有していない、楽曲の編集装置に適用されてもよい。
音声合成処理の詳細は、実施形態で説明したものに限定されない。音符と発音記号(文字)とが与えられたときに、その音符および発音記号に応じた音声を合成するものであれば、どのような処理が用いられてもよい。
軌跡から抽出される特徴パラメータは、実施形態で説明したものに限定されない。軌跡の特徴を示すものであれば、どのようなパラメータが用いられてもよい。
軌跡と処理対象の付加属性を対応させる方法は特徴パラメータを抽出するものに限定されない。軌跡を規格化し、基準となる波形との一致度を算出するような手法が用いられてもよい。
変更された付加属性を表示する方法は、図10で例示したものに限定されない。例えば、ノート図形の色を変えたり、ノート図形の形状を変えたりしてもよい。
上述の実施形態で説明した音声合成プログラムは、磁気記録媒体(磁気テープ、磁気ディスク(HDD、FD(Flexible Disk))など)、光記録媒体(光ディスク(CD(Compact Disk)、DVD(Digital Versatile Disk))など)、光磁気記録媒体、半導体メモリ(フラッシュROMなど)などのコンピュータ読取り可能な記録媒体に記憶した状態で提供されてもよい。また、このプログラムは、インターネットのようなネットワーク経由でダウンロードされてもよい。
1…音声合成装置、11…記憶手段、12…表示制御手段、13…表示手段、14…位置検出手段、15…属性変更手段、16…音声合成手段、17…音声出力手段、101…CPU、102…ROM、103…RAM、104…記憶部、105…入力部、106…表示部、107…DAC、108…アンプ、109…スピーカ、111…タッチパネル、201…入力ボックス、202…ウインドウ、203…ガイド図形、204…ノート図形、205…ノート図形、206…ノート図形、207…ノート図形、208…ノート図形、209…再生ボタン、210…停止ボタン、211…ウインドウ、212…ウインドウ、213…ウインドウ、303…個人別データベース、3030…素片データ群、3031…素片データ群、3032…素片データ群

Claims (5)

  1. 複数の音符の各々について、当該音符の発音期間の始期、音高、音長、および当該音符に対する音楽的な修飾を示す付加属性を含む属性を記憶する属性記憶手段と、
    音高を表す第1軸および時間を表す第2軸を有する座標系に従って、前記複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段の画面に表示させる表示制御手段と、
    前記画面上の位置を検出する位置検出手段と、
    前記位置検出手段により検出された位置の軌跡の始点が、前記複数の音符の各々に相当する領域内になかった場合、前記始点に応じた発音期間の始期を有する新たな音符を処理対象音符として、前記軌跡に応じて、前記処理対象音符の付加属性を前記属性記憶手段に追加する属性変更手段と、
    前記属性記憶手段に記憶されている属性を用いて、前記複数の音符に対応する楽曲データを生成するデータ生成手段と
    を有する楽曲編集装置。
  2. 複数の音符の各々について、当該音符の発音期間の始期、音高、音長、および当該音符に対する音楽的な修飾を示す付加属性を含む属性を記憶する属性記憶手段と、
    音高を表す第1軸および時間を表す第2軸を有する座標系に従って、前記複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段の画面に表示させる表示制御手段と、
    前記画面上の位置を検出する位置検出手段と、
    前記位置検出手段により検出された位置に応じて前記複数の音符の中から選択された一の音符を処理対象音符として、前記位置検出手段により検出された位置の軌跡に応じて、前記属性記憶手段に記憶されている前記処理対象音符の付加属性を変更する属性変更手段と、
    前記属性記憶手段に記憶されている属性を用いて、前記複数の音符に対応する楽曲データを生成するデータ生成手段と
    を有する楽曲編集装置。
  3. 前記付加属性は、それぞれ異なる音楽的修飾を示す複数のパラメータを含み、
    前記属性変更手段は、前記処理対象音符について、前記複数のパラメータの中から前記軌跡に応じて選択された一のパラメータの値を、前記軌跡に応じて変更する
    ことを特徴とする請求項1または2に記載の楽曲編集装置。
  4. コンピュータを、
    複数の音符の各々について、当該音符の発音期間の始期、音高、音長、および当該音符に対する音楽的な修飾を示す付加属性を含む属性を記憶する属性記憶手段と、
    音高を表す第1軸および時間を表す第2軸を有する座標系に従って、前記複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段の画面に表示させる表示制御手段と、
    前記画面上の位置を検出する位置検出手段と、
    前記位置検出手段により検出された位置の軌跡の始点が、前記複数の音符の各々に相当する領域内になかった場合、前記始点に応じた発音期間の始期を有する新たな音符を処理対象音符として、前記軌跡に応じて、前記処理対象音符の付加属性を前記属性記憶手段に追加する属性変更手段と、
    前記属性記憶手段に記憶されている属性を用いて、前記複数の音符に対応する楽曲データを生成するデータ生成手段と
    して機能させるためのプログラム。
  5. コンピュータを、
    複数の音符の各々について、当該音符の発音期間の始期、音高、音長、および当該音符に対する音楽的な修飾を示す付加属性を含む属性を記憶する属性記憶手段と、
    音高を表す第1軸および時間を表す第2軸を有する座標系に従って、前記複数の音符の各々の発音期間の始期、音高、および音長を表す図形を表示手段の画面に表示させる表示制御手段と、
    前記画面上の位置を検出する位置検出手段と、
    前記位置検出手段により検出された位置に応じて前記複数の音符の中から選択された一の音符を処理対象音符として、前記位置検出手段により検出された位置の軌跡に応じて、前記属性記憶手段に記憶されている前記処理対象音符の付加属性を変更する属性変更手段と、
    前記属性記憶手段に記憶されている属性を用いて、前記複数の音符に対応する楽曲データを生成するデータ生成手段と
    して機能させるためのプログラム。
JP2010229845A 2010-10-12 2010-10-12 楽曲編集装置およびプログラム Active JP5589741B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010229845A JP5589741B2 (ja) 2010-10-12 2010-10-12 楽曲編集装置およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010229845A JP5589741B2 (ja) 2010-10-12 2010-10-12 楽曲編集装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2012083564A true JP2012083564A (ja) 2012-04-26
JP5589741B2 JP5589741B2 (ja) 2014-09-17

Family

ID=46242495

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010229845A Active JP5589741B2 (ja) 2010-10-12 2010-10-12 楽曲編集装置およびプログラム

Country Status (1)

Country Link
JP (1) JP5589741B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103594075A (zh) * 2012-08-14 2014-02-19 雅马哈株式会社 音乐信息显示控制方法和音乐信息显示控制设备
CN113035157A (zh) * 2021-01-28 2021-06-25 深圳点猫科技有限公司 一种图形化音乐编辑方法、系统及存储介质
CN113035158A (zh) * 2021-01-28 2021-06-25 深圳点猫科技有限公司 一种在线midi音乐编辑方法、系统及存储介质
CN113035158B (zh) * 2021-01-28 2024-04-19 深圳点猫科技有限公司 一种在线midi音乐编辑方法、系统及存储介质

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03168698A (ja) * 1989-11-28 1991-07-22 Yamaha Corp 効果付与装置
JPH03206493A (ja) * 1990-01-09 1991-09-09 Yamaha Corp 電子楽器
JPH06274159A (ja) * 1993-03-24 1994-09-30 Yamaha Corp 楽譜情報入力装置
JP2001265335A (ja) * 2000-03-15 2001-09-28 Casio Comput Co Ltd 演奏情報入力装置および演奏情報入力方法
JP2004109745A (ja) * 2002-09-20 2004-04-08 Yamaha Corp 表情付けパラメータ編集装置および表情付けパラメータ編集方法を実現するためのプログラム
JP2004139124A (ja) * 2003-12-22 2004-05-13 Yamaha Corp 楽譜表示装置
JP2006251451A (ja) * 2005-03-11 2006-09-21 Yamaha Corp 歌データ入力プログラム
US7750224B1 (en) * 2007-08-09 2010-07-06 Neocraft Ltd. Musical composition user interface representation
JP2010148687A (ja) * 2008-12-25 2010-07-08 Konami Digital Entertainment Co Ltd ゲーム機およびゲームプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03168698A (ja) * 1989-11-28 1991-07-22 Yamaha Corp 効果付与装置
JPH03206493A (ja) * 1990-01-09 1991-09-09 Yamaha Corp 電子楽器
JPH06274159A (ja) * 1993-03-24 1994-09-30 Yamaha Corp 楽譜情報入力装置
JP2001265335A (ja) * 2000-03-15 2001-09-28 Casio Comput Co Ltd 演奏情報入力装置および演奏情報入力方法
JP2004109745A (ja) * 2002-09-20 2004-04-08 Yamaha Corp 表情付けパラメータ編集装置および表情付けパラメータ編集方法を実現するためのプログラム
JP2004139124A (ja) * 2003-12-22 2004-05-13 Yamaha Corp 楽譜表示装置
JP2006251451A (ja) * 2005-03-11 2006-09-21 Yamaha Corp 歌データ入力プログラム
US7750224B1 (en) * 2007-08-09 2010-07-06 Neocraft Ltd. Musical composition user interface representation
JP2010148687A (ja) * 2008-12-25 2010-07-08 Konami Digital Entertainment Co Ltd ゲーム機およびゲームプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
剣持 秀紀 HIDEKI KENMOCHI: "音楽情報処理技術の最前線 Frontiers of Music Information Processing Technologies", 情報処理 第50巻 第8号, vol. 第50巻第8号, JPN6014014433, 15 August 2009 (2009-08-15), JP, pages 723 - 728, ISSN: 0002788602 *
山田 諒太郎 RYOTARO YAMADA: "歌詞朗読音声からのオンライン歌声合成システム A Method of Singing Synthesis from Lyrics Reading Spee", 情報処理学会研究報告 平成22年度▲1▼ [CD−ROM], JPN6014014434, 15 June 2010 (2010-06-15), JP, pages 1 - 5, ISSN: 0002788603 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103594075A (zh) * 2012-08-14 2014-02-19 雅马哈株式会社 音乐信息显示控制方法和音乐信息显示控制设备
CN103594075B (zh) * 2012-08-14 2017-06-23 雅马哈株式会社 音乐信息显示控制方法和音乐信息显示控制设备
CN113035157A (zh) * 2021-01-28 2021-06-25 深圳点猫科技有限公司 一种图形化音乐编辑方法、系统及存储介质
CN113035158A (zh) * 2021-01-28 2021-06-25 深圳点猫科技有限公司 一种在线midi音乐编辑方法、系统及存储介质
CN113035157B (zh) * 2021-01-28 2024-04-16 深圳点猫科技有限公司 一种图形化音乐编辑方法、系统及存储介质
CN113035158B (zh) * 2021-01-28 2024-04-19 深圳点猫科技有限公司 一种在线midi音乐编辑方法、系统及存储介质

Also Published As

Publication number Publication date
JP5589741B2 (ja) 2014-09-17

Similar Documents

Publication Publication Date Title
KR101611511B1 (ko) 터치스크린을 구비한 휴대 단말기를 이용한 음악 생성 방법
US10354627B2 (en) Singing voice edit assistant method and singing voice edit assistant device
US9928817B2 (en) User interfaces for virtual instruments
JP2013137520A (ja) 音楽データ編集装置
JP5549521B2 (ja) 音声合成装置およびプログラム
WO2017028686A1 (zh) 一种信息处理方法、终端设备及计算机存储介质
JP2008139426A (ja) 評価用データのデータ構造、カラオケ装置及び記録媒体
JP2015163982A (ja) 音声合成装置及びプログラム
JP5589741B2 (ja) 楽曲編集装置およびプログラム
JP5935815B2 (ja) 音声合成装置およびプログラム
JP6149917B2 (ja) 音声合成装置および音声合成方法
JP4613817B2 (ja) 運指表示装置、及びプログラム
JPWO2019092791A1 (ja) データ生成装置およびプログラム
JP2000163057A (ja) 音声割当装置及び音声割当方法並びに音声割当処理のプログ ラムを記録した記録媒体
JP5429840B2 (ja) 音声合成装置およびプログラム
JP5510207B2 (ja) 楽音編集装置及びプログラム
JP5803705B2 (ja) 電子楽器
JP7350555B2 (ja) 楽譜編集装置及び楽譜編集プログラム
JP4305315B2 (ja) 自動演奏データ特性変更装置及びそのプログラム
JP7107720B2 (ja) 運指表示プログラム
JP5888295B2 (ja) 演奏情報表示装置、プログラム
JP2003150155A (ja) 演奏練習装置、演奏練習方法、プログラム及び記録媒体
JP5810691B2 (ja) 楽譜情報生成装置および楽譜情報生成プログラム
WO2022209557A1 (ja) 電子楽器、電子楽器の制御方法、及びプログラム
WO2018147286A1 (ja) 表示制御システム及び表示制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140714

R150 Certificate of patent or registration of utility model

Ref document number: 5589741

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150