JP2015152680A - 音楽情報処理装置及びプログラム並びに方法 - Google Patents

音楽情報処理装置及びプログラム並びに方法 Download PDF

Info

Publication number
JP2015152680A
JP2015152680A JP2014024415A JP2014024415A JP2015152680A JP 2015152680 A JP2015152680 A JP 2015152680A JP 2014024415 A JP2014024415 A JP 2014024415A JP 2014024415 A JP2014024415 A JP 2014024415A JP 2015152680 A JP2015152680 A JP 2015152680A
Authority
JP
Japan
Prior art keywords
display
information
axis
note information
note
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014024415A
Other languages
English (en)
Other versions
JP6390112B2 (ja
Inventor
明宏 三輪
Akihiro Miwa
明宏 三輪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2014024415A priority Critical patent/JP6390112B2/ja
Publication of JP2015152680A publication Critical patent/JP2015152680A/ja
Application granted granted Critical
Publication of JP6390112B2 publication Critical patent/JP6390112B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】演奏される各音毎の音像定位を判り易く表示する。【解決手段】曲又はフレーズを構成する音楽演奏データから個々の音のノート情報を取り出す。取り出されたノート情報に基づき、ノート情報を象徴する表示物d1〜d6を、ノート情報に含まれる音高情報、時間情報及び音像定位情報に従って、時間軸、音高軸P及び音像定位軸Lでなる仮想的三次元空間内に配置し、ディスプレイ上に表示させる。仮想的三次元空間は、音高軸P及び音像定位軸Lからなる前面部と時間軸からなる奥行き部とでなり、前面部をフラットに提示して音像定位を分かり易く表示するとき、時間軸に沿う表示物d1〜d6を透視して表し、かつ表示物d1〜d6の時間位置をその表示態様を変化させることによって表す。【選択図】図5

Description

この発明は、MIDIデータあるいはオーディオ波形データなどの種々のタイプの音楽演奏データを仮想的三次元空間に配置して表示するための音楽情報処理装置及びプログラム並びに方法に関する。
ディスプレイ上に楽譜を表示する手法の1つとして、ピアノロール譜といわれるものが周知である(例えば特許文献1)。ピアノロール譜は、例えば縦軸を音高軸(鍵盤軸)とし、横軸を時間軸とした、二次元表示空間において、発音すべき(演奏すべき)音の音高(鍵)と発音時間との組み合わせによって、該発音すべき(演奏すべき)音を象徴する表示物(例えば横棒線)をディスプレイ上に表示するものである。このようなピアノロール譜の変形例として、発音すべき(演奏すべき)音を象徴する表示物として、該発音すべき(演奏すべき)音のオーディオ波形エンベロープを模した図形を用いるものも知られている(例えば非特許文献1及び2)。
一方、特許文献2においては、1つのオーディオ信号におけるステレオ音像定位をスペクトル周波数成分毎に可視的に示す技術が示されている。この技術は、オーディオ信号のうち所定の方向に音像が定位するスペクトル周波数成分を抑圧または強調するために、各スペクトル周波数成分の定位方向の時間的な変化をユーザが視覚的に確認できるようにする目的で使用される。
特開2006−267254号公報 特開2012−249048号公報
http://www.g200kg.com/jp/docs/dic/melodyne.html http://www.cs.tut.fi/sgn/arg/music/tuomasv/audiopianoroll/
特許文献1及び非特許文献1、2に示された技術は、音高軸と時間軸の二次元表示であるため、同一の音高で複数の音が発音(演奏)されるとき、個々の音を分離して表示することができないという欠点がある。一方、特許文献2に示された技術は、各スペクトル周波数成分に分離して音像定位を表示するため、同一の音高で複数の音が発音(演奏)されるとき、個々の音がどれであるか、また、個々の音がどのように定位しているのか、確認することが容易ではないという欠点がある。
この発明は、上述の点に鑑みてなされたもので、演奏される各音毎の音像定位を判り易く表示できるようにした音楽情報処理装置及びプログラム並びに方法を提供しようとするものである。
この発明に係る音楽情報処理装置は、音楽演奏データから個々の音のノート情報を取り出す取り出し手段であって、前記ノート情報は音高情報、時間情報及び音像定位情報を含む前記取り出し手段と、取り出されたノート情報に基づき、該ノート情報を象徴する表示物を、該ノート情報に含まれる前記音高情報、時間情報及び音像定位情報に従って、時間軸、音高軸及び音像定位軸でなる仮想的三次元空間内に配置し、ディスプレイ上に表示させる表示制御手段とを備える。
この発明によれば、音楽演奏データを構成する個々の音のノート情報を象徴する表示物を、時間軸、音高軸及び音像定位軸でなる仮想的三次元空間内に配置し、ディスプレイ上に表示するように構成したので、演奏される各音毎の音像定位を判り易く表示することができる。例えば、同一の音高で複数の音が発音(演奏)されるような演奏形態であっても、音高軸及び音像定位軸を用いて該ノート情報を象徴する表示物を表示することにより、それらを分離して且つ個々の音として判り易く表示することができる。
一実施例において、前記表示制御手段は、前記ディスプレイ上における前記仮想的三次元空間を、前記音高軸及び前記音像定位軸からなる前面部と前記時間軸からなる奥行き部とで表し、かつ、前記表示物の時間位置をその表示態様を変化させることによって表すように構成されてよい。また、前記表示制御手段は、前記音高軸及び前記音像定位軸からなる前面部を前記ディスプレイ上でフラットに表示する状態において、異なる時間位置の前記表示物を該前面部の側から透視して表すように構成されてよい。これによれば、各音の音高と音像定位が明確に判るばかりでなく、各音の時間位置を容易に確認することができる。
一実施例において、前記表示制御手段は、第1の表示状態において、前記仮想的三次元空間の3軸のうち2軸の組み合わせを用いて前記ノート情報を象徴する前記表示物を前記ディスプレイ上に表示させ、第2の表示状態において、前記仮想的三次元空間の3軸のうち2軸の別の組み合わせを用いて前記ノート情報を象徴する前記表示物を前記ディスプレイ上に表示させるように構成されてよい。これによれば、第1又は第2の表示状態において、詳細が判り易い2軸(二次元)表示で表示することができ、かつ、第1又は第2の表示状態のいずれかを選択することで、仮想的三次元空間における前記ノート情報を象徴する前記表示物の配置も把握することができる。
一実施例において、前記表示制御手段は、或る表示状態から別の表示状態に切り換えることが指示されたとき、前記仮想的三次元空間に配置された前記ノート情報を象徴する前記表示物が移動する様子を示す遷移画像を介在させるように構成されていてよい。これによれば、或る表示状態から別の表示状態に切り換わる様子が、遷移画像によって動的に判り易く提示される。
一実施例において、前記音楽演奏データは、音楽演奏のオーディオ波形データであってよい。その場合は、前記取り出し手段は、前記オーディオ波形データを分析することに基づき前記音楽演奏を構成する個々の音の前記ノート情報を取り出すように構成される。
別の実施例において、前記音楽演奏データは、音楽演奏を構成する各音をデジタルコードで表現したデータ(例えばMIDIデータ)であってよい。その場合は、前記取り出し手段は、前記各音のデジタルコードから前記ノート情報を取り出すように構成される。
本発明は、装置の発明として構成し実施することができるのみならず、方法の発明として構成し実施することができる。また、本発明は、コンピュータまたはDSP等のプロセッサのプログラムの形態で実施することができるし、そのようなプログラムを記憶した記憶媒体の形態で実施することもできる。
この発明に係る音楽情報処理装置の一実施例のハードウェア構成を示すブロック図。 この発明の第1の実施例に係る音楽情報処理の一例として、オーディオ波形データに基づく処理を示すフローチャート。 仮想的三次元空間の3軸全部の組み合わせを用いてノート情報を象徴する表示物をディスプレイ上に立体的に表示する表示状態の一例を示す図。 仮想的三次元空間の3軸のうち所定の2軸(音高軸及び時間軸)の組み合わせを用いてノート情報を象徴する表示物をディスプレイ上に表示する表示状態の一例を示す図。 仮想的三次元空間の3軸のうち別の2軸(音高軸及び音像定位軸)の組み合わせを用いてノート情報を象徴する表示物をディスプレイ上に表示する表示状態の一例を示す図。 この発明の第2の実施例に係る音楽情報処理の一例として、MIDIデータに基づく処理を示すフローチャート。 ディスプレイ上で表示された音楽演奏データに対して編集作業を行うための処理フローの一例を示す図。 音楽演奏データの再生演奏を行っている最中に該音楽演奏データ中のノート情報をディスプレイ上で表示する処理フローの一例を示す図。
図1は、この発明に係る音楽情報処理装置の一実施例のハードウェア構成を示す。この実施例において、この音楽情報処理装置は、この発明に係る音楽情報処理の各ステップを実現するための命令群からなるアプリケーションプログラムをインストールした汎用パーソナルコンピュータによって構成され得る。通信インタフェース1は、インターネットあるいは社内LAN等の外部ネットワークを介して波形データ等のやりとりを行うために使用され得る。USB等のインターフェースを介してバス8に接続される演奏操作子2は、音楽演奏用の鍵盤あるいは打楽器を模擬するパッド操作子等によって構成されており、ユーザによる鍵あるいはパッド操作子等の演奏操作に応じて演奏操作データを生成する。入力装置3は、文字・記号入力用のキーボード、マウス等からなる汎用の入力装置であってよく、さらには、ユーザによる入力操作を可能にする適宜の操作パネルを含んでいてもよい。
ディスプレイ4は、ユーザに対して各種情報を視覚的に表示する。CPU(プロセッサ)5は、後述するプログラムに基づいて、バス8を介して他の各部を制御する。ROM6には、イニシャルプログラムローダ等が格納されている。RAM7は、CPU5によって読み書きされ、一時保存あるいはワーキングメモリ等として機能する。外部媒体用のドライブ装置(若しくはI/F)9は、CD−ROM、MO等の着脱式可搬媒体10を装着し、データあるいはプログラム等の読み書きを可能にする。ハードディスク11には、汎用パーソナルコンピュータのオペレーティングシステム、上記アプリケーションプログラム、波形データ、その他各種のプログラム及びデータが格納される。
波形取込インタフェース12は、マイクロホン等を介して外部から入力されたアナログオーディオ波形信号をサンプリングし、デジタルオーディオ波形データに変換した後、バス8を介してコンピュータ内に取り込む。波形出力インタフェース13は、コンピュータ内で生成又は処理されたデジタルオーディオ波形データをバス8を介して入力し、アナログオーディオ波形信号に変換する。サウンドシステム14は、波形出力インタフェース13から与えられるアナログオーディオ波形信号を空間的に放音する。
次に、この音楽情報処理装置によって実現される音楽情報処理について、図2のフローチャートを参照して説明する。この音楽情報処理装置によって実現される音楽情報処理とは、端的には、音楽演奏データに含まれる個々の音を、その音高(ノート)、時間位置、音像定位の3種の情報に関して仮想的三次元空間内に配置してディスプレイ4上に表示することからなる。ディスプレイ4上に表示された音の表示物は、前記音が持つ音像定位等各種情報をユーザが視覚的に確認することに役立つほか、ディスプレイに対するユーザの相互作用によってこれら音像定位等各種情報を編集することに役立つ。音楽情報処理装置は、表示制御機能のみならず、そのような編集機能を持つように構成されていてもよい。なお、本明細書において説明される各ステップの処理は、コンピュータプログラム(アプリケーションプログラム)の命令コードをコンピュータ(CPU5)が実行することによって自動的に行われる。しかし、これに限定されるものではなく、同等の処理を実行するように構成された専用の電子回路等を含むハードウェア装置によって自動的に行われるようになっていてもよい。
この音楽情報処理装置による処理の対象となる音楽演奏データは、時間軸に沿った演奏音の振動波形を表すオーディオ波形データであってもよいし、音楽演奏を構成する各音をデジタルコードで表現したデータ(例えばMIDIデータ)であってもよい。以下、第1の実施例として、処理の対象となる音楽演奏データがオーディオ波形データである場合について説明する。
図2において、ステップS1では、処理の対象とするオーディオ波形データを選択する。処理の対象となる音楽演奏データは、1つの楽曲又はフレーズのオーディオ波形データである。例えばハードディスク11上のデータベースに複数楽曲及び複数フレーズのオーディオ波形データが記憶されており、ユーザは、その中から処理の対象とするオーディオ波形データを選択してよい。あるいは、波形取込インタフェース12を介してリアルタイムに取り込まれるオーディオ波形データを処理の対象として選択してもよい。あるいは、通信インタフェース1を介して外部からリアルタイムにダウンロードしたオーディオ波形データを処理の対象として選択してもよい。勿論、オーディオ波形データはPCMデータに限らず、MP3等任意の形式で圧縮符号化されたものであってもよく、その場合は、次に述べる分析処理の前に解凍・復号化される。
ステップS2では、上記選択されたオーディオ波形データを分析して、個々の音のノート情報を取り出す。分析によって取り出されるノート情報には、音高情報、時間情報及び音像定位情報が少なくとも含まれ、その他の情報(例えば音量情報、振幅エンベロープ情報など)を更に含んでいてよい。音高情報とは、オーディオ波形データ中の1つの音の音高(基本周波数)を示す情報であり、細かな周波数変動を表す必要はなく(そのようにしてもよいが)、該1つの音の名目的な音階音高(ノート)を示すものであればよい。時間情報とは、該1つの音の時間位置(分析対象であるオーディオ波形データ全体の中の相対的時間位置)を示す情報である。この時間情報は、例えば、該1つの音の発音開始から発音終了に至るまでの連続的発音区間を示す情報を含む。別の例として、該時間情報は、該1つの音の発音開始時間を示す情報のみを含むものであってもよい。
ステップS2の処理の実行に関与するプログラム部分及びCPU等のハードウェアの組み合わせは、音楽演奏データから個々の音のノート情報を取り出す取り出し手段として機能する。
音像定位情報とは、該1つの音の音像定位を示す情報である。例えば、オーディオ波形データが左右2チャンネルのステレオデータであれば、各音の音像定位を容易に分析することができる。例えば、ステレオ左右2チャンネルのオーディオ波形データで音高と時間位置が完全に一致する音を同一音と見なし、それぞれの音量比から音像定位を示す情報を抽出することができる。その場合、同一音と見なした音のノート情報は1つのみ取り出すものとする。勿論、これに限らず、例えば1チャンネルのみからなるモノラルのオーディオ波形データであっても、すなわち、オリジナルのオーディオ波形データそれ自体は音像定位を持っていなかったとしても、音像定位位置0を示す音像定位情報をそれぞれ抽出する(若しくはデフォルトとして付与する)ようにしてよい。そのような場合、後段において行う本発明に従う編集処理によって、各音毎にユーザが任意の音像定位を付与することができるので、編集機能を高めることができる。なお、デフォルトとして付与する音像定位位置は0に限らず、任意の定位位置としてよい。オーディオ波形データの分析処理それ自体は公知技術を利用できるため、本明細書では詳細説明を省略する。
ステップS3では、取り出された各音のノート情報に基づき、該ノート情報を象徴する表示物を、該ノート情報に含まれる前記音高情報、時間情報及び音像定位情報に従って、時間軸、音高軸及び音像定位軸でなる仮想的三次元空間内に配置し、ディスプレイ4上に表示するよう制御する。この場合、仮想的三次元空間内に配置された前記ノート情報を象徴する表示物は、様々な表示状態(あるいは見え方)のうちいずれかの選択された表示状態でディスプレイ4上に表示することができる。例えば、この表示状態(見え方)の選択若しくは視線方向の指定は、入力装置3を介したユーザ操作によって随意に行うことができ、また視線方向の選択又は指定データに従ってもよい。
ステップS3の処理の実行に関与するプログラム部分及びCPU等のハードウェアの組み合わせは、取り出されたノート情報に基づき、該ノート情報を象徴する表示物を、該ノート情報に含まれる前記音高情報、時間情報及び音像定位情報に従って、時間軸、音高軸及び音像定位軸でなる仮想的三次元空間内に配置し、ディスプレイ上に表示させる表示制御手段として機能する。
図3〜図5は、ステップS3(表示制御手段)による処理によって選択若しくは指定され得るいくつかの表示状態を例示する図である。図3は、仮想的三次元空間の3軸全部の組み合わせを用いてノート情報を象徴する表示物d1〜d6をディスプレイ4上に立体的に表示する表示状態の一例を示す。一例として、仮想的三次元空間においては、音高軸Pが垂直方向に延び、この音高軸Pは、下が低音側、上が高音側となるように目盛り付けされる。また、音像定位軸Lが横方向に延び、中央が音像定位0、中央から右方向に離れるほどより右側に定位し、中央から左方向に離れるほどより左側に定位するように目盛り付けされる。一例として、音像定位をわかり易く提示し得るようにするために、音高軸P及び音像定位軸Lからなる二次元面を前面部とし、時間軸Tを奥行き部として、該時間軸Tが奥行き方向に延びるように立体画像を作成するとよい。例えば、奥行き方向に延びる時間軸Tは、手前ほど先行する時間を示し、奥になるほど後続する時間を示すように目盛り付けされる。なお、ディスプレイ4上における各軸の配置をユーザが可視的に確認できるように、各軸P,L,Tを象徴する図形(例えば図示したような軸線を示す図形)を可能な限り表示することが望ましい。
ノート情報を象徴する表示物の一例として、該ノート情報に対応する1つの音のオーディオ波形の振幅エンベロープを模式的に示す仮想的立体図形が用いられてよい。例えば、このような仮想的立体図形は、時間軸に平行な中心軸を持ち、該中心軸の周囲に振幅エンベロープに見合った形状の立体エンベロープを形作ったものからなる。例えば、該立体エンベロープの断面は円であり、或る時点での該断面円の半径は、当該時点における前記振幅エンベロープの振幅値に対応する。勿論、これに限らず、適宜の形状で表示物を形成してよい。例えば、発音期間にわたって延びた単純な棒状を成すように該表示物を形成してもよい。
ディスプレイ4の画面に一度に表示される、音楽演奏データ由来のノート情報の表示物d1〜d6は、1楽曲又はフレーズの全部の時間にわたるものではなく、或る部分的な時間区間内に含まれるすべての(0又は1乃至複数であり得る)音のノート情報の表示物であってよい。例えば、デフォルト若しくは初期状態では、表示すべき先頭の時間位置は、当該音楽演奏データに係る1楽曲又はフレーズの先頭の時間位置であってよい。また、該表示すべき先頭の時間位置を、ユーザ操作等によって任意に指定又は選択することができるように構成されてよい。例えば、表示されている時間軸T上の所望の時間位置をクリックすることにより、該クリックされた時間位置が、該表示すべき先頭の時間位置となるように表示状態を変更するようにしてよい。あるいは、表示されている時間軸T上の任意の位置をカーソルでクリックしてそのまま過去又は未来のいずれかの方向にドラッグすることにより、表示される時間軸Tの範囲がシフトされるようにしてもよい。
上記のように指定又は選択された先頭の時間位置から所定の部分的な時間区間内に含まれるすべての(0又は1乃至複数であり得る)音のノート情報の表示物が、図3に示すように立体的に表示される。ディスプレイ4上に表示される仮想的三次元空間を立体的に見せるための視線方向は、1つに固定されていてもよいが、ユニバーサルに(全方位的に)設定可能であってよい。例えば、前述のように、入力装置3を介したユーザ操作によって若しくは適宜の指定データに応じて、任意の視線方向で立体的画像が生成に指定され得るようにしてもよい。また、次に述べるように、仮想的三次元空間を前提にして、3軸のうちの2軸からなる二次元的画像を生成してディスプレイ4上で表示するようにしてもよい。なお,上記の説明では表示すべき時間区間内に含まれるすべての音のノート情報について表示物を表示するようにしたが、それに限らず、一部のノート情報(例えば所定の優先度の高いもの)のみについて表示物を表示するようにしてもよい。例えば、該時間区間内に含まれる各ノートについて、音量の強弱(特にアタック部の強さ)など音の特徴量を優先度ファクターとし、あるいは、ノートをオーディオ波形データから分離する際の統計計算上のパラメータ(信頼度のようなもの)を優先度ファクターとし、その優先度ファクターが所定の閾値を超えたノートについてのみ表示物を表示するようにしもよい。
図4は、第1の表示状態を例示するもので、この第1の表示状態においては、仮想的三次元空間の3軸のうち所定の2軸(例えば音高軸P及び時間軸T)の組み合わせを用いてノート情報を象徴する表示物d1〜d6をディスプレイ4上に表示させる。ディスプレイ4の画面上において、各表示物d1〜d6の時間位置を最もわかり易く提示するには、図4に示すように、音高軸P及び時間軸Tからなる二次元座標平面で表す表示状態(第1の表示状態)を選択/指定するのがよい。図示例では、表示物d1に係るノート情報の時間位置が最も早く、次は、d2及びd3に係るノート情報であり、以後、d4,d5,d6の順である。なお、このような音高軸P及び時間軸Tからなる二次元座標表示それ自体は公知である。しかし、このような公知の二次元座標表示にあっては、音像定位を表すことができない。これに対して、本発明では、上述のように音像定位軸Lを含む仮想的三次元空間に表示物d1〜d6を配置するので、音像定位を表すことができる。
図5は、第2の表示状態を例示するもので、この第2の表示状態においては、仮想的三次元空間の3軸のうち別の所定の2軸(例えば音高軸P及び音像定位軸L)の組み合わせを用いてノート情報を象徴する表示物d1〜d6をディスプレイ4上に表示させる。ディスプレイ4の画面上において、各表示物d1〜d6の音像定位をわかり易く提示するには、図5に示すように、該仮想的三次元空間を、音高軸P及び音像定位軸Lからなる二次元面(つまり、前記前面部)のみで平面的に表す表示状態(第2の表示状態)を選択/指定するのがよい。その場合、画面の奥行き方向に延びる時間軸Tは、フラットな前面部(二次元面)には直接的には現れてこない。しかし、音高軸P及び音像定位軸Lからなる前面部(二次元面)において、異なる時間位置のノート情報の各表示物d1〜d6が透視図的に表示されるようにし、かつ、該各表示物d1〜d6の時間位置を該表示物の表示態様を変化させることによって表すようにするとよい。この時間位置を表すために変化される該表示物の表示態様は、該表示物の面積、形状、色の少なくとも1つであっていてよい。また、色の表示態様を変化させる場合は、色の三属性(色相、彩度、明度)のうちいずれか少なくとも1つを変化させるようにしてよい。このように構成することにより、フラットな二次元画像により音像定位をわかり易く提示することができ、かつ、そのような二次元面では従来提示できなかった時間軸Tの情報を併せて提示することができるようになる。
図5では、一例として、明度(濃淡)によって時間位置の相違を表している。例えば、ディスプレイ4の画面上の前面部に対応する時刻(現時刻)に位置しているノート情報の表示物の明度が最も濃く、それよりも後(未来)の時刻に位置するほど該表示物の明度が薄くなる。こうして、ディスプレイ4の画面上では、主に音高軸P及び音像定位軸Lからなる前面部(二次元面)を表示していながら、そこに透視図的に表示された表示物d1〜d6の表示態様の違い(例えば濃淡の違い)によって、その時間位置をも判らせることができる。なお、図5の例において、表示物の形状は、対応するノート情報が示す音の振幅(音量)エンベロープを正面から見た形状、つまり円形を成している。この場合、その円の直径(若しくは半径)は、該対応するノート情報が示す音の音量を示している。
時間位置を表すために変化される該表示物の表示態様は上記のような明度(濃淡)に限定されないことは前述した通りである。例えば、上記とは逆に、時間位置を円の直径で表し、音量を明度(濃淡)で表すようにしてもよい。
なお、時間位置を表すための該表示物の表示態様の違い(例えば濃淡の違い)は、図5に示すような、時間軸Tがディスプレイ4の画面上に現れてこない表示状態(第2の表示状態)に限らず、その他の表示状態においても採用されるのが好ましい。例えば、図3に示すような立体視及び図4に示すような平面視(第1の表示状態)においても、時間位置を表すための該表示物d1〜d6の表示態様を同様に異ならせる(濃淡を異ならせる)ことが採用され得る。これによって、表示状態を選択的に切り換える場合、あるいは、視線方向の移動に応じて表示状態を動的に変える場合などに、各表示物d1〜d6の同一性が保たれることとなり、見やすいものとなる。
所望の時間位置における音像定位を、見やすく可視化するための一例について説明する。図3に示すような立体視及び図4に示すような時間軸Tを含む平面視(第1の表示状態)をディスプレイ4の画面上に表示した状態で、時間軸Tに沿うカーソル操作等によってユーザにより所望の時間位置を指定するか、若しくは適宜の時間位置指定データによって所望の時間位置を指定する。この指定に応じて、ディスプレイ4の画面は、該指定された時間位置を先頭とする図5に示すような音像定位軸Lを含む平面視(第2の表示状態)に切り換えられる。勿論、図5に示すような音像定位軸Lを含む平面視(第2の表示状態)がディスプレイ4の画面上に表示されているときに、図3に示すような立体視及び図4に示すような時間軸Tを含む平面視(第1の表示状態)に戻るように、表示状態を切り換えることが可能である。
好ましい実施例において、或る表示状態(例えば前記第1の表示状態)から別の表示状態(例えば前記第2の表示状態)に切り換えることが指示されたとき、仮想的三次元空間に配置された前記ノート情報を象徴する前記表示物d1〜d6が移動する様子を示す遷移画像をその間に介在させるように、動的に表示制御するとよい。例えば、該遷移画像は、前記仮想的三次元空間に配置された表示物d1〜d6が移動する様子を立体的に変化する画像により表すものからなる。これにより、仮想的三次元空間が旋回して表示状態が変更されるような映像効果を提供することができ、ユーザ体験を向上させることができる。例えば、図4に示すような第1の表示状態を示す画像から、音高軸Pを中心にして左回りに旋回する様子を示す立体的動画像が描画され、最後に図5に示すような第2の表示状態を示す画像に至る。なお、このような表示物d1〜d6が移動する様子を立体的に変化する画像の具体的描画処理それ自体は、ステップS3(表示制御手段)において三次元CAD技術等で公知の描画モジュールを使用することにより実現し得るので、その詳細説明は省略する。
次に、第2の実施例として、処理の対象となる音楽演奏データが音楽演奏を構成する各音をデジタルコードで表現したデータ(例えばMIDIデータ)である場合について図6を参照して説明する。
図6において、ステップS11では、処理の対象とするMIDIデータ(1つの楽曲又はフレーズのMIDIデータ)を選択する。この場合も、処理の対象となるMIDIデータは、任意のソースから取得することができる。
ステップS12では、上記選択されたMIDIデータから個々の音のノート情報(ノートオンイベント)を取り出す。該ノート情報(ノートオンイベント)には、音高情報、時間情報及び音像定位情報が少なくとも含まれ、その他の情報(例えば音量すなわちベロシティ情報など)を更に含んでいてよい。前述と同様に、音像定位情報は、MIDIデータ内に含まれる音像定位情報を取り出すか、含まれていない場合はデフォルト値を用いる。ステップS13では、図2における前記ステップS3と同様の処理を行う。
上述したような音楽演奏データ中のノート情報をディスプレイ4上で表示する処理は、該音楽演奏データの編集作業を行っている最中、あるいは該音楽演奏データの再生演奏を行っている最中、のいずれにおいても実行され得る。図7は、ディスプレイ4上で表示された音楽演奏データに対して編集作業を行うための処理フローの一例を示す。図8は、音楽演奏データの再生演奏を行っている最中に該音楽演奏データ中のノート情報をディスプレイ4上で表示する処理フローの一例を示す。
図7において、ステップS21では、編集しようとする音楽演奏データの所望の区間をディスプレイ4上に表示する。このステップS21の詳細は、前記図2又は図3に示したような処理からなっていてよい。
ステップS22では、ディスプレイ4上に表示された仮想的三次元空間内の任意の位置に対するユーザ操作(クリック操作等)を受け付け、編集しようとする三次元空間内のユーザ所望の座標位置をディスプレイ4の画面上で特定する。例えば、既存のノート情報に対応する1又は複数の前記表示物のうち任意の表示物を選択して編集するために、該表示物をディスプレイ4の画面上で特定するようにしてよい。あるいは、新たなノート情報を追加するために、既存のノート情報が存在しない若しくは存在している所望の座標位置を特定するようにしてよい。
ステップS23では、前記ステップS22で特定された三次元空間内の座標位置に配置される音楽情報をユーザ操作に応じて編集する。なお、音楽情報には、前記ノート情報は勿論のこと、テンポ情報、反復記号、その他各種の音楽関連情報が含まれる。例えば、既存のノート情報を編集する場合は、特定された表示物に対応するノート情報の内容をユーザ操作に応じて編集(音高、音高、時間位置、音像定位その他のいずれか1又は複数を変更又は削除)する。あるいは、特定された三次元空間内の座標位置に新たなノート情報を追加する編集操作が行われた場合は、該特定された三次元空間内の座標位置に対応する音高、時間位置、音像定位を持つ新たなノート情報を追加する。この編集操作に応じて、ディスプレイ4上に表示された表示物が変化し、若しくは新たなノート情報に対応する表示物が追加されるように表示変更がなされる。公知のように、編集が確定すると、編集後の音楽演奏データの1組が適宜保存されるようになっていてよい。
こうして、ステップS22の処理を実行するように動作するCPU5は、ディスプレイ4上に表示された仮想的三次元空間内の任意の位置を、ユーザ操作に応じて特定する手段として機能する。また、ステップS23の処理を実行するように動作するCPU5は、特定された前記位置に配置される音楽情報をユーザ操作に応じて編集する手段として機能する。
次に、図8を参照して再生処理について説明する。図8において、ステップS31では、再生しようとする曲又はフレーズの音楽演奏データを選択する。次のステップS32では、選択された音楽演奏データの再生処理を時間経過に従って進行する。この再生処理の詳細は通常知られた技術を用いて実現してよい。例えば、音楽演奏データがオリジナル波形データからなっている場合は、設定された演奏テンポに従って該オリジナル波形データを順次読出して出力する。また、音楽演奏データがMIDIデータからなっている場合は、設定された演奏テンポに従って該MIDIデータを順次読出し、読み出したMIDIデータのノートイベントに応じて所与の音高、音量等を持つ楽音波形を生成し、出力する。
ステップS33では、該再生処理に並行して、現在再生中の音を含む適宜区間の音楽演奏データ(ノート情報を含む)をディスプレイ4上に提示された仮想的三次元空間において表示する。このステップS33で行う表示処理の詳細は、前記図2のステップS2,S3又は図3のステップS12,S13に示したような処理からなっていてよい。従って、ディスプレイ4上に提示された仮想的三次元空間において表示されるノート情報の時間軸が再生演奏の進行に従って変化するのみならず、ユーザ操作等による表示状態の選択に応じて仮想的三次元空間を見せる表示のための視線方向が適宜変化され得るものであり、かつ、或る表示状態から別の表示状態に切り換えることが指示されたときには表示物が移動する様子を示す前記遷移画像を介在させて表示し得る等、前述した本発明に従う種々の利点を享受し得るように制御できる。
なお、この場合、ステップS2及びS12の取り出し(分析)処理は、再生時にリアルタイムに行うようにしてもよいが、そうせずに、事前に取り出し(分析)処理を行って、その取り出し(分析)結果を記憶しておき、記憶したデータに基づきステップS3又はS13の表示処理を行うようにしてもよい。なお、現在再生中の音は、サウンドシステム14を介して可聴的に発音され得る。しかし、サウンドシステム14を介して可聴的に発音することなく、再生した音楽演奏音信号を通信ネットワークを介して他のユーザ又は他の機器宛に送信してもよい。
こうして、ステップS31,S32の処理を実行するように動作するCPU5は、音楽演奏データに基づき音楽演奏の再生を進行する再生処理手段として機能する。また、ステップS33の表示処理を実行するように動作するCPU5は、該再生処理手段による音楽演奏の再生進行に従って、ディスプレイ4上における前記ノート情報を象徴する前記表示物の表示態様を変化させるように構成された表示制御手段として機能する。
勿論、図8に従って再生処理を行っているときに、再生を一時停止して編集モードに移行し、図7に従う編集処理(例えば停止した現再生位置に関連する編集)を行うようにすることができる。その逆に、図7に従って編集処理を行っているときに、任意の再生開始位置(例えば現在の編集作業に対応する時間位置)から再生を開始する再生モードに移行し、図8に従う再生処理(特にステップS32,S33)を行うようにすることもできる。
上記実施例では、この発明に係る音楽情報処理装置が汎用パーソナルコンピュータを利用して構成されるものとしたが、これに限らず、この発明に係る音楽情報処理装置は専用の電子楽器内に組込まれて構成されてもよいし、あるいは携帯式の電子機器内に組込まれて構成されてもよい。あるいは、この発明に係る音楽情報処理装置は、1台のパーソナルコンピュータ又は電子楽器など単体のハードウェア装置で構成されるものとせずに、クラウドコンピューティングによってネットワーク経由で分散的に構成されたシステムからなっていてもよい。また、この発明に係る音楽情報処理方法は、クラウドコンピューティングによってネットワーク経由で分散的に配置されたリソース(ハードウェア及びソフトウェア)を利用して、実行されるようになっていてもよい。
1 通信インタフェース
2 演奏操作子
3 入力装置
4 ディスプレイ
5 CPU(プロセッサ)
6 ROM
7 RAM

Claims (7)

  1. 音楽演奏データから個々の音のノート情報を取り出す取り出し手段であって、前記ノート情報は音高情報、時間情報及び音像定位情報を含む前記取り出し手段と、
    取り出されたノート情報に基づき、該ノート情報を象徴する表示物を、該ノート情報に含まれる前記音高情報、時間情報及び音像定位情報に従って、時間軸、音高軸及び音像定位軸でなる仮想的三次元空間内に配置し、ディスプレイ上に表示させる表示制御手段と
    を備える音楽情報処理装置。
  2. 前記表示制御手段は、第1の表示状態において、前記仮想的三次元空間の3軸のうち2軸の組み合わせを用いて前記ノート情報を象徴する前記表示物を前記ディスプレイ上に表示させ、第2の表示状態において、前記仮想的三次元空間の3軸のうち2軸の別の組み合わせを用いて前記ノート情報を象徴する前記表示物を前記ディスプレイ上に表示させるように構成されている、請求項1の音楽情報処理装置。
  3. 前記表示制御手段は、前記表示物を前記ディスプレイ上に立体的に表示させる前記表示状態において、視線方向の指定に応じて前記立体的な前記表示物の位置及び向きを変化させるように構成されている、請求項1又は2の音楽情報処理装置。
  4. 前記ディスプレイ上に表示された前記ノート情報を象徴する前記表示物を、ユーザ操作に応じて特定する手段と、
    特定された前記表示物に対応する前記ノート情報の内容をユーザ操作に応じて編集する手段と
    を更に備える、請求項1乃至3のいずれかの音楽情報処理装置。
  5. 前記音楽演奏データに基づき音楽演奏の再生を進行する再生処理手段を更に備え、
    前記表示制御手段は、前記再生処理手段による前記音楽演奏の再生進行に従って、前記ディスプレイ上における前記ノート情報を象徴する前記表示物の表示態様を変化させるように構成された、請求項1乃至4のいずれかの音楽情報処理装置。
  6. コンピュータに、
    音楽演奏データから個々の音のノート情報を取り出す手順であって、前記ノート情報は音高情報、時間情報及び音像定位情報を含む前記手順と、
    取り出されたノート情報に基づき、該ノート情報を象徴する表示物を、該ノート情報に含まれる前記音高情報、時間情報及び音像定位情報に従って、時間軸、音高軸及び音像定位軸でなる仮想的三次元空間内に配置し、ディスプレイ上に表示させる手順、
    を実行させるためのプログラム。
  7. 音楽演奏データから個々の音のノート情報を取り出すステップと、ここで、前記ノート情報は音高情報、時間情報及び音像定位情報を含み、
    取り出されたノート情報に基づき、該ノート情報を象徴する表示物を、該ノート情報に含まれる前記音高情報、時間情報及び音像定位情報に従って、時間軸、音高軸及び音像定位軸でなる仮想的三次元空間内に配置し、ディスプレイ上に表示させるステップと
    を、ネットワーク経由で分散的に配置されたリソースを利用して、実行する方法。
JP2014024415A 2014-02-12 2014-02-12 音楽情報処理装置及びプログラム並びに方法 Expired - Fee Related JP6390112B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014024415A JP6390112B2 (ja) 2014-02-12 2014-02-12 音楽情報処理装置及びプログラム並びに方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014024415A JP6390112B2 (ja) 2014-02-12 2014-02-12 音楽情報処理装置及びプログラム並びに方法

Publications (2)

Publication Number Publication Date
JP2015152680A true JP2015152680A (ja) 2015-08-24
JP6390112B2 JP6390112B2 (ja) 2018-09-19

Family

ID=53895026

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014024415A Expired - Fee Related JP6390112B2 (ja) 2014-02-12 2014-02-12 音楽情報処理装置及びプログラム並びに方法

Country Status (1)

Country Link
JP (1) JP6390112B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020039748A1 (ja) * 2018-08-24 2020-02-27 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744165A (ja) * 1993-07-26 1995-02-14 Roland Corp 演奏情報制御装置
JPH09274488A (ja) * 1996-04-05 1997-10-21 Casio Comput Co Ltd 楽音発生装置
JP2003114674A (ja) * 2001-10-04 2003-04-18 Casio Comput Co Ltd 演奏情報表示装置、及びプログラム
JP2003524216A (ja) * 2000-02-22 2003-08-12 ハーモニックス ミュージック システムズ, インコーポレイテッド 音楽データを3次元環境で表示する方法および装置
JP2011209459A (ja) * 2010-03-29 2011-10-20 Yamaha Corp 音響処理装置
JP2012053392A (ja) * 2010-09-03 2012-03-15 Yamaha Corp 楽音編集装置及びプログラム
JP2012194485A (ja) * 2011-03-17 2012-10-11 Yamaha Corp 電子音楽装置及び信号処理特性制御プログラム
JP2012249048A (ja) * 2011-05-27 2012-12-13 Yamaha Corp 音響処理装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0744165A (ja) * 1993-07-26 1995-02-14 Roland Corp 演奏情報制御装置
JPH09274488A (ja) * 1996-04-05 1997-10-21 Casio Comput Co Ltd 楽音発生装置
JP2003524216A (ja) * 2000-02-22 2003-08-12 ハーモニックス ミュージック システムズ, インコーポレイテッド 音楽データを3次元環境で表示する方法および装置
JP2003114674A (ja) * 2001-10-04 2003-04-18 Casio Comput Co Ltd 演奏情報表示装置、及びプログラム
JP2011209459A (ja) * 2010-03-29 2011-10-20 Yamaha Corp 音響処理装置
JP2012053392A (ja) * 2010-09-03 2012-03-15 Yamaha Corp 楽音編集装置及びプログラム
JP2012194485A (ja) * 2011-03-17 2012-10-11 Yamaha Corp 電子音楽装置及び信号処理特性制御プログラム
JP2012249048A (ja) * 2011-05-27 2012-12-13 Yamaha Corp 音響処理装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020039748A1 (ja) * 2018-08-24 2020-02-27 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JPWO2020039748A1 (ja) * 2018-08-24 2021-08-10 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
US11743676B2 (en) 2018-08-24 2023-08-29 Sony Corporation Information processing apparatus, information processing method, and program
JP7388358B2 (ja) 2018-08-24 2023-11-29 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP6390112B2 (ja) 2018-09-19

Similar Documents

Publication Publication Date Title
JP5036797B2 (ja) 発音処理装置、発音処理方法、及び発音処理プログラム
JP5895740B2 (ja) 歌唱合成を行うための装置およびプログラム
KR20200003022A (ko) Vr 시나리오에서의 롤 플레이 시뮬레이션 방법 및 단말 기기
JP2008522239A (ja) ユーザがオーディオファイルを修正することを可能にするための方法及び装置
US9877129B2 (en) Device and method for playing sound
JP4755672B2 (ja) コンテンツ編集装置、方法及びプログラム
JPWO2019038888A1 (ja) 振動制御装置
KR20200087130A (ko) 신호 처리 장치 및 방법, 그리고 프로그램
US11200739B2 (en) Virtual scene
US11849301B2 (en) Information processing apparatus and method, and program
JP3617839B2 (ja) ゲームサウンド制御プログラム、ゲームサウンド制御方法およびゲーム装置
JP6390112B2 (ja) 音楽情報処理装置及びプログラム並びに方法
JP2013068657A (ja) 画像生成装置、画像生成方法及びそのプログラム、並びに演奏支援装置、演奏支援方法及びプログラム
JP6154597B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
JP4438810B2 (ja) 曲編集装置およびプログラム
KR101471602B1 (ko) 음향 재생 장치 및 음향 재생 방법
Perez-Lopez 3Dj: a SuperCollider Framework for Real-Time Sound Spatialization.
JP6065871B2 (ja) 演奏情報表示装置、および演奏情報表示プログラム
JP4720974B2 (ja) 音声発生装置およびそのためのコンピュータプログラム
JP4479735B2 (ja) 演奏装置およびプログラム
JP2003114674A (ja) 演奏情報表示装置、及びプログラム
JP6028489B2 (ja) 動画再生装置、動画再生方法、及びプログラム
JP2005249872A (ja) 音楽再生パラメータ設定装置および音楽再生パラメータ設定方法
KR102680422B1 (ko) 정보 처리 장치 및 방법, 그리고 프로그램
JP4665664B2 (ja) シーケンスデータ生成装置およびシーケンスデータ生成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180806

R151 Written notification of patent or utility model registration

Ref document number: 6390112

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees