JP4079260B2 - Music mixing apparatus, method and program - Google Patents

Music mixing apparatus, method and program Download PDF

Info

Publication number
JP4079260B2
JP4079260B2 JP2002371773A JP2002371773A JP4079260B2 JP 4079260 B2 JP4079260 B2 JP 4079260B2 JP 2002371773 A JP2002371773 A JP 2002371773A JP 2002371773 A JP2002371773 A JP 2002371773A JP 4079260 B2 JP4079260 B2 JP 4079260B2
Authority
JP
Japan
Prior art keywords
mixdown
template
music
design
acoustic data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002371773A
Other languages
Japanese (ja)
Other versions
JP2004206747A (en
Inventor
晴弘 片寄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Original Assignee
Japan Science and Technology Agency
National Institute of Japan Science and Technology Agency
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Science and Technology Agency, National Institute of Japan Science and Technology Agency filed Critical Japan Science and Technology Agency
Priority to JP2002371773A priority Critical patent/JP4079260B2/en
Publication of JP2004206747A publication Critical patent/JP2004206747A/en
Application granted granted Critical
Publication of JP4079260B2 publication Critical patent/JP4079260B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

【0001】
【産業上の利用分野】
この発明は楽曲ミキシング装置、方法およびプログラムならびにテンプレートの抽出方法およびプログラムに関し、特にたとえば、複数のトラックからなる音響データを処理して、より少ないトラック数にミックスダウンしたミックスダウン音響データを生成するものであって、音楽(楽曲)のミキシングに関する様々なデザインを容易に実現する、楽曲ミキシング装置、方法およびプログラムならびにテンプレートの抽出方法およびプログラムに関する。
【0002】
【従来の技術】
この種の従来の楽曲ミキシング装置の一例が、たとえば特許文献1に開示される。この特許文献1の装置はミキシング専用の装置(いわゆるマルチトラックディジタルレコーダ/ミキサ)であり、たとえばドラム,ギター等の楽器やボーカル等のパートごとのオーディオ信号が複数のトラックに分けて内蔵のハードディスクに録音(記憶)される。そして、ユーザ(たとえばミキシングエンジニア)の操作によって、これら各トラックデータがミックスダウンされる。ミックスダウンとは、複数のトラックに分けて録音しておいた音素材を再生しながら処理/ミックスし、より少ないトラックにまとめる作業または操作をいう。
【0003】
たとえば、この専用装置において、ユーザは必要なトラックを再生しながらパネル上に設けられたトラックごとの音量フェーダやパン制御つまみ等の各種操作手段を手で操作する。ユーザの操作に応じて、内蔵のCPUおよびDSP等によって、各トラックデータにエフェクト付与処理や音像定位処理(パニング)が施されるとともにこれらがミックスされて、最終的にはたとえばステレオ2トラックにミックスダウンされた1つの楽曲の音声データが生成される。このデータはたとえばCDプレス用等のマスタデータとなる。
【0004】
一方、最近の商用の音楽ミキシングは、上述の専用装置で行われていた処理をソフトウェアプログラム化することによって、たとえばパーソナルコンピュータ(PC)等のような汎用の計算機を利用して実施されることが多くなってきている。この種のソフトウェアないしアプリケーションとしては、たとえば、「PRO TOOLS(登録商標)LE」(デジデザインジャパンまたはアビッドジャパン株式会社製)等がよく知られている。なお、このソフトウェアの説明書(マニュアル)がインタネット上で入手可能であるのでこれを非特許文献1として挙げておく。
【0005】
このようなプログラムをインストールしたPCすなわち楽曲ミキシング装置では、たとえばハードディスクに、パートごとの音声データ(音響データ等)が複数のトラックに分けて録音(記憶)される。そして、ユーザがマウス等の入力装置を操作して、必要なトラックを再生しながらディスプレイに表示されるGUI上のたとえば音量フェーダおよびパン制御スライダの調整や各種プラグイン(エフェクト付与処理プログラム)の選択およびそのプラグインのパラメータの設定等を行うことによって、ミックスダウンされたデータが作成される。
【0006】
音楽ないし楽曲のミキシングは、実施の仕方やその実施をするミキシングエンジニアによって異なるものである。その結果は聴覚上の大きな差異となって表れ、たとえば同じ音素材であっても別の楽曲であるかのような印象をリスナに与える。つまり、ミックスダウンのデザインにはその人の個性特徴が表れる。このことは、特定のプロデューサの制作による楽曲が商業的に成功することが多かったり、あるいは別のエンジニアによるリミックスバージョンがオリジナルの楽曲よりも商業的に成功したりすることがあることからもわかる。
【0007】
【特許文献1】
特開2001−43604号公報(図1等)
【非特許文献1】
“Pro Tools リファレンスガイド Version 5.3 for HD Systems on Macintosh or Windows / Version 5.1.1 for MIX or LE Systems on Macintosh or Windows”、[online]、デジデザインジャパン、[2002年11月14日検索]、インタネット<URL:http://www.degidesign.co.jp/japan/serv/pdf/pt_hd_guide_i/PT5.3_Ref_Guide_J.pdf>
【0008】
【発明が解決しようとする課題】
しかしながら、効果的なミキシングを行うのは容易なことではない。従来技術では、ミキシング技術に乏しい者がミキシングを行うと良質なマスタデータが得られないという問題があった。特にアマチュアレベルの人が、そのデザイン通りあるいは思い通りのミックスダウンを実現することは至難の業であった。このため、マスタデータの音響的解析(音像定位,周波数特性等の分析等)に基づいてフィードバックを行うことによってそのトレーニングを支援するミキシングエンジニア育成システム等も開発されているが、プロフェッショナルならまだしもあくまで趣味で行っているようなアマチュアにとっては面倒である。
【0009】
それゆえに、この発明の主たる目的は、楽曲ミキシングにおける生産性を向上することができる、楽曲ミキシング装置、方法およびプログラムならびにテンプレート抽出方法およびプログラムを提供することである。
【0010】
【課題を解決するための手段】
第1の発明は、ユーザ操作に基づいて、複数のトラックからなる音響データを処理して、より少ないトラック数にミックスダウンしたミックスダウン音響データを生成する楽曲ミキシング装置において、トラックごとおよび音楽構成要素に相当する音楽グループごとに対応付けられたミックスダウン処理に関するデザイン情報を含むミックスダウンデザインテンプレートを記憶するテンプレート記憶手段、テンプレート適用対象とする音響データにおける音楽グループを設定する音楽グループ設定手段、およびトラックどうしおよび音楽グループどうしを対応させて、音響データにミックスダウンデザインテンプレートを適用することによって、ミックスダウン音響データを生成するテンプレート適用手段を備えることを特徴とする、楽曲ミキシング装置である。
【0011】
上述の第1の発明においては、ユーザ操作に基づくミックスダウン処理において、その対象となった複数のトラックからなる事例音響データに対するミックスダウン処理過程情報を生成する処理過程情報生成手段、事例音響データとミックスダウン処理過程情報とに基づいて、事例音響データにおける音楽グループを抽出する音楽グループ抽出手段、およびミックスダウン処理過程情報から、少なくとも各トラックおよび各音楽グループのそれぞれにおけるミックスダウン処理に関するデザイン情報を抽出し、トラックごとおよび音楽グループごとに対応付けて、ミックスダウンデザインテンプレートを生成するテンプレート生成手段をさらに備え、テンプレート生成手段によって生成されたミックスダウンデザインテンプレートは、テンプレート記憶手段に記憶されるようにしてもよい。
【0012】
第2の発明は、少なくともトラックごとおよび音楽構成要素に相当する音楽グループごとに対応付けられたミックスダウン処理に関するデザイン情報を含むミックスダウンデザインテンプレートを記憶するテンプレート記憶手段を備え、ミックスダウン対象とする複数トラックからなる音響データを処理して、より少ないトラック数のミックスダウン音響データを生成する楽曲ミキシング装置における楽曲ミキシング方法である。この方法は、(a) ユーザの操作に応じて音響データにおける音楽グループを設定するステップ、(b) ユーザ操作によって選択されたミックスダウンデザインテンプレートをテンプレート記憶手段から読み出すステップ、および(c) トラックどうしおよび音楽グループどうしを対応させて、音響データにステップ(b) で読み出されたミックスダウンデザインテンプレートを適用することによって、ミックスダウン音響データを生成するステップを備える。
【0013】
第3の発明は、少なくともトラックごとおよび音楽構成要素に相当する音楽グループごとに対応付けられたミックスダウン処理に関するデザイン情報を含むミックスダウンデザインテンプレートを記憶するテンプレート記憶手段を備え、ミックスダウン対象とする複数トラックからなる音響データを処理して、より少ないトラック数のミックスダウン音響データを生成する楽曲ミキシング装置において実行される楽曲ミキシングプログラムである。このプログラムは、楽曲ミキシング装置のコンピュータに、ユーザ操作に応じて音響データにおける音楽グループの設定情報を取得する音楽グループ取得ステップ、ユーザ操作によって選択されたミックスダウンデザインテンプレートをテンプレート記憶手段から読み出すテンプレート読出ステップ、およびトラックどうしおよび音楽グループどうしを対応させて、音響データにミックスダウンデザインテンプレートを適用することによって、ミックスダウン音響データを生成するテンプレート適用ステップを実行させる。
【0014】
第4の発明は、ミックスダウン処理に関するデザイン情報を含むミックスダウンデザインテンプレートを記憶するテンプレート記憶手段を備え、複数のトラックからなる音響データを処理して、より少ないトラック数のミックスダウン音響データを生成する楽曲ミキシング装置において、ミックスダウンデザインテンプレートを抽出するための方法である。この方法は、(a) ユーザ操作に基づくミックスダウン処理において、その対象となった複数のトラックからなる事例音響データに対するミックスダウン処理過程情報を生成するステップ、(b) 事例音響データとミックスダウン処理過程情報とに基づいて、事例音響データにおける音楽グループを抽出するステップ、(c) ミックスダウン処理過程情報から、少なくとも各トラックおよび各音楽グループのそれぞれにおけるミックスダウン処理に関するデザイン情報を抽出し、トラックごとおよび音楽グループごとに対応付けて、ミックスダウンデザインテンプレートを生成するステップ、および(d) ステップ(c) で生成したミックスダウンデザインテンプレートをテンプレート記憶手段に記憶するステップを備える。
【0015】
第5の発明は、ミックスダウン処理に関するデザイン情報を含むミックスダウンデザインテンプレートを記憶するテンプレート記憶手段を備え、複数トラックからなる音響データを処理して、より少ないトラック数のミックスダウン音響データを生成する楽曲ミキシング装置において、ミックスダウンデザインテンプレートを抽出するためのプログラムである。このプログラムは、楽曲ミキシング装置のコンピュータに、ユーザ操作に基づくミックスダウン処理において、その対象となった複数のトラックからなる事例音響データに対するミックスダウン処理過程情報を生成する処理過程情報生成ステップ、事例音響データとミックスダウン処理過程情報とに基づいて、事例音響データにおける音楽グループを抽出する音楽グループ抽出ステップ、ミックスダウン処理過程情報から、少なくとも各トラックおよび各音楽グループのそれぞれにおけるミックスダウン処理に関するデザイン情報を抽出し、トラックごとおよび音楽グループごとに対応付けて、ミックスダウンデザインテンプレートを生成するテンプレート生成ステップ、およびテンプレート生成ステップで生成したミックスダウンデザインテンプレートをテンプレート記憶手段に記憶する記憶ステップを実行させる。
【0016】
【作用】
楽曲ミキシング装置はテンプレート記憶手段を含み、このテンプレート記憶手段には、ミックスダウン処理に関するデザイン情報を含んだミックスダウンデザインテンプレート(以下単に「テンプレート」ともいう。)が記憶される。この楽曲ミキシング装置では、複数のトラックからなる音響データが、ユーザ操作に基づいて、あるいは、テンプレートを利用して、ミックスダウンされ得る。ミックスダウンをする際には、ユーザ操作に応じて、対象とする音響データにおける音楽グループが設定される。これにより、テンプレートの音楽グループとの対応が可能となる。ここで、音楽グループは音楽構成要素に相当し、たとえば、いわゆるサビやAメロディ等のような区切り等であり得る。ユーザ操作によってテンプレートが選択されると、トラックどうしおよび音楽グループどうしを対応させてテンプレートが音響データに適用されることによって、ミックスダウン音響データが生成される。つまり、ユーザは、音響データを、選択したテンプレートの備えるデザインないし特徴等に基づいてミックスダウンすることができる。
【0017】
たとえば、テンプレート記憶手段に記憶されるテンプレートは、ユーザ操作に基づくミックスダウン処理において抽出されたものであってよい。つまり、このような楽曲ミキシング装置では、ユーザ操作に基づくミックスダウン処理において、処理過程情報生成手段によって、その事例音響データに対するミックスダウン処理過程情報が生成される。このミックスダウン事例すなわち事例音響データおよびミックスダウン処理過程情報に基づいて、音楽グループ抽出手段は、事例音響データにおける音楽グループを抽出する。そして、テンプレート生成手段によって、ミックスダウン処理過程情報から少なくとも各トラックおよび各音楽グループのそれぞれにおけるミックスダウンのデザイン情報が抽出され、この抽出された情報がトラックごとおよび音楽グループごとに対応付けられて、テンプレートが生成される。この生成されたテンプレートは、テンプレート記憶手段に記憶(格納)される。したがって、ユーザは、自己のミックスダウンセッションからそのデザインを備えるテンプレートを抽出して、これを保持しておくことができ、そして、抽出したテンプレートを他のセッションで利用することができる。
【0018】
なお、テンプレートに含まれるデザイン情報には、典型的には、たとえば、少なくとも使用されるプラグインの順序とそのパラメータ,音量およびパンに関する情報が含まれてよい。
【0019】
また、テンプレートを適用する際には、音響データのトラックとテンプレートのトラックとをその音楽的機能によって対応付けるようにしてもよい。この場合には、音響データのトラックと同一の楽器ないしパートのトラックがテンプレートにない場合でも、音楽的機能によって対応付けた、たとえば類似するトラックの備えるデザイン情報を適用することが可能になる。
【0020】
さらに、事例音響データにおける音楽グループを抽出する音楽グループ抽出手段は、たとえば次のような音楽グループ候補を抽出する手段および音楽グループを決定する手段を備えてもよい。つまり、第1候補抽出手段によって、事例音響データの各トラックに対して相関分析処理を施して音楽グループ候補が抽出される。また、第2候補抽出手段によって、ミックスダウン処理過程情報における変化に基づいて音楽グループ候補が抽出される。そして、音楽グループ決定手段によって、少なくとも第1候補抽出手段および第2候補抽出手段によって抽出されたそれぞれの音楽グループ候補を組み合わせてみることによって、最終的な音楽グループが決定される。
【0021】
また、テンプレート取得手段を備えるようにした場合には、他の装置からテンプレートを取得して、テンプレート記憶手段に格納することができる。この場合には、たとえば他者のミックスダウンセッションで抽出されたテンプレートを利用することができる。
【0022】
【発明の効果】
この発明によれば、ミックスダウン事例からそのデザイン情報を備えたミックスダウンデザインテンプレートを抽出し、そのテンプレートを他のミックスダウンセッションに利用することができるので、楽曲ミキシングにおける生産性を向上できる。また、アマチュアレベルの人にとっても、容易にかつ様々なミックスダウンを実現することが可能となる。
【0023】
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
【0024】
【実施例】
図1に示すこの実施例の楽曲ミキシング装置10は、中央処理ユニット(以下「CPU」という。)12を含む。CPU12は、コンピュータないしプロセサ等とも呼ばれ、この装置の全体的な制御を司る。この楽曲ミキシング装置10には、たとえばパーソナルコンピュータ(PC)等の計算機が適用され得る。
【0025】
CPU12には、バス等を介して、RAM14,ハードディスク装置(以下「HDD」ともいう。)16,ディスクI/F18,入力装置20,表示装置22,オーディオI/F24および通信I/F等が接続される。
【0026】
RAM14はCPU12の作業領域あるいはバッファ領域として使用される。HDD16にはこの楽曲ミキシング処理およびミックスダウンデザインテンプレート抽出処理等を行うためのプログラムおよび各種データ(画面データ等を含む)が格納されている。したがって、CPU12は、これらプログラムやデータ等をHDD16からRAM14にロードして、これらプログラムに従って処理を実行する。
【0027】
ディスクI/F18には、たとえばCD,DVD等の光ディスク,FD等の磁気ディスクまたは光磁気ディスク等のような情報記録媒体のためのドライブが接続され、したがって、CPU12はこのドライブを制御する。たとえば上述したこの楽曲ミキシング処理等のためのプログラムおよびデータが情報記録媒体に記録されている場合、このディスクI/F18を介してそれらプログラム等が読み出されてHDD16に格納される。また、必要に応じて適宜の情報記録媒体に対して、ミックスダウンされたマスタデータやミックスダウンデザインテンプレートデータ等が書き込まれることもあり得る。
【0028】
入力装置20はユーザが操作する操作手段であり、マウス等のポインティングデバイスおよびキーボード等を含む。この入力装置20の操作に応じた操作信号がCPU12に与えられる。したがって、CPU12は入力装置20を通して与えられたユーザの指示に従った処理を実行する。表示装置22はたとえば液晶表示器(LCD)またはCRT等であり、CPU12から表示信号が与えられて各種画面等が表示される。
【0029】
オーディオI/F24は、たとえばD/AコンバータおよびA/Dコンバータ等を含み、スピーカ28,マイク30および各種楽器32等が接続され得る。オーディオI/F24は、CPU12の制御の下、RAM14に生成されたオーディオデータ(ミックスダウンされた音響データ等)を受け、それに応じた音声信号をスピーカ28または図示しないヘッドフォン等に与える。したがって、スピーカ28等からは音声が出力される。また、オーディオI/F24は、マイク30からのボーカルやコーラス等のパートの音響信号および各種楽器(ギター,ベース,キーボード等)32からの音響信号を受け、それらに応じたオーディオデータ(音響データまたはMIDIデータ等)は、CPU12によってHDD16に保存され得る。
【0030】
通信I/F26はたとえばLANあるいはインタネットのようなネットワーク等と接続され得る。なお、上述したこの楽曲ミキシング処理等のためのプログラム等は、ネットワーク上のサーバ等からダウンロードされてもよい。
【0031】
なお、この実施例では楽曲ミキシングプログラム等をインストールしたPC等を想定して説明しているが、他の実施例では、たとえば内蔵のROM等に予めプログラムおよび各種データ等が格納されている専用装置であってもよい。この場合、入力装置20は、たとえばそのハウジングの表面に設けた、音量スライダやパン制御つまみ等を含む各種ボタンや操作キー等であってよい。
【0032】
図2には、この楽曲ミキシング装置10におけるユーザ操作に基づくミックスダウン事例の概略が示されている。音響データは、複数のトラックからなり楽曲を構成する音素材情報であって、各パートまたは楽器ごとに複数のトラックに分けられてHDD16に格納されている。この図2の例では、トラック1にドラム、トラック2にベース、トラック3にギター1、トラック4にギター2、トラック5にキーボード1、トラック6にキーボード2、トラック7にコーラス、トラック8にメインボーカルがそれぞれ格納される。なお、ユーザは、格納する音素材の楽器名またはパート名等をトラック名として設定することができる。楽曲ミキシング装置10は、ユーザが設定したトラック名等をそのトラックのパートないし楽器を示す音楽的機能情報として保持する。
【0033】
音響データは時系列データであり、この実施例ではたとえばイントロ、Aメロディ、Bメロディ、サビ、Aメロディ、サビの順序で構成されている。楽曲は、一般的にこれらの時系列音楽構成要素ないし楽句(楽曲の自然な区切り、または、まとまった楽想を表わす旋律)により構成されている。本願明細書では、これらイントロ,Aメロディ,Bメロディおよびサビ等のような時系列音楽構成要素を音楽グループというものとする。
【0034】
このような音響データには、ユーザ操作による適宜なミックスダウン作業に基づいて、種々のミックスダウン処理が施される。表示装置22に表示されるGUI上には、たとえば各トラックに対する各種操作のためのアイコンやポップアップ表示される設定画面等が設けられており、ユーザは、入力装置20を操作して所望のアイコン等を選択することによってミックスダウン作業を行う。ユーザは、たとえば各トラックに対して、使用するプラグインを指定し、そのプラグインのパラメータを設定することができる。このプラグインとは音響データに各種のエフェクト付与処理を施すためのプログラムであり、たとえばグラフィックイコライザ,コンプレッサ,リバーブおよびピッチシフト等が含まれる。プラグインは、必要に応じてトラックの所望の箇所(時間帯)に使用することができる。また、1つのトラックに複数のプラグインを順に使用することもできる。また、ユーザは、各トラックの音量のバランスやパン(たとえばL/Rのバランス)等を時間を追って変化させながら設定することができる。そして、たとえばステレオ2トラック(LおよびR)等にミックスダウンされたミックスダウン音響データが生成される。ミックスダウン音響データはマスタデータとして保存され得る。
【0035】
このユーザ操作によるミックスダウン処理において、CPU12は、この音響データに対するユーザ操作に基づいたミックスダウン作業ないし処理過程に関する情報をミックスダウン処理過程データとしてRAM14に作成し、その音響データに対応付けてHDD16に格納する。このようなミックスダウン事例に関するデータ、すなわち、素材となった複数トラックからなる音響データとそれに対するミックスダウン処理過程データとを、ミックスダウン事例データともいう。
【0036】
図3には、作成されるミックスダウン処理過程データの一例が示される。図3からわかるように、ミックスダウン処理過程データは、各トラックに対するそれぞれのミックスダウン処理情報を含む。ミックスダウン処理情報は時系列情報であり、たとえば使用プラグインの順序とそのプラグインのパラメータ,音量に関する情報およびパンに関する情報等を含む。また、ミックスダウン処理過程データには、複数のトラックにかかるミックスダウン処理情報および全体にかかるミックスダウン処理情報が含まれる。これらは、たとえばそれぞれのトラックに対するミックスダウン処理の後に、複数のトラックおよび全トラックに対してまとめて施される処理に関する情報である。
【0037】
そして、楽曲ミキシング装置10では、必要に応じて、ミックスダウン事例からミックスダウンデザインテンプレート(以下単に「テンプレート」ともいう。)が抽出される。従来の技術の項でも述べたように、楽曲のミキシングは実施の仕方およびミキシングエンジニアによって異なるものであり、ミックスダウンのデザインにはその人の個性特徴が表れる。したがって、この楽曲ミキシング装置10では、ある楽曲のミックスダウン事例からその特徴を抽出して、テンプレートを作成する。
【0038】
テンプレートの抽出の際には、ミックスダウン事例データに基づいて、まず、その音響データの時系列構成要素である音楽グループが抽出される。ミックスダウンの特徴は音楽グループによって異なるものになる傾向があるためである。音楽グループ抽出処理においては、たとえば、各トラックの音響データにおける相関分析,各トラックのミックスダウン処理情報の変化点の解析,およびリズム楽器のトラックの波形包絡の相関分析等によってそれぞれグループ候補が抽出される。そして、それぞれの候補抽出処理の結果を、たとえば重み付投票等によって組み合わせてみることによって、最終的な音楽グループが確定される。
【0039】
続いて、ミックスダウン処理過程データから、トラックごとおよび音楽グループごとのミックスダウン処理情報が抽出され、さらに、音楽グループごとの複数トラックおよび全体にかかるミックスダウン処理情報が抽出される。抽出したミックスダウン処理情報はミックスダウンのデザイン情報であり、これらデザイン情報を音楽グループおよびトラックの音楽的機能に対応付けることによってミックスダウンデザインテンプレートデータが作成される。
【0040】
図4には、作成されるミックスダウンデザインテンプレートのデータの一例が示される。図4からわかるように、ミックスダウンデザインテンプレートデータは、各トラックに対するミックスダウンデザイン情報を含む。各トラックに対するミックスダウンデザイン情報は、そのトラックのパートないし音楽的機能を示す情報と、各音楽グループにおけるミックスダウンデザイン情報とを含む。図4では、トラック1の音楽的機能はドラムであり、音楽グループとしては、イントロ,サビ,AメロディおよびBメロディ等を備えている。各音楽グループにおけるミックスダウンデザイン情報には、使用されるプラグインの種類とその順序に関する情報,使用されるプラグインごとのパラメータに関する情報,音量に関する情報およびパンに関する情報等が含まれている。また、ミックスダウンデザインテンプレートデータは、複数のトラックにかかるミックスダウンデザイン情報および全体にかかるミックスダウンデザイン情報も備えている。これらも各トラックに対するミックスダウンデザイン情報と同様な情報を備えている。
【0041】
また、楽曲ミキシング装置10では、ミックスダウンデザインテンプレートを利用して、ミックスダウン処理を行うことができる。図5には、ミックスダウンデザインテンプレートを適用して行うミックスダウン処理の概略が示されている。
【0042】
図5では、ミックスダウン対象とする音響データとして、トラック1にドラム、トラック2にベース、トラック3にギター1、トラック4にギター2、トラック5にキーボード1、トラック6にキーボード2、トラック7にコーラス、トラック8にメインボーカルがそれぞれ格納されている。各トラックの音楽的機能は、ユーザによってたとえば音響データを録音(格納)する際等に設定され得る。
【0043】
また、この音響データは、その音楽グループがサビ、Aメロディ、サビ、Aメロディ、Bメロディ、サビの順に並んで構成されている。音響データのどの部分がどの音楽グループであるかは、ミックスダウンデザインテンプレートの適用前に、ユーザによって設定される。これにより、テンプレートの同じ音楽グループにおけるミックスダウンデザイン情報を適用することが可能となる。
【0044】
そして、ミックスダウンデザインテンプレートを適用することによって、たとえばステレオ2トラック等にミックスダウンされたミックスダウン音響データが生成される。
【0045】
テンプレートを利用したミックスダウンを行う際には、表示装置22にたとえば図6に示すようなミックスダウンデザインテンプレートのリストが表示される。ユーザは入力装置20を操作して、このリストから適用したいテンプレートを選択することができる。このリストに表示されるテンプレートは、ユーザが過去のミックスダウンセッションで抽出作成したテンプレートを含む。
【0046】
選択されたテンプレートを適用してミックスダウンする際には、テンプレートの各トラックの音楽的機能と、対象音響データのトラックの音楽的機能とのマッチングないし対応付けが行われる。対象音響データのトラックに、その音楽的機能が同一または類似するもののミックスダウンデザイン情報を適用するためである。テンプレートデータには、図4からわかるように、たとえばそのトラックの音楽的機能を示す情報が格納されているので、マッチングが可能となる。
【0047】
なお、テンプレートに、対象音響データの各トラックの音楽的機能と同じ音楽的機能のトラックに対するミックスダウンデザイン情報が格納されていない場合には、たとえば、その音楽的機能と類似するような音楽的機能のトラックに対するミックスダウンデザイン情報を適用する。つまり、たとえば対応付ける音楽的機能の情報を示すマッチングテーブル等を準備しておけばよい。これによって、たとえば、ストリングスとキーボード等とが対応付けられたり、ドラムと他のリズム楽器ないし打楽器(パーカッション等)とが対応付けられたりする。
【0048】
そして、マッチングされたトラックどうしを対応させ、かつ、同じ音楽グループどうしを対応させて、音響データにテンプレートのミックスダウンデザイン情報が適用される。上述のように、ミックスダウンデザイン情報には、ミックスダウン事例から得られた、使用プラグインの種類とその順序に関する情報,使用プラグインごとのパラメータに関する情報,音量に関する情報およびパンに関する情報等が含まれている。したがって、テンプレートを適用することによって、そのテンプレートの備えるミックスダウンのデザインないし特徴に基づいてミックスダウンされたミックスダウン音響データが生成される。
【0049】
このようにして、テンプレートを選択するだけで、そのテンプレートの有するミックスダウンデザインの特徴が適切に反映された音響データが作成される。つまり、ユーザは、これから作ろうとしている楽曲のイメージに適合するような特徴を備えたミックスダウンデザインテンプレートを選択して適用することによって、素材の音響データを自らの思い描いた通りのあるいはイメージに近い雰囲気をもった楽曲に簡単に仕上げることができる。したがって、すべてのトラックおよび音楽グループに対していちいち手作業でミックスダウン処理のための操作を行っていく必要がないので、ミックスダウンにおける生産性を向上することができる。
【0050】
図7には、この楽曲ミキシング装置10における楽曲ミキシング動作が示される。楽曲ミキシング装置10においてこの楽曲ミキシングプログラムが起動されると、まず、ステップS1において、CPU12は、ユーザ操作に応じてミックスダウン対象とする音響データを取得してHDD16に格納する。この際に、上述したように、各トラックにはユーザ操作に応じてその格納される音響データの楽器,パート等の音楽的機能が設定される。
【0051】
次に、ステップS3で、CPU12はテンプレートを用いてミックスダウンするのか否かを判断する。ステップS3で“NO”であれば、つまり、たとえば図示しない画面上でテンプレート利用メニュー等が選択されなかった場合には、続くステップS5で、CPU12は、ユーザ操作に基づく入力装置20からの操作信号に応じて、通常のミックスダウンのための各種処理を実行する。
【0052】
ここでは、ユーザは入力装置20を操作して、各トラックに対する使用プラグインの選択,そのパラメータの設定や音量およびパン等の制御等を行う。CPU12は、ユーザ操作に従った処理を施した音響データをRAM14に生成し、これをオーディオI/F24を介してスピーカ28から出力する。ユーザはスピーカ28から再生される音声によって、自らのミックスダウン作業の良否を確認できる。このようにして、最終的にミックスダウンされたミックスダウン音響データがRAM14に生成される(図2も参照)。
【0053】
さらに、CPU12は、ステップS7で、そのミックスダウン処理過程ないし作業過程の情報を含む図3に示すようなミックスダウン処理過程データをRAM14に生成し、ステップS9で、ミックスダウン処理過程データを音響データと対応付けてHDD16に格納する。この音響データとそれに対するミックスダウン処理過程データとはたとえばミックスダウン事例データとして格納され得る。
【0054】
そして、ステップS11で、テンプレートを抽出するか否かを判断する。ステップS11で“YES”であれば、つまり、ユーザ操作によってたとえば図示しない画面上のテンプレート抽出ボタン等が選択された場合には、CPU12は、続くステップS13で、ミックスダウンデザインテンプレートの抽出処理を実行する。このステップS13のテンプレート抽出処理によって、たとえばステップS5で実行されたミックスダウンセッションの特徴を備えた、図4に示すようなミックスダウンデザインテンプレートデータが作成されることとなる。このテンプレート抽出処理は図8に詳細に示されるが、その説明は後述する。
【0055】
一方、ステップS3で“YES”であれば、つまり、たとえば図示しない画面上でテンプレート利用メニュー等が選択された場合には、CPU12は、ステップS21でミックスダウンデザインテンプレートを用いるミックスダウン処理を実行する。このステップS21の処理によって、たとえば図5に示すようにミックスダウンされた音響データが生成されることとなる。このテンプレートを利用するミックスダウン処理は、図17に詳細に示されるが、その説明は後述する。
【0056】
ステップS11で“NO”であれば、あるいは、ステップS13またはステップS21の処理を終了すると、CPU12は、ステップS15でマスタデータを保存するか否かを判断する。このステップS15で“YES”であれば、つまり、たとえば図示しない画面上でマスタデータ保存ボタン等が選択された場合等には、ステップS17で、CPU12は、RAM14に生成されたミックスダウン音響データをHDD16にマスタデータとして格納する。
【0057】
一方、ステップS15で“NO”であれば、またはステップS17の処理を終了すると、ステップS19で、CPU12は、このミックスダウンセッションを終了するか否かを判断する。ステップS19で“NO”であれば、ステップS3に戻ってこの音響データに対する処理を繰返す。ステップS19で“YES”であれば、必要な終了処理を実行してこのセッションを終了する。
【0058】
図8には、図7におけるステップS13のミックスダウンデザインテンプレート抽出処理の動作が示される。図8に示すように、CPU12は、まず、ステップS31で、ミックスダウン事例データを取得する。つまり、CPU12はHDD16から音響データとこの音響データに対するミックスダウン処理過程データとを読み出してRAM14の所定エリアに書き込む。
【0059】
次に、CPU12は、ステップS33で、音響データの各トラックの音量を正規化する。つまり、各トラックの音量を揃えることによって、音量に関するミックスダウン処理の特徴を抽出できるようにする。
【0060】
続くステップS35で、CPU12は、ミックスダウン事例データに基づく音楽グループ抽出処理を実行する。このステップS35の処理によって、事例データの音響データにおける音楽グループが抽出される。このステップS35の処理は、図9に詳細に示されるが、その説明は後述する。
【0061】
次に、ステップS37では、CPU12はミックスダウン処理過程データからトラックごとおよび音楽グループごとのミックスダウンデザイン情報を抽出する。つまり、ミックスダウン処理過程データは、図3に示すように、各トラックに対するミックスダウン処理情報を含んでいるので、これらからステップS35の処理で抽出されたそれぞれの音楽グループにおけるミックスダウン処理に関するデザイン情報が抽出される。
【0062】
続くステップS39では、CPU12は、音楽グループごとの、複数トラックおよび全体にかかるミックスダウンデザイン情報を抽出する。つまり、ミックスダウン処理過程データは、図3に示すように、複数のトラックおよび全体にかかるミックスダウン処理情報を含んでいるので、これらからそれぞれの音楽グループにおけるミックスダウン処理に関するデザイン情報が抽出される。
【0063】
そして、ステップS41で、CPU12は、抽出したミックスダウンデザイン情報をトラックの音楽的機能および音楽グループに対応付けることによって、たとえば図4に示すようなミックスダウンデザインテンプレートのデータをRAM16の所定エリアに作成する。
【0064】
続くステップS43では、CPU12は、作成したミックスダウンデザインテンプレートのデータをHDD16に格納する。このとき、ユーザはミックスダウンデザインテンプレートの名称を設定することができ、テンプレートはその名称とともに保存される。保存されたテンプレートは、その後、テンプレートを利用したミックスダウン処理を行う際に、テンプレートリストに表示されることとなる。このステップS43の処理を終了すると、図7のフローに戻ってステップS15へ進む。
【0065】
図9には、図8におけるステップS35のミックスダウン事例データに基づく音楽グループ抽出処理の動作が示される。図9に示すように、CPU12は、まず、ステップS51で、各トラックにおいて音量の時系列データのヒストグラム処理によって最小基本ビートを抽出する。
【0066】
次に、ステップS53で、CPU12は、各トラックの時間周波数マップに対して最小基本ビート単位での時間ずらしによって相関分析処理を実行する。これによって、基本ビートごとの相関を知ることができる。たとえば図10には、あるトラックデータの第1ビート目に対する相関が示されている。ここでは相関が高い場合ほど濃く描かれており、ずらし幅が0(自己相関),10および16のときに、強い相関があることがわかる。
【0067】
そして、ステップS55で、CPU12は相関マップデータを作成する。つまり、最小ビートを単位として第2ビート目以降のビートについても、それぞれステップS53と同様の処理を繰返していくことによって、相関マップx(i,j)を得る。たとえば図11には相関マップの一例が示される。この図11から明らかなように、繰返し成分があると斜めの線が表れる。ただし、最も左側の斜線は自己相関に相当する。
【0068】
続いて、ステップS57で、CPU12はこの相関マップに対してマスク処理を実行する。この処理によって、複数連続して同様な動きないしパターンがある部分を検出することができる。たとえば、2連続パターンを抽出するためのマスク処理は次のように表わされる。x(i,j)=1/2*x(i,j)+1/2*x(i+1,j+1)
【0069】
このような2連続パターン抽出のマスク処理を施した相関マップの一例が図12に示される。これは、図12中で“●”で示した部分に対しての(1/2,1/2)の積和フィルタ処理に相当する。このマスク処理を施した図12の相関マップにおいて左側の曲線は、プロジェクションプロフィール(投影縦断図)を示していて、その行からスタートする繰返しパターンの数を行ごとに足し込んだものであって、その数が多ければ多いほど大きな値となる。
【0070】
また、図13には、4連続パターン抽出処理を施した相関マップの一例が示される。なお、これは(1/4,1/4,1/4,1/4)の積和フィルタ処理に相当する。さらにまた、図14には、8連続パターンの抽出処理を施した相関マップの一例が示される。
【0071】
ステップS59(図9)で、CPU12は、繰返しパターンをグループ候補として抽出する。つまり、まず、ステップS57の処理で得られた相関マップ中のプロジェクションプロフィールを見て、値の大きなローカルピークを探索することによって、音楽グループ候補のスタートポイントを得る。たとえば図14の8連続パターンの抽出処理の場合、9行目、すなわち第9ビート目に、ピークを検出でき、したがって、ここがスタートポイントとなる。そして、繰返し数は8個であるから、9番目から8個分の並びをグループ候補として検出することができる。そして、その行において相関値の高いものを探索していくことで、同一グループを選出していくことができる。そのグループの基本的な強さを、(そのグループに属するビート単位数)/(全体のビート単位数)で与える。
【0072】
そして、ステップS61で、CPU12はグループ候補の相関値レベルを算出する。つまり、それぞれのグループ候補から見て、他のそれぞれの同一と判断されるグループの相関値の平均を算出し、それをそのグループの相関値レベルとして保持する。
【0073】
続くステップS63で、CPU12は、たとえば2*3(m,nは0以上の整数。)の並びのデータに対しての処理を実施したか否かを判断する。この2*3の並びのデータは、音楽の繰返しとして見られるものに相当するものである。
なお、他の実施例では、全ビート単位数の半数の並びのデータに対して処理したか否かを判断するようにしてもよい。
【0074】
このステップS63で“NO”であれば、つまり、まだ処理が残っていれば、ステップS57へ戻って、その並びの連続パターンを抽出するための処理を繰返す。一方、ステップS63で“YES”であれば、つまり、既に必要数の並びのデータに対して処理を実施した場合には、ステップS65へ進む。
【0075】
なお、ステップS53〜S63の処理は単音旋律楽器のトラックデータのみならずリズム楽器やポリフォニのトラックデータであっても同様に適用することによって、音楽グループ候補を抽出可能である。
【0076】
ステップS65では、CPU12は、各トラックにおいて、ミックスダウン処理情報の変化点に基づいてグループ候補を抽出する。つまり、各トラックに対する音量やパンの制御、使用されるプラグインの種類とそのパラメータ等は、音楽グループの境界で変えられる傾向がある。したがって、ミックスダウン処理過程データを解析してこれらの変化点を抽出することによって、グループ候補を抽出する。
【0077】
続いて、ステップS67では、リズム楽器のトラックにおいて、波形の包絡の相関分析によってグループ候補を抽出する。図15(A)には、リズム楽器の波形の包絡が示され、図15(B)には、そのスペクトルマップが示される。波形の包絡は音量分布に一致し、この例では一拍0.55秒程度であることがわかる。リズム楽器については、このような波形の包絡の類似性計算によって、グループ候補を抽出する。
【0078】
なお、図15(B)のスペクトルマップからわかるように、一拍以下の細かいリズムにも相関があることがわかる。したがって、ボーカルやベース等のようなピッチを持つ楽器ないしパートのスペクトルマップは、それぞれの場所の周波数データが含まれていて、より判別能力の高い情報源となり得る。したがって、これらのトラックの相関分析から得られるグループ候補は、より重みのある、または、確実性のある情報として扱うことができる。なお、ギター等のようなハーモニ楽器については、スペクトルマップを2次元画像と見て、そのまま相関分析を行うようにすればよい。
【0079】
続くステップS69では、CPU12は、それぞれのグループ候補抽出処理の結果を組み合わせてみて、最終的な音楽グループを抽出する。ここまでの処理によってそれぞれのトラックごとに複数の繰返し数に基づくグループ候補が相関値のレベル付で抽出されている。したがって、たとえば、それぞれのトラックごとに、同一グループと判断する場所(時間帯)に重みを付けて投票を行う(所定の値を代入して足し合わせる)。そして、その値が大きいグループ候補を音楽グループであると判断する。続いて、ステップS71で、CPU12は確定した音楽グループにそれぞれラベルを付与する。
【0080】
たとえば図16には、確定した音楽グループが示されている。各トラックは、それぞれの候補抽出処理によって得られたグループ候補に分けられていて、それらを組み合わせて総合することによって、音楽グループが確定されている。図16では音楽グループは、たとえばギター1の収められたトラック3を例に挙げると、「T3−1」、「T3−2,T3−3,T3−2,T3−3」、「T3−4」、「T3−5,T3−6」、「T3−7,T3−8」、「T3−9」、そして「T3−2,T3−3,T3−2,T3−3」の7つに分離される。第2と第7のグループは繰返して表れる同じグループである。そして、各音楽グループには順にA,B,C,D,E,F,Bのラベルが設定される。
【0081】
音楽グループのラベルの設定について、図16では単にA,B,…であるが、ステップS71では名称の設定まで行なわれ得る。たとえば、まず、「サビ」は、ボーカルが高い音で歌う傾向があり、したがって、ボーカルの目立つグループをサビとして判別することができる。なお、サビは繰返される傾向があるので、繰返されているか否かも判断材料の一つになり得る。また、「イントロ」は楽曲の開始部分のグループに設定され得る。さらに、「Aメロディ」は、サビ以外の部分の第1のグループに対して設定され、「Bメロディ」は、サビ以外の部分で、Aメロとは別の第2のグループに対して設定され得る。
【0082】
このステップS71の処理を終了すると、図8に戻ってステップS35へ進む。
【0083】
図17には、図7におけるステップS21のミックスダウンデザインテンプレートを用いるミックスダウン処理の動作が示される。図17に示すように、CPU12は、まず、ステップS81で、ミックスダウン対象とする音響データの各トラックの音楽的機能の情報を取得する。各トラックの音楽的機能は、たとえばHDD16への録音ないし記憶の際等にユーザの入力によって設定されているので、CPU12はその情報を読み出してRAM14の所定エリアに書き込む。たとえば図5の例では、トラック1〜8の音楽的機能は順にドラム,ベース,ギター1,ギター2,キーボード1,キーボード2,コーラスおよびメインボーカルである。
【0084】
次に、ステップS83で、CPU12は、ミックスダウン対象とする音響データにおける音楽グループの情報を取得する。対象音響データの音楽グループはユーザの入力によって設定され、CPU12はその情報を受けてRAM14の所定エリアに書き込む。たとえば図5の例では、音響データの音楽グループはサビ,Aメロディ,サビ,Aメロディ,Bメロディおよびサビの順になっている。ユーザは、たとえば図示しない音楽グループ設定画面等において、トラックを複数の時間帯に分割して各時間帯に対応する音楽グループ名を入力すること等によって、音楽グループを設定できる。
【0085】
続くステップS85で、CPU12は、たとえば図6に示すようなミックスダウンデザインテンプレートのリストを表示装置22に表示する。ユーザは、このリストから適用したいテンプレートを入力装置20を操作するによって選択することができる。
【0086】
ステップS87で、CPU12は、ユーザ操作によっていずれかのミックスダウンデザインテンプレートが選択されたか否かを判断する。ステップS87で“YES”であれば、つまり、リスト中いずれかのテンプレートが選択された場合には、続くステップS89で、CPU12は、選択されたテンプレートのデータをHDD16から読み出してRAM14の所定エリアに書き込み、そのテンプレートにおける各トラックと、ミックスダウン対象の音響データの各トラックとを、その音楽的機能によってマッチングないし対応付けを行う。これによって、音響データの各トラックには、その音楽的機能が同一または類似するテンプレートのトラックのミックスダウンデザイン情報が適用されることとなる。
【0087】
続いて、ステップS91では、CPU12は、ステップS89でマッチングされたトラックどうしおよび音楽グループどうしを対応させて、対象音響データにテンプレートのミックスダウンデザイン情報を適用することによって、ミックスダウンされたミックスダウン音響データをRAM14の所定エリアに生成する。
【0088】
そして、ステップS93で、CPU12は、生成したミックスダウン音響データをたとえばオーディオI/F24に与えてスピーカ28から再生する。したがって、ユーザは、選択したテンプレートの適用によって音響データがどのようにミックスダウンされたかを聴取して確認することができる。
【0089】
ステップS95では、CPU12は、ユーザによって、適用するテンプレートが変更されたか否かを判断する。ステップS95で“YES”であれば、つまり、たとえばユーザによって図示しない画面上のテンプレート変更ボタン等が選択された場合等には、ステップS85へ戻って処理を繰返す。
【0090】
一方、ステップS95で“NO”であれば、つまり、ユーザがテンプレートの変更を選択しなかった場合には、ステップS97で、CPU12は、ユーザによって、ミックスダウン音響データの調整が行われるか否かを判断する。ステップS97で“YES”であれば、つまり、たとえばユーザが図示しない画面上で音響データの調整操作をした場合には、ステップS99で、CPU12は、ユーザの調整操作に基づいたミックスダウン音響データを生成し、ステップS93へ戻って処理を繰返す。このように、ユーザはさらに微調整を行って、自己の好みあるいはデザインにより近い楽曲に仕上げることができる。
【0091】
ステップS97で“NO”であれば、つまり、ユーザによってもはや調整操作が行われない場合には、図7のフロー図に戻って、ステップS15へ進む。
【0092】
この実施例によれば、実際のミックスダウン事例からテンプレートを抽出し、その抽出したテンプレートを他のミックスダウンセッションに利用することができるので、ミックスダウンの生産性を向上することができる。
【0093】
なお、ミックスダウンデザインテンプレートは、過去の自己のミックスダウンセッションで抽出されたものに限られるものではない。つまり、他の実施例では、他者のミックスダウンセッションで抽出されたテンプレートが取得されてもよい。たとえば図6のリストに一緒に示した“デザインテンプレート_プロデューサC(またはD)”は、プロデューサC(またはD)のミックスダウンセッションで抽出されたテンプレートである。他者のテンプレートは、たとえば通信I/F26を介してインタネット上の配信サーバからダウンロードすることによって取得することができるし、または適宜な情報記録媒体からディスクI/F18等を介してHDD16に取得(格納)するようにしてもよい。
【0094】
このように、自己のミックスダウンセッション以外で抽出されたテンプレートを利用できるので、アマチュアユーザにとって、従来困難であったミックスダウン作業を最初から簡単に行うことができるし、様々なデザインのミックスダウンを実現することができる。たとえばプロのミキシングエンジニアまたはプロデューサ等によるテンプレートを利用することもできるので、自らの楽曲をそのプロの作風ないしテイストで仕上げた別バージョンを簡単に制作できるし、また、たとえばTPOに応じて楽曲の雰囲気を変化させるといった従来にない楽しみ方もすることができる。
【0095】
一方のプロ側としては、自己の制作活動の生産性を向上できるのみならず、抽出したミックスダウンデザインテンプレートを、たとえばインタネット上の配信サーバや適宜な情報記録媒体等によって流通させることによって、新たなビジネスを創成することも可能となる。
【図面の簡単な説明】
【図1】この発明の一実施例の楽曲ミキシング装置の内部構成を示すブロック図である。
【図2】ユーザ操作によるミックスダウン事例の概略を説明するための図解図である。
【図3】図1実施例のRAMに記憶されるミックスダウン処理過程データを示す図解図である。
【図4】図1実施例のRAMに記憶されるミックスダウンデザインテンプレートデータを示す図解図である。
【図5】ミックスダウンデザインテンプレートを適用して行うミックスダウンの概略を説明するための図解図である。
【図6】図1実施例の表示装置に表示されるミックスダウンデザインテンプレートのリスト画面の一例を示す図解図である。
【図7】図1実施例における楽曲ミキシング処理の動作を示すフロー図である。
【図8】図7におけるミックスダウンデザインテンプレートの抽出処理の動作を示すフロー図である。
【図9】図8におけるミックスダウン事例データに基づく音楽グループ抽出処理の動作を示すフロー図である。
【図10】基本ビート単位での相関分析処理を説明するための図解図である。
【図11】基本ビート単位での相関分析処理による相関マップの一例を示す図解図である。
【図12】図11の相関マップに対して2連続パターン抽出のためのマスク処理を施した場合の相関マップの一例を示す図解図である。
【図13】図11の相関マップに対して4連続パターン抽出のためのマスク処理を施した場合の相関マップの一例を示す図解図である。
【図14】図11の相関マップに対して8連続パターン抽出のためのマスク処理を施した場合の相関マップの一例を示す図解図である。
【図15】リズム楽器の音響データを示す図解図であり、(A)は波形の包絡を示し、(B)はスペクトルマップを示す。
【図16】音楽グループ確定の概略を説明するための図解図である。
【図17】図7におけるミックスダウンデザインテンプレートを用いるミックスダウン処理の動作を示すフロー図である。
【符号の説明】
10 …楽曲ミキシング装置
12 …CPU
14 …RAM
16 …HDD
18 …ディスクI/F
20 …入力装置
22 …表示装置
24 …オーディオI/F
26 …通信I/F
[0001]
[Industrial application fields]
The present invention relates to a music mixing apparatus, method and program, and a template extraction method and program, and in particular, for example, processing acoustic data composed of a plurality of tracks to generate mixed down acoustic data mixed down to a smaller number of tracks. The present invention relates to a music mixing apparatus, method, and program, and template extraction method and program that can easily realize various designs related to music (music) mixing.
[0002]
[Prior art]
An example of this type of conventional music mixing device is disclosed in Patent Document 1, for example. The device of Patent Document 1 is a device dedicated to mixing (so-called multi-track digital recorder / mixer). For example, an audio signal for each part such as an instrument such as a drum or a guitar or a vocal is divided into a plurality of tracks on a built-in hard disk. Recorded (memorized). These track data are mixed down by the operation of a user (for example, a mixing engineer). Mixdown refers to an operation or operation for processing / mixing sound materials that have been recorded in a plurality of tracks while processing / mixing them, and collecting them into fewer tracks.
[0003]
For example, in this dedicated device, the user manually operates various operation means such as a volume fader and a pan control knob for each track provided on the panel while reproducing a necessary track. In response to the user's operation, the built-in CPU, DSP, and the like perform effect applying processing and sound image localization processing (panning) on each track data, and these are mixed and finally mixed into, for example, two stereo tracks. Audio data of one downed music is generated. This data becomes master data for a CD press, for example.
[0004]
On the other hand, recent commercial music mixing can be performed using a general-purpose computer such as a personal computer (PC), for example, by converting the processing performed in the above-described dedicated device into a software program. It is getting more. As this type of software or application, for example, “PRO TOOLS (registered trademark) LE” (manufactured by Digidesign Japan or Avid Japan Co., Ltd.) is well known. In addition, since a manual (manual) of this software is available on the Internet, this is cited as Non-Patent Document 1.
[0005]
In a PC in which such a program is installed, that is, a music mixing apparatus, audio data (acoustic data or the like) for each part is recorded (stored) in a plurality of tracks, for example, on a hard disk. Then, the user operates an input device such as a mouse to reproduce necessary tracks, for example, adjustment of volume faders and pan control sliders on the GUI displayed on the display, and selection of various plug-ins (effect application processing programs). And by setting parameters of the plug-in and the like, mixed down data is created.
[0006]
The mixing of music or music varies depending on the implementation method and the mixing engineer who performs the implementation. The result appears as a large difference in hearing, for example, giving the listener the impression that it is a different piece of music even if it is the same sound material. In other words, the personality characteristics of the person appear in the mixdown design. This can also be seen from the fact that a song produced by a particular producer is often commercially successful, or that a remix version by another engineer is more commercially successful than the original song.
[0007]
[Patent Document 1]
JP 2001-43604 A (FIG. 1 etc.)
[Non-Patent Document 1]
“Pro Tools Reference Guide Version 5.3 for HD Systems on Macintosh or Windows / Version 5.1.1 for MIX or LE Systems on Macintosh or Windows”, [online], Digidesign Japan, [searched November 14, 2002], Internet < URL: http://www.degidesign.co.jp/japan/serv/pdf/pt_hd_guide_i/PT5.3_Ref_Guide_E.pdf>
[0008]
[Problems to be solved by the invention]
However, effective mixing is not easy. In the prior art, there is a problem that good quality master data cannot be obtained if mixing is performed by a person who lacks mixing technology. It was especially difficult for amateur-level people to achieve a mixdown as designed or intended. For this reason, a mixing engineer training system has been developed that supports the training by providing feedback based on the acoustic analysis of the master data (analysis of sound image localization, frequency characteristics, etc.). It is cumbersome for amateurs like to go in.
[0009]
Therefore, a main object of the present invention is to provide a music mixing apparatus, a method and a program, and a template extraction method and a program capable of improving productivity in music mixing.
[0010]
[Means for Solving the Problems]
A first aspect of the present invention is a music mixing apparatus that processes sound data composed of a plurality of tracks based on a user operation and generates mixed down sound data mixed down to a smaller number of tracks. Template storage means for storing a mixdown design template including design information related to the mixdown process associated with each music group corresponding to the music group, music group setting means for setting a music group in acoustic data to be applied to the template, and track A template application means for generating mixdown sound data by applying a mixdown design template to sound data by making the music groups and music groups correspond to each other is provided. A single device.
[0011]
In the first invention described above, in the mixdown process based on the user operation, the process process information generating means for generating the mixdown process process information for the case acoustic data composed of a plurality of tracks, the case acoustic data, Based on the mixdown process information, the music group extraction means for extracting the music group in the case acoustic data and the design information on the mixdown process in each track and each music group are extracted from the mixdown process information. And a template generation unit that generates a mixdown design template in association with each track and each music group, and the mixdown design template generated by the template generation unit is a template. It may be stored in the over preparative storage means.
[0012]
The second invention includes template storage means for storing a mixdown design template including design information related to a mixdown process associated with at least each track and each music group corresponding to a music component, and is a mixdown target. This is a music mixing method in a music mixing apparatus that processes sound data composed of a plurality of tracks and generates mixed-down sound data having a smaller number of tracks. The method includes the steps of (a) setting a music group in acoustic data in accordance with a user operation, (b) reading a mixdown design template selected by the user operation from a template storage means, and (c) tracks between each other. And generating the mixdown sound data by associating the music groups with each other and applying the mixdown design template read in step (b) to the sound data.
[0013]
The third invention comprises template storage means for storing a mixdown design template including design information related to a mixdown process associated with at least each track and each music group corresponding to a music component, and is a mixdown target This is a music mixing program that is executed in a music mixing apparatus that processes sound data composed of a plurality of tracks and generates mixdown sound data with a smaller number of tracks. This program includes a music group acquisition step of acquiring music group setting information in acoustic data in response to a user operation, and a template reading for reading out a mixdown design template selected by the user operation from a template storage means. A template applying step of generating mixdown sound data is performed by applying the mixdown design template to the sound data in association with the steps and between the tracks and the music groups.
[0014]
4th invention is equipped with the template memory | storage means which memorize | stores the mixdown design template containing the design information regarding a mixdown process, processes the acoustic data which consists of several tracks, and produces | generates the mixdown acoustic data of a smaller track number This is a method for extracting a mixdown design template in a music mixing device. In this method, (a) in the mixdown process based on user operation, the step of generating mixdown process information for the case acoustic data consisting of a plurality of tracks, (b) the case acoustic data and the mixdown process A step of extracting a music group in the case acoustic data based on the process information, and (c) extracting at least each track and design information on the mixdown process in each music group from the mixdown process information. And a step of generating a mixdown design template in association with each music group, and a step of (d) storing the mixdown design template generated in step (c) in the template storage means.
[0015]
The fifth invention includes template storage means for storing a mixdown design template including design information related to the mixdown process, and processes the audio data composed of a plurality of tracks to generate mixdown audio data with a smaller number of tracks. This is a program for extracting a mixdown design template in a music mixing apparatus. This program is a processing process information generating step for generating mixdown process process information for case acoustic data consisting of a plurality of target tracks in a mixdown process based on a user operation. Based on the data and the mixdown process information, the music group extraction step for extracting the music group in the case acoustic data, and the design information on the mixdown process at least for each track and each music group from the mixdown process information A template generation step for extracting and generating a mixdown design template in association with each track and music group, and the mixdown design generated in the template generation step To execute a storage step of storing the Plates in the template storage means.
[0016]
[Action]
The music mixing apparatus includes template storage means, which stores a mixdown design template (hereinafter also simply referred to as “template”) including design information related to the mixdown process. In this music mixing apparatus, acoustic data composed of a plurality of tracks can be mixed down based on a user operation or using a template. When the mixdown is performed, a music group in the target acoustic data is set according to a user operation. Thereby, correspondence with the music group of a template is attained. Here, the music group corresponds to a music component, and can be, for example, a delimiter such as a so-called chorus or A melody. When the template is selected by the user operation, the mixdown sound data is generated by applying the template to the sound data so that the tracks and the music groups are associated with each other. That is, the user can mix down the acoustic data based on the design or characteristics of the selected template.
[0017]
For example, the template stored in the template storage unit may be extracted in a mixdown process based on a user operation. That is, in such a music mixing apparatus, in the mixdown process based on the user operation, the process information generation unit generates the mixdown process information for the case acoustic data. Based on the mixdown case, that is, the case acoustic data and the mixdown process information, the music group extracting means extracts a music group in the case acoustic data. Then, the template generation means extracts mixdown design information for each track and each music group from the mixdown process information, and this extracted information is associated with each track and each music group. A template is generated. The generated template is stored (stored) in the template storage unit. Therefore, the user can extract a template having the design from his / her mixdown session and keep it, and can use the extracted template in another session.
[0018]
Note that the design information included in the template may typically include, for example, at least information on the order of plug-ins used and their parameters, volume, and pan.
[0019]
Further, when applying the template, the acoustic data track and the template track may be associated with each other by their musical function. In this case, even when the template of the same instrument or part as the track of the acoustic data is not included in the template, it is possible to apply design information provided by, for example, a similar track associated with a musical function.
[0020]
Furthermore, the music group extracting means for extracting the music group in the case acoustic data may include, for example, the following means for extracting music group candidates and means for determining the music group. That is, the first candidate extracting means performs a correlation analysis process on each track of the case acoustic data to extract music group candidates. Further, music group candidates are extracted by the second candidate extraction means based on the change in the mixdown process information. Then, the final music group is determined by combining at least the music group candidates extracted by the first candidate extraction unit and the second candidate extraction unit by the music group determination unit.
[0021]
When a template acquisition unit is provided, a template can be acquired from another device and stored in the template storage unit. In this case, for example, a template extracted in another person's mixdown session can be used.
[0022]
【The invention's effect】
According to the present invention, a mixdown design template including the design information can be extracted from the mixdown case, and the template can be used for another mixdown session. Therefore, productivity in music mixing can be improved. In addition, it is possible for an amateur-level person to easily perform various mixdowns.
[0023]
The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
[0024]
【Example】
A music mixing apparatus 10 of this embodiment shown in FIG. 1 includes a central processing unit (hereinafter referred to as “CPU”) 12. The CPU 12 is also called a computer or a processor, and controls the entire apparatus. For example, a computer such as a personal computer (PC) can be applied to the music mixing apparatus 10.
[0025]
The CPU 12 is connected to a RAM 14, a hard disk device (hereinafter also referred to as “HDD”) 16, a disk I / F 18, an input device 20, a display device 22, an audio I / F 24, a communication I / F, and the like via a bus or the like. Is done.
[0026]
The RAM 14 is used as a work area or buffer area for the CPU 12. The HDD 16 stores a program and various data (including screen data) for performing the music mixing process and the mixdown design template extraction process. Therefore, the CPU 12 loads these programs, data, and the like from the HDD 16 to the RAM 14 and executes processing according to these programs.
[0027]
The disk I / F 18 is connected with a drive for an information recording medium such as an optical disk such as a CD and a DVD, a magnetic disk such as an FD, or a magneto-optical disk, and the CPU 12 controls the drive. For example, when the program and data for the music mixing process described above are recorded on the information recording medium, the program and the like are read via the disk I / F 18 and stored in the HDD 16. In addition, mixed-down master data, mixed-down design template data, and the like may be written to an appropriate information recording medium as necessary.
[0028]
The input device 20 is an operation means operated by a user, and includes a pointing device such as a mouse, a keyboard, and the like. An operation signal corresponding to the operation of the input device 20 is given to the CPU 12. Therefore, the CPU 12 executes a process in accordance with a user instruction given through the input device 20. The display device 22 is, for example, a liquid crystal display (LCD), a CRT, or the like. A display signal is given from the CPU 12 to display various screens.
[0029]
The audio I / F 24 includes, for example, a D / A converter and an A / D converter, and can be connected to a speaker 28, a microphone 30, various musical instruments 32, and the like. The audio I / F 24 receives the audio data (mixed-down acoustic data or the like) generated in the RAM 14 under the control of the CPU 12, and supplies a sound signal corresponding to the audio data to the speaker 28 or a headphone (not shown). Therefore, sound is output from the speaker 28 or the like. The audio I / F 24 receives acoustic signals of parts such as vocals and choruses from the microphone 30 and acoustic signals from various musical instruments (guitar, bass, keyboard, etc.) 32, and audio data (acoustic data or audio data) corresponding to them. MIDI data or the like) can be stored in the HDD 16 by the CPU 12.
[0030]
The communication I / F 26 can be connected to a network such as a LAN or the Internet. Note that the above-described program for music mixing processing or the like may be downloaded from a server or the like on the network.
[0031]
In this embodiment, a description is given assuming a PC or the like on which a music mixing program or the like is installed. However, in another embodiment, for example, a dedicated device in which a program and various data are stored in advance in a built-in ROM or the like. It may be. In this case, the input device 20 may be various buttons, operation keys, etc. including a volume slider, a pan control knob, and the like provided on the surface of the housing.
[0032]
FIG. 2 shows an outline of a mixdown example based on a user operation in the music mixing apparatus 10. The acoustic data is sound material information that is composed of a plurality of tracks and constitutes music, and is stored in the HDD 16 by being divided into a plurality of tracks for each part or instrument. In the example shown in FIG. 2, drum 1 is track 1, bass 2 is track 1, guitar 1 is track 3, guitar 2 is track 4, keyboard 1 is track 5, keyboard 2 is track 6, track 7 is chorus, track 8 is main. Each vocal is stored. The user can set the instrument name or part name of the sound material to be stored as the track name. The music mixing apparatus 10 holds the track name set by the user as musical function information indicating the part or instrument of the track.
[0033]
The acoustic data is time-series data, and in this embodiment, for example, it is configured in the order of intro, A melody, B melody, chorus, A melody, chorus. A music piece is generally composed of these time-series music components or musical phrases (a natural separation of music pieces or a melody that represents a group of musical feelings). In the present specification, these time series music components such as intro, A melody, B melody, and chorus are referred to as a music group.
[0034]
Such acoustic data is subjected to various mixdown processes based on an appropriate mixdown operation by a user operation. On the GUI displayed on the display device 22, for example, icons for various operations for each track, a setting screen displayed as a pop-up, and the like are provided. The user operates the input device 20 to select a desired icon or the like. Do the mixdown work by selecting. For example, the user can specify a plug-in to be used for each track and set parameters of the plug-in. This plug-in is a program for applying various effects to audio data, and includes, for example, a graphic equalizer, a compressor, a reverb, a pitch shift, and the like. The plug-in can be used at a desired position (time zone) of the track as necessary. In addition, a plurality of plug-ins can be used in order for one track. Further, the user can set the volume balance and pan (for example, L / R balance) of each track while changing them over time. Then, for example, mixdown sound data mixed down to stereo 2 tracks (L and R) is generated. The mixdown sound data can be stored as master data.
[0035]
In the mixdown process by the user operation, the CPU 12 creates information on the mixdown process or process based on the user operation on the sound data in the RAM 14 as the mixdown process process data, and associates with the sound data in the HDD 16. Store. Data relating to such a mixdown case, that is, acoustic data consisting of a plurality of tracks as material and mixdown process data for the same are also referred to as mixdown case data.
[0036]
FIG. 3 shows an example of the mixdown process data generated. As can be seen from FIG. 3, the mixdown process data includes respective mixdown process information for each track. The mixdown processing information is time-series information, and includes, for example, the order of plug-ins used, parameters of the plug-ins, information on volume, information on pan, and the like. The mixdown process data includes mixdown process information for a plurality of tracks and mixdown process information for the entire track. These are information relating to a process that is collectively applied to a plurality of tracks and all tracks after, for example, a mixdown process for each track.
[0037]
Then, the music mixing apparatus 10 extracts a mixdown design template (hereinafter also simply referred to as “template”) from the mixdown example as necessary. As described in the section of the prior art, music mixing differs depending on the implementation method and the mixing engineer, and the personality characteristics of the person appear in the mixdown design. Therefore, in this music mixing apparatus 10, the characteristic is extracted from the mixdown example of a certain music, and a template is created.
[0038]
When extracting a template, first, a music group that is a time-series component of the acoustic data is extracted based on the mixdown case data. This is because the characteristics of mixdown tend to be different depending on the music group. In the music group extraction processing, group candidates are extracted by, for example, correlation analysis in the acoustic data of each track, analysis of change points in the mixdown processing information of each track, and correlation analysis of the waveform envelope of the track of the rhythm instrument. The Then, the final music group is determined by combining the results of the candidate extraction processes by weighted voting, for example.
[0039]
Subsequently, mixdown process information for each track and each music group is extracted from the mixdown process data, and further, mixdown process information for a plurality of tracks and the entire music group is extracted. The extracted mixdown processing information is mixdown design information, and mixdown design template data is created by associating the design information with the musical functions of the music group and the track.
[0040]
FIG. 4 shows an example of data of the created mixdown design template. As can be seen from FIG. 4, the mixdown design template data includes mixdown design information for each track. The mixdown design information for each track includes information indicating the part or musical function of the track and mixdown design information for each music group. In FIG. 4, the musical function of the track 1 is a drum, and the music group includes an intro, rust, A melody, B melody, and the like. The mixdown design information in each music group includes information on the types and order of plug-ins used, information on parameters for each plug-in used, information on volume, information on pan, and the like. The mixdown design template data also includes mixdown design information for a plurality of tracks and mixdown design information for the entire track. These also have the same information as the mixdown design information for each track.
[0041]
Further, the music mixing apparatus 10 can perform a mixdown process using a mixdown design template. FIG. 5 shows an outline of the mixdown process performed by applying the mixdown design template.
[0042]
In FIG. 5, the acoustic data to be mixed down is drum 1 for track 1, bass for track 2, guitar 1 for track 3, guitar 2 for track 4, keyboard 1 for track 5, keyboard 2 for track 6, and track 2 for track 7. Main vocals are stored in the chorus and the track 8, respectively. The musical function of each track can be set by the user when recording (storing) acoustic data, for example.
[0043]
The sound data is composed of the music groups arranged in the order of rust, A melody, rust, A melody, B melody, and rust. Which part of the acoustic data is which music group is set by the user before applying the mixdown design template. This makes it possible to apply mixdown design information in the same music group of the template.
[0044]
Then, by applying the mixdown design template, mixdown sound data mixed down to, for example, two stereo tracks is generated.
[0045]
When performing mixdown using a template, a list of mixdown design templates as shown in FIG. 6 is displayed on the display device 22, for example. The user can operate the input device 20 to select a template to be applied from this list. Templates displayed in this list include templates extracted and created by the user in past mixdown sessions.
[0046]
When the selected template is applied and mixed down, matching or association between the musical function of each track of the template and the musical function of the track of the target acoustic data is performed. This is because the mixdown design information of the same or similar musical function is applied to the target acoustic data track. As can be seen from FIG. 4, for example, information indicating the musical function of the track is stored in the template data, so matching is possible.
[0047]
If the template does not store mixdown design information for a track having the same musical function as that of each track of the target acoustic data, for example, a musical function similar to the musical function is stored. Apply mixdown design information for different tracks. That is, for example, a matching table indicating information on musical functions to be associated may be prepared. Thus, for example, strings and keyboards are associated with each other, and drums are associated with other rhythm instruments or percussion instruments (percussion or the like).
[0048]
Then, the mixdown design information of the template is applied to the acoustic data by matching the matched tracks and by matching the same music group. As described above, the mixdown design information includes information on the types and order of plug-ins used, information on parameters for each plug-in, information on volume, information on pan, etc. obtained from the mixdown example. It is. Therefore, by applying the template, mixdown sound data that is mixed down based on the design or characteristics of the mixdown included in the template is generated.
[0049]
In this way, simply by selecting a template, acoustic data that appropriately reflects the characteristics of the mixdown design of the template is created. In other words, the user can select and apply a mixdown design template with features that match the image of the song he is going to make, so that the acoustic data of the material is as he envisioned or close to the image You can easily finish a song with an atmosphere. Therefore, it is not necessary to manually perform operations for mixdown processing for every track and music group, so that productivity in mixdown can be improved.
[0050]
FIG. 7 shows a music mixing operation in the music mixing apparatus 10. When the music mixing program is activated in the music mixing apparatus 10, first, in step S <b> 1, the CPU 12 acquires acoustic data to be mixed down in accordance with a user operation and stores it in the HDD 16. At this time, as described above, musical functions such as musical instruments and parts of the stored acoustic data are set for each track in accordance with a user operation.
[0051]
Next, in step S3, the CPU 12 determines whether or not to mix down using the template. If “NO” in the step S3, that is, if, for example, a template use menu or the like is not selected on a screen (not shown), the CPU 12 performs an operation signal from the input device 20 based on a user operation in a succeeding step S5. In response to this, various processes for normal mixdown are executed.
[0052]
Here, the user operates the input device 20 to select a plug-in to be used for each track, set parameters thereof, control volume, pan, and the like. The CPU 12 generates acoustic data subjected to processing according to the user operation in the RAM 14 and outputs it from the speaker 28 via the audio I / F 24. The user can confirm the quality of his / her mixdown work by the sound reproduced from the speaker 28. In this way, the finally mixed down sound data is generated in the RAM 14 (see also FIG. 2).
[0053]
Further, in step S7, the CPU 12 generates mixdown process data as shown in FIG. 3 including information on the mixdown process or work process in the RAM 14, and in step S9, the mixdown process data is converted into acoustic data. And stored in the HDD 16. The acoustic data and the corresponding mixdown process data can be stored as mixdown case data, for example.
[0054]
In step S11, it is determined whether to extract a template. If “YES” in the step S11, that is, if a template extraction button or the like (not shown) is selected by a user operation, the CPU 12 executes a mixdown design template extracting process in a succeeding step S13. To do. By the template extraction process in step S13, mixdown design template data as shown in FIG. 4 having the characteristics of the mixdown session executed in step S5, for example, is created. This template extraction process is shown in detail in FIG. 8 and will be described later.
[0055]
On the other hand, if “YES” in the step S3, that is, if a template use menu or the like is selected on a screen (not shown), for example, the CPU 12 executes a mixdown process using the mixdown design template in a step S21. . By the processing in step S21, for example, mixed-down acoustic data is generated as shown in FIG. The mix-down process using this template is shown in detail in FIG. 17 and will be described later.
[0056]
If “NO” in the step S11, or when the process of the step S13 or the step S21 is ended, the CPU 12 determines whether or not to store the master data in a step S15. If “YES” in this step S15, that is, if, for example, a master data save button or the like is selected on a screen (not shown), the CPU 12 outputs the mixdown sound data generated in the RAM 14 in a step S17. Stored in the HDD 16 as master data.
[0057]
On the other hand, if “NO” in the step S15, or when the process of the step S17 is ended, the CPU 12 determines whether or not to end the mixdown session in a step S19. If “NO” in the step S19, the process returns to the step S3 to repeat the processing on the acoustic data. If “YES” in the step S19, necessary termination processing is executed to terminate this session.
[0058]
FIG. 8 shows the operation of the mixdown design template extraction process of step S13 in FIG. As shown in FIG. 8, the CPU 12 first obtains mixdown case data in step S31. That is, the CPU 12 reads out the sound data and the mixdown process data for the sound data from the HDD 16 and writes them in a predetermined area of the RAM 14.
[0059]
Next, CPU12 normalizes the volume of each track | truck of acoustic data by step S33. That is, by mixing the volume of each track, it is possible to extract the characteristics of the mixdown process related to the volume.
[0060]
In subsequent step S35, the CPU 12 executes music group extraction processing based on the mixdown case data. The music group in the acoustic data of the case data is extracted by the process of step S35. The process of step S35 is shown in detail in FIG. 9, and the description thereof will be described later.
[0061]
Next, in step S37, the CPU 12 extracts mixdown design information for each track and each music group from the mixdown process data. That is, since the mixdown process data includes mixdown process information for each track, as shown in FIG. 3, the design information regarding the mixdown process in each music group extracted in step S35 from them. Is extracted.
[0062]
In subsequent step S39, the CPU 12 extracts mixdown design information for a plurality of tracks and the entire music group. That is, as shown in FIG. 3, the mixdown process data includes mixdown process information for a plurality of tracks and the whole, and design information regarding the mixdown process in each music group is extracted from these. .
[0063]
Then, in step S41, the CPU 12 associates the extracted mixdown design information with the musical function and music group of the track, thereby creating mixdown design template data as shown in FIG. .
[0064]
In subsequent step S <b> 43, the CPU 12 stores the created mixdown design template data in the HDD 16. At this time, the user can set the name of the mixdown design template, and the template is stored together with the name. The saved template is then displayed in the template list when mixdown processing using the template is performed. When the process of step S43 is completed, the process returns to the flow of FIG. 7 and proceeds to step S15.
[0065]
FIG. 9 shows the operation of the music group extraction process based on the mixdown case data in step S35 in FIG. As shown in FIG. 9, first, in step S51, the CPU 12 extracts a minimum basic beat by histogram processing of volume time-series data in each track.
[0066]
Next, in step S53, the CPU 12 executes a correlation analysis process by shifting the time in units of minimum basic beats with respect to the time frequency map of each track. Thereby, the correlation for each basic beat can be known. For example, FIG. 10 shows the correlation with respect to the first beat of certain track data. Here, the higher the correlation is, the darker it is drawn, and it can be seen that there is a strong correlation when the shift width is 0 (autocorrelation), 10 and 16.
[0067]
In step S55, the CPU 12 creates correlation map data. That is, the correlation map x (i, j) is obtained by repeating the same processing as step S53 for the second and subsequent beats in units of the minimum beat. For example, FIG. 11 shows an example of a correlation map. As is clear from FIG. 11, when there is a repetitive component, an oblique line appears. However, the leftmost diagonal line corresponds to autocorrelation.
[0068]
Subsequently, in step S57, the CPU 12 executes a mask process on the correlation map. By this processing, it is possible to detect a portion where a plurality of continuous movements or patterns exist. For example, a mask process for extracting two continuous patterns is expressed as follows. x (i, j) = 1/2 * x (i, j) + 1/2 * x (i + 1, j + 1)
[0069]
An example of a correlation map subjected to such a masking process for extracting two continuous patterns is shown in FIG. This corresponds to the (1/2, 1/2) product-sum filter processing for the portion indicated by “●” in FIG. In the correlation map of FIG. 12 subjected to this masking process, the curve on the left side shows a projection profile (projection profile), and the number of repeated patterns starting from that line is added for each line, The larger the number, the larger the value.
[0070]
FIG. 13 shows an example of a correlation map subjected to four continuous pattern extraction processing. This corresponds to the product-sum filter processing of (1/4, 1/4, 1/4, 1/4). Furthermore, FIG. 14 shows an example of a correlation map that has been subjected to extraction processing of eight continuous patterns.
[0071]
In step S59 (FIG. 9), the CPU 12 extracts a repeated pattern as a group candidate. That is, first, by looking at the projection profile in the correlation map obtained in the process of step S57 and searching for a local peak having a large value, the start point of the music group candidate is obtained. For example, in the case of the extraction process of 8 continuous patterns in FIG. 14, a peak can be detected at the 9th line, that is, at the 9th beat, and this is the start point. Since the number of repetitions is 8, it is possible to detect the arrangement from the ninth to the eighth as group candidates. And the same group can be selected by searching for the thing with a high correlation value in the line. The basic strength of the group is given by (number of beat units belonging to the group) / (total number of beat units).
[0072]
In step S61, the CPU 12 calculates the correlation value level of the group candidate. That is, as seen from each group candidate, an average of correlation values of other groups determined to be the same is calculated and held as a correlation value level of the group.
[0073]
In subsequent step S63, CPU 12 determines, for example, 2 n * 3 m It is determined whether or not processing has been performed on the data in the sequence (m and n are integers of 0 or more). This 2 n * 3 m Is equivalent to what is seen as a repetition of music.
In another embodiment, it may be determined whether or not processing has been performed on half the number of beat units.
[0074]
If “NO” in the step S63, that is, if the process still remains, the process returns to the step S57, and the process for extracting the continuous pattern of the arrangement is repeated. On the other hand, if “YES” in the step S63, that is, if the processing has already been performed on the necessary number of arranged data, the process proceeds to the step S65.
[0075]
Note that the processing of steps S53 to S63 can be applied to not only the track data of a single tone melody instrument but also the track data of a rhythm instrument or polyphony, so that music group candidates can be extracted.
[0076]
In step S65, the CPU 12 extracts group candidates based on the change point of the mixdown processing information in each track. That is, the volume and pan control for each track, the type of plug-in used and its parameters, etc. tend to be changed at the boundaries of music groups. Therefore, group candidates are extracted by analyzing the mixdown process data and extracting these change points.
[0077]
Subsequently, in step S67, group candidates are extracted from the rhythm instrument track by correlation analysis of the waveform envelope. FIG. 15A shows the envelope of the waveform of the rhythm instrument, and FIG. 15B shows its spectrum map. It can be seen that the envelope of the waveform matches the volume distribution, which is about 0.55 seconds per beat in this example. For rhythm instruments, group candidates are extracted by calculating the similarity of the waveform envelope.
[0078]
As can be seen from the spectrum map of FIG. 15B, it can be seen that there is a correlation with a fine rhythm of one beat or less. Therefore, the spectrum map of a musical instrument or part having a pitch such as vocal or bass contains frequency data of each location, and can be an information source with higher discrimination ability. Therefore, group candidates obtained from the correlation analysis of these tracks can be treated as more weighted or reliable information. For a harmonic instrument such as a guitar, the spectral map may be regarded as a two-dimensional image and correlation analysis may be performed as it is.
[0079]
In the following step S69, the CPU 12 extracts the final music group by combining the results of the group candidate extraction processes. Through the processing up to this point, group candidates based on a plurality of repetition numbers are extracted for each track with a correlation value level. Therefore, for example, for each track, voting is performed by assigning weights to places (time zones) determined to be the same group (substituting a predetermined value for addition). Then, a group candidate having a large value is determined to be a music group. Subsequently, in step S71, the CPU 12 assigns a label to each confirmed music group.
[0080]
For example, FIG. 16 shows a confirmed music group. Each track is divided into group candidates obtained by the respective candidate extraction processes, and a music group is determined by combining and combining them. In FIG. 16, for example, when the track 3 in which the guitar 1 is stored is taken as an example, “T3-1”, “T3-2, T3-3, T3-2, T3-3”, “T3-4”. ”,“ T3-5, T3-6 ”,“ T3-7, T3-8 ”,“ T3-9 ”, and“ T3-2, T3-3, T3-2, T3-3 ” To be separated. The second and seventh groups are the same group that appears repeatedly. Then, labels of A, B, C, D, E, F, and B are set in order for each music group.
[0081]
The setting of the music group label is simply A, B,... In FIG. 16, but the name setting can be performed in step S71. For example, first, “rust” tends to sing with a high vocal sound, and therefore a group in which the vocal is conspicuous can be determined as rust. In addition, since rust tends to be repeated, whether or not it is repeated can be one of the judgment materials. In addition, “Intro” can be set to the group of the start portion of the music. Furthermore, “A melody” is set for the first group other than rust, and “B melody” is set for the second group other than A melody in the portion other than rust. obtain.
[0082]
When the process of step S71 is completed, the process returns to FIG. 8 and proceeds to step S35.
[0083]
FIG. 17 shows the operation of the mixdown process using the mixdown design template in step S21 in FIG. As shown in FIG. 17, first, in step S <b> 81, the CPU 12 acquires information on the musical function of each track of the acoustic data to be mixed down. Since the musical function of each track is set by user input, for example, when recording or storing in the HDD 16, the CPU 12 reads the information and writes it in a predetermined area of the RAM 14. For example, in the example of FIG. 5, the musical functions of tracks 1 to 8 are drum, bass, guitar 1, guitar 2, keyboard 1, keyboard 2, chorus, and main vocal in this order.
[0084]
Next, in step S83, the CPU 12 acquires music group information in the acoustic data to be mixed down. The music group of the target acoustic data is set by user input, and the CPU 12 receives the information and writes it in a predetermined area of the RAM 14. For example, in the example of FIG. 5, the music group of the acoustic data is in the order of chorus, A melody, chorus, A melody, B melody, and chorus. For example, the user can set a music group by dividing a track into a plurality of time zones and inputting a music group name corresponding to each time zone on a music group setting screen (not shown).
[0085]
In subsequent step S85, the CPU 12 displays a list of mixdown design templates as shown in FIG. The user can select a template to be applied from this list by operating the input device 20.
[0086]
In step S87, the CPU 12 determines whether any mixdown design template is selected by a user operation. If “YES” in the step S87, that is, if any template is selected in the list, the CPU 12 reads the data of the selected template from the HDD 16 in a predetermined area of the RAM 14 in a succeeding step S89. Writing, matching or associating each track in the template with each track of the acoustic data to be mixed down by its musical function. Thus, the mixdown design information of the template track having the same or similar musical function is applied to each track of the acoustic data.
[0087]
Subsequently, in step S91, the CPU 12 associates the tracks and music groups matched in step S89 with each other and applies the mixdown design information of the template to the target sound data, thereby mixing down the mixed down sound. Data is generated in a predetermined area of the RAM 14.
[0088]
In step S93, the CPU 12 gives the generated mixdown sound data to, for example, the audio I / F 24 and reproduces it from the speaker 28. Therefore, the user can listen and confirm how the acoustic data is mixed down by applying the selected template.
[0089]
In step S95, the CPU 12 determines whether the template to be applied has been changed by the user. If “YES” in the step S95, that is, if a template change button or the like (not shown) is selected by the user, for example, the process returns to the step S85 to repeat the process.
[0090]
On the other hand, if “NO” in the step S95, that is, if the user does not select the template change, in a step S97, the CPU 12 determines whether or not the mixdown sound data is adjusted by the user. Judging. If “YES” in the step S97, that is, for example, if the user performs an operation for adjusting the acoustic data on a screen (not shown), the CPU 12 outputs the mixdown acoustic data based on the user's adjusting operation in a step S99. Generate, and return to step S93 to repeat the process. In this way, the user can make further fine adjustments to finish the music closer to his / her preference or design.
[0091]
If “NO” in the step S97, that is, if the adjustment operation is no longer performed by the user, the process returns to the flowchart of FIG. 7 and proceeds to the step S15.
[0092]
According to this embodiment, a template can be extracted from an actual mixdown case, and the extracted template can be used for another mixdown session. Therefore, the productivity of mixdown can be improved.
[0093]
Note that the mixdown design template is not limited to those extracted in the past own mixdown session. That is, in another embodiment, a template extracted in another person's mixdown session may be acquired. For example, “design template_producer C (or D)” shown together in the list of FIG. 6 is a template extracted in the mixdown session of producer C (or D). The template of another person can be obtained, for example, by downloading from a distribution server on the Internet via the communication I / F 26, or obtained from an appropriate information recording medium in the HDD 16 via the disk I / F 18 or the like ( Storage).
[0094]
In this way, templates extracted outside of your own mixdown session can be used, so it is easy for amateur users to perform mixdown tasks that were previously difficult, and mixdown of various designs. Can be realized. For example, a template created by a professional mixing engineer or producer can also be used, so it is possible to easily produce another version of the music that has been finished with the professional style or taste, and for example, the atmosphere of the music according to the TPO It is also possible to enjoy something that has never been seen before.
[0095]
On the other hand, the professional side can not only improve the productivity of his production activities, but also introduce new mixdown design templates by distributing them through distribution servers on the Internet or appropriate information recording media, for example. It is also possible to create a business.
[Brief description of the drawings]
FIG. 1 is a block diagram showing an internal configuration of a music mixing apparatus according to an embodiment of the present invention.
FIG. 2 is an illustrative view for explaining an outline of a mixdown example by a user operation.
3 is an illustrative view showing mixdown process data stored in the RAM of FIG. 1 embodiment; FIG.
4 is an illustrative view showing mixdown design template data stored in the RAM of FIG. 1 embodiment; FIG.
FIG. 5 is an illustrative view for explaining an outline of mixdown performed by applying a mixdown design template;
6 is an illustrative view showing one example of a list screen of a mixdown design template displayed on the display device of FIG. 1 embodiment; FIG.
FIG. 7 is a flowchart showing the operation of music mixing processing in the embodiment in FIG. 1;
FIG. 8 is a flowchart showing the operation of the mixdown design template extraction process in FIG. 7;
FIG. 9 is a flowchart showing an operation of music group extraction processing based on the mixdown case data in FIG. 8;
FIG. 10 is an illustrative view for explaining correlation analysis processing in units of basic beats.
FIG. 11 is an illustrative view showing one example of a correlation map obtained by correlation analysis processing in units of basic beats.
12 is an illustrative view showing one example of a correlation map when a mask process for extracting two continuous patterns is performed on the correlation map of FIG. 11;
13 is an illustrative view showing one example of a correlation map when a mask process for extracting four continuous patterns is performed on the correlation map of FIG. 11;
14 is an illustrative view showing one example of a correlation map when mask processing for extracting eight continuous patterns is performed on the correlation map of FIG. 11. FIG.
FIG. 15 is an illustrative view showing acoustic data of a rhythm instrument, where (A) shows an envelope of a waveform and (B) shows a spectrum map.
FIG. 16 is an illustrative view for explaining an outline of music group determination.
FIG. 17 is a flowchart showing an operation of a mixdown process using the mixdown design template in FIG.
[Explanation of symbols]
10: Music mixing device
12 ... CPU
14 ... RAM
16 ... HDD
18 ... Disk I / F
20 ... Input device
22 Display device
24 ... Audio I / F
26 Communication I / F

Claims (10)

ユーザ操作に基づいて、複数のトラックからなる音響データを処理して、より少ないトラック数にミックスダウンしたミックスダウン音響データを生成する楽曲ミキシング装置において、
トラックごとおよび音楽構成要素に相当する音楽グループごとに対応付けられたミックスダウン処理に関するデザイン情報を含むミックスダウンデザインテンプレートを記憶するテンプレート記憶手段、
テンプレート適用対象とする音響データにおける前記音楽グループを設定する音楽グループ設定手段、および
前記トラックどうしおよび前記音楽グループどうしを対応させて、前記音響データに前記ミックスダウンデザインテンプレートを適用することによって、前記ミックスダウン音響データを生成するテンプレート適用手段を備えることを特徴とする、楽曲ミキシング装置。
In a music mixing apparatus that generates acoustic data composed of a plurality of tracks based on a user operation and generates mixed-down acoustic data that is mixed down to a smaller number of tracks.
A template storage means for storing a mixdown design template including design information relating to a mixdown process associated with each track and each music group corresponding to a music component;
A music group setting means for setting the music group in the acoustic data to be applied as a template; and the mixdown design template is applied to the acoustic data by associating the tracks and the music groups with each other. A music mixing apparatus comprising template application means for generating down sound data.
ユーザ操作に基づくミックスダウン処理において、その対象となった複数のトラックからなる事例音響データに対するミックスダウン処理過程情報を生成する処理過程情報生成手段、
前記事例音響データと前記ミックスダウン処理過程情報とに基づいて、前記事例音響データにおける前記音楽グループを抽出する音楽グループ抽出手段、および
前記ミックスダウン処理過程情報から、少なくとも各トラックおよび各音楽グループのそれぞれにおけるミックスダウン処理に関するデザイン情報を抽出し、前記トラックごとおよび前記音楽グループごとに対応付けて、前記ミックスダウンデザインテンプレートを生成するテンプレート生成手段をさらに備え、
前記テンプレート生成手段によって生成された前記ミックスダウンデザインテンプレートは、前記テンプレート記憶手段に記憶される、請求項1記載の楽曲ミキシング装置。
In the mixdown process based on the user operation, processing process information generating means for generating mixdown process process information for the case acoustic data composed of a plurality of tracks,
Based on the case acoustic data and the mixdown process information, music group extracting means for extracting the music group in the case acoustic data, and at least each track and each music group from the mixdown process information Further comprising: template generation means for extracting design information related to the mixdown process in the above and generating the mixdown design template in association with each track and each music group;
The music mixing apparatus according to claim 1, wherein the mixdown design template generated by the template generation unit is stored in the template storage unit.
前記ミックスダウン処理に関するデザイン情報は、少なくとも使用されるプラグインの順序と前記プラグインのパラメータ,音量およびパンに関する情報を含む、請求項1または2記載の楽曲ミキシング装置。The music mixing apparatus according to claim 1, wherein the design information related to the mixdown process includes at least information about an order of plug-ins to be used and parameters, volume, and pan of the plug-ins. 前記音響データの前記トラックと前記ミックスダウンデザインテンプレートの前記トラックとをその音楽的機能によって対応付けるトラック対応付け手段をさらに備え、
前記テンプレート適用手段は、前記トラック対応付け手段によって対応付けられたトラックどうしを対応させる、請求項1ないし3のいずれかに記載の楽曲ミキシング装置。
Track association means for associating the tracks of the acoustic data and the tracks of the mixdown design template with their musical functions;
4. The music mixing apparatus according to claim 1, wherein the template application unit associates the tracks associated by the track association unit.
前記音楽グループ抽出手段は、
前記事例音響データの各トラックを相関分析処理して音楽グループ候補を抽出する第1候補抽出手段、
前記ミックスダウン処理過程情報における変化に基づいて前記音楽グループ候補を抽出する第2候補抽出手段、および
少なくとも前記第1候補抽出手段および前記第2候補抽出手段によって抽出されたそれぞれの前記音楽グループ候補を組み合わせてみて最終的な音楽グループを決定する音楽グループ決定手段を備える、請求項2記載の楽曲ミキシング装置。
The music group extracting means includes
First candidate extraction means for extracting a music group candidate by performing a correlation analysis process on each track of the case acoustic data;
Second candidate extraction means for extracting the music group candidates based on the change in the mixdown process information, and at least each of the music group candidates extracted by the first candidate extraction means and the second candidate extraction means. The music mixing apparatus according to claim 2, further comprising a music group determination unit that determines a final music group when combined.
他の装置から前記ミックスダウンデザインテンプレートを取得するテンプレート取得手段をさらに備え、
前記テンプレート取得手段によって取得した前記ミックスダウンデザインテンプレートは、前記テンプレート記憶手段に記憶される、請求項1記載の楽曲ミキシング装置。
A template acquisition means for acquiring the mixdown design template from another device;
The music mixing apparatus according to claim 1, wherein the mixdown design template acquired by the template acquisition unit is stored in the template storage unit.
少なくともトラックごとおよび音楽構成要素に相当する音楽グループごとに対応付けられたミックスダウン処理に関するデザイン情報を含むミックスダウンデザインテンプレートを記憶するテンプレート記憶手段を備え、ミックスダウン対象とする複数トラックからなる音響データを処理して、より少ないトラック数のミックスダウン音響データを生成する楽曲ミキシング装置における楽曲ミキシング方法であって、
(a) ユーザの操作に応じて前記音響データにおける音楽グループを設定するステップ、
(b) ユーザ操作によって選択された前記ミックスダウンデザインテンプレートを前記テンプレート記憶手段から読み出すステップ、および
(c) 前記トラックどうしおよび前記音楽グループどうしを対応させて、前記音響データに前記ステップ(b) で読み出された前記ミックスダウンデザインテンプレートを適用することによって、前記ミックスダウン音響データを生成するステップを備える、楽曲ミキシング方法。
Acoustic data comprising a plurality of tracks to be mixed down, comprising template storage means for storing a mixdown design template including design information relating to a mixdown process associated with at least each track and each music group corresponding to a music component Is a music mixing method in a music mixing apparatus that generates mixdown sound data with a smaller number of tracks.
(a) setting a music group in the acoustic data in accordance with a user operation;
(b) reading the mixdown design template selected by a user operation from the template storage means; and
(c) generating the mixdown sound data by associating the tracks and the music groups and applying the mixdown design template read in step (b) to the sound data. A music mixing method comprising:
少なくともトラックごとおよび音楽構成要素に相当する音楽グループごとに対応付けられたミックスダウン処理に関するデザイン情報を含むミックスダウンデザインテンプレートを記憶するテンプレート記憶手段を備え、ミックスダウン対象とする複数トラックからなる音響データを処理して、より少ないトラック数のミックスダウン音響データを生成する楽曲ミキシング装置において実行される楽曲ミキシングプログラムであって、
前記楽曲ミキシング装置のコンピュータに、
ユーザ操作に応じて前記音響データにおける音楽グループの設定情報を取得する音楽グループ取得ステップ、
ユーザ操作によって選択された前記ミックスダウンデザインテンプレートを前記テンプレート記憶手段から読み出すテンプレート読出ステップ、および
前記トラックどうしおよび前記音楽グループどうしを対応させて、前記音響データに前記ミックスダウンデザインテンプレートを適用することによって、前記ミックスダウン音響データを生成するテンプレート適用ステップを実行させる、楽曲ミキシングプログラム。
Acoustic data comprising a plurality of tracks to be mixed down, comprising template storage means for storing a mixdown design template including design information relating to a mixdown process associated with at least each track and each music group corresponding to a music component Is a music mixing program executed in a music mixing apparatus that generates mixdown sound data with a smaller number of tracks.
In the computer of the music mixing device,
A music group acquisition step of acquiring music group setting information in the acoustic data in response to a user operation;
A template reading step of reading out the mixdown design template selected by a user operation from the template storage means, and applying the mixdown design template to the acoustic data in association with the tracks and the music groups. A music mixing program for executing a template applying step for generating the mixdown sound data.
ミックスダウン処理に関するデザイン情報を含むミックスダウンデザインテンプレートを記憶するテンプレート記憶手段を備え、複数のトラックからなる音響データを処理して、より少ないトラック数のミックスダウン音響データを生成する楽曲ミキシング装置において、前記ミックスダウンデザインテンプレートを抽出するための方法であって、
(a) ユーザ操作に基づくミックスダウン処理において、その対象となった複数のトラックからなる事例音響データに対するミックスダウン処理過程情報を生成するステップ、
(b) 前記事例音響データと前記ミックスダウン処理過程情報とに基づいて、前記事例音響データにおける音楽グループを抽出するステップ、
(c) 前記ミックスダウン処理過程情報から、少なくとも各トラックおよび各音楽グループのそれぞれにおけるミックスダウン処理に関するデザイン情報を抽出し、前記トラックごとおよび前記音楽グループごとに対応付けて、前記ミックスダウンデザインテンプレートを生成するステップ、および
(d) 前記ステップ(c) で生成した前記ミックスダウンデザインテンプレートを前記テンプレート記憶手段に記憶するステップを備える、テンプレート抽出方法。
In a music mixing apparatus that includes a template storage unit that stores a mixdown design template including design information related to mixdown processing, and that processes acoustic data including a plurality of tracks to generate mixdown acoustic data with a smaller number of tracks. A method for extracting the mixdown design template,
(a) In a mixdown process based on a user operation, a step of generating mixdown process process information for case acoustic data composed of a plurality of target tracks;
(b) extracting a music group in the case acoustic data based on the case acoustic data and the mixdown process information;
(c) Extracting at least the design information related to the mixdown process in each track and each music group from the mixdown process information, and associating the mixdown design template with each track and each music group. Generating step, and
(d) A template extraction method comprising a step of storing the mixdown design template generated in the step (c) in the template storage means.
ミックスダウン処理に関するデザイン情報を含むミックスダウンデザインテンプレートを記憶するテンプレート記憶手段を備え、複数トラックからなる音響データを処理して、より少ないトラック数のミックスダウン音響データを生成する楽曲ミキシング装置において、前記ミックスダウンデザインテンプレートを抽出するためのプログラムであって、
前記楽曲ミキシング装置のコンピュータに、
ユーザ操作に基づくミックスダウン処理において、その対象となった複数のトラックからなる事例音響データに対するミックスダウン処理過程情報を生成する処理過程情報生成ステップ、
前記事例音響データと前記ミックスダウン処理過程情報とに基づいて、前記事例音響データにおける音楽グループを抽出する音楽グループ抽出ステップ、
前記ミックスダウン処理過程情報から、少なくとも各トラックおよび各音楽グループのそれぞれにおけるミックスダウン処理に関するデザイン情報を抽出し、前記トラックごとおよび前記音楽グループごとに対応付けて、前記ミックスダウンデザインテンプレートを生成するテンプレート生成ステップ、および
前記テンプレート生成ステップで生成した前記ミックスダウンデザインテンプレートを前記テンプレート記憶手段に記憶する記憶ステップを実行させる、テンプレート抽出プログラム。
In a music mixing apparatus comprising template storage means for storing a mixdown design template including design information relating to mixdown processing, processing acoustic data consisting of a plurality of tracks, and generating mixdown acoustic data having a smaller number of tracks. A program for extracting a mixdown design template,
In the computer of the music mixing device,
In a mixdown process based on a user operation, a process information generation step for generating mixdown process information for case acoustic data composed of a plurality of tracks as targets,
A music group extraction step for extracting a music group in the case acoustic data based on the case acoustic data and the mixdown process information.
A template for extracting design information on mixdown processing in each of each track and each music group from the mixdown process information and generating the mixdown design template in association with each track and each music group A template extraction program for executing a generation step and a storage step of storing the mixdown design template generated in the template generation step in the template storage means.
JP2002371773A 2002-12-24 2002-12-24 Music mixing apparatus, method and program Expired - Fee Related JP4079260B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002371773A JP4079260B2 (en) 2002-12-24 2002-12-24 Music mixing apparatus, method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002371773A JP4079260B2 (en) 2002-12-24 2002-12-24 Music mixing apparatus, method and program

Publications (2)

Publication Number Publication Date
JP2004206747A JP2004206747A (en) 2004-07-22
JP4079260B2 true JP4079260B2 (en) 2008-04-23

Family

ID=32810567

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002371773A Expired - Fee Related JP4079260B2 (en) 2002-12-24 2002-12-24 Music mixing apparatus, method and program

Country Status (1)

Country Link
JP (1) JP4079260B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105264913A (en) * 2013-07-02 2016-01-20 雅马哈株式会社 Mixing management device and mixing management method

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004047068A1 (en) * 2004-09-28 2006-04-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for grouping temporal segments of a piece of music
DE102004047032A1 (en) * 2004-09-28 2006-04-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for designating different segment classes
JP4580831B2 (en) * 2005-07-08 2010-11-17 オリンパスイメージング株式会社 Terminal device, program, and recording medium
JP2009031357A (en) * 2007-07-24 2009-02-12 Yamaha Corp Music piece distribution system, music piece editing device, music piece playback device, music piece storage device, and program
JP5915249B2 (en) * 2012-02-23 2016-05-11 ヤマハ株式会社 Sound processing apparatus and sound processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105264913A (en) * 2013-07-02 2016-01-20 雅马哈株式会社 Mixing management device and mixing management method

Also Published As

Publication number Publication date
JP2004206747A (en) 2004-07-22

Similar Documents

Publication Publication Date Title
JP5759022B2 (en) Semantic audio track mixer
JP5982980B2 (en) Apparatus, method, and storage medium for searching performance data using query indicating musical tone generation pattern
JP2010518459A (en) Web portal for editing distributed audio files
Dixon An interactive beat tracking and visualisation system
KR20080066007A (en) Method and apparatus for processing audio for playback
TW200921637A (en) Automatic accompaniment for vocal melodies
JP5970934B2 (en) Apparatus, method, and recording medium for searching performance data using query indicating musical tone generation pattern
Yoshii et al. Drumix: An audio player with real-time drum-part rearrangement functions for active music listening
JP4079260B2 (en) Music mixing apparatus, method and program
JP2008197678A (en) System and method for online composition, and computer-readable recording medium
Nuanáin et al. Rhythmic concatenative synthesis for electronic music: techniques, implementation, and evaluation
US7030312B2 (en) System and methods for changing a musical performance
US20080060501A1 (en) Music data processing apparatus and method
JP6657866B2 (en) Sound effect imparting device and sound effect imparting program
WO2021059399A1 (en) Acoustic device, acoustic system, image generation method, and image generation program
JP5510207B2 (en) Music editing apparatus and program
KR100789588B1 (en) Method for mixing music file and terminal using the same
WO2024034116A1 (en) Audio data processing device, audio data processing method, and program
US20140281970A1 (en) Methods and apparatus for modifying audio information
WO2004025306A1 (en) Computer-generated expression in music production
Katayose et al. A mix-down assistant interface with reuse of examples
Ó Nuanáin et al. Rhythmic Concatenative Synthesis for Electronic Music
JP2008216413A (en) Player and program
Moriaty Unsound connections: No-input synthesis system
JP4218583B2 (en) Performance data processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051017

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20051024

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20051024

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080130

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees