JPWO2007066813A1 - 音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体 - Google Patents

音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体 Download PDF

Info

Publication number
JPWO2007066813A1
JPWO2007066813A1 JP2007549212A JP2007549212A JPWO2007066813A1 JP WO2007066813 A1 JPWO2007066813 A1 JP WO2007066813A1 JP 2007549212 A JP2007549212 A JP 2007549212A JP 2007549212 A JP2007549212 A JP 2007549212A JP WO2007066813 A1 JPWO2007066813 A1 JP WO2007066813A1
Authority
JP
Japan
Prior art keywords
music
remix
unit
metadata
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007549212A
Other languages
English (en)
Inventor
顕博 小森
顕博 小森
功誠 山下
功誠 山下
宮島 靖
靖 宮島
高井 基行
基行 高井
哲一 開
哲一 開
阿部 友一
友一 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2007066813A1 publication Critical patent/JPWO2007066813A1/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/021Indicator, i.e. non-screen output user interfacing, e.g. visual or tactile instrument status or guidance information using lights, LEDs, seven segments displays
    • G10H2220/081Beat indicator, e.g. marks or flashing LEDs to indicate tempo or beat positions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/016File editing, i.e. modifying musical data files or streams as such
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Abstract

多数の楽曲の全体あるいは部分をビートを揃えて重ねたり、つなぐという編集を実現できる音楽編集装置を提供する。楽曲データに対応して予め生成された、少なくとも時間軸上のビート位置を含むメタデータと、リミックスパターンを決定するファイルに基づいてリミックス処理を行うリミックス処理部と、マスタービートを生成し、このマスタービートを上記リミックス処理部に送るとともに、上記リミックス処理部がリミックスパターンとメタデータに応じて指示してきたリミックス処理に応じて複数の楽曲を再生する同期再生制御部と、同期再生制御部にて再生された楽曲を混合する混合部とを備え、リミックス処理部は階層化され、かつ各階層に制御パラメータ部とデータ実体部を有するデータ構造のリミックスパターンファイルに基づいてリミックス処理を行う。

Description

本発明は、例えば、楽曲を楽曲パート、小節などに細分化し、それらを編集する際に、曲と曲とのつなぎ方を指定するための音楽編集情報の作成方法に関し、特に上記作成方法にしたがった編集情報に応じて、音楽コンテンツなどを素材として用いて編集して新たな楽曲(音楽コンテンツ)を生成する音楽編集装置に関する。また、上記音楽編集情報の作成方法に従って記述された編集情報を記録する記録媒体に関する。
メモリ型オーディオの普及とともにユーザは大量の楽曲を持ち歩くことが日常的になった。大量の楽曲をメディアの交換無く連続して聴けるメモリ型オーディオにおいては、もともとのCDアルバム単位で聴くだけではなく、すべての楽曲をアルバムをまたいでシャッフルして聴いたり、自分の気に入った曲だけをプレイリストとして再構成して聴くというスタイルが広まっている。予めアルバムに録音されている順番を守らずに、ユーザが自分で聴きたい曲を聴きたい順番で聴く自由が広まったとも言える。
しかしながら、1曲1曲については先頭から最後まで聴くことが前提となっており、また曲と曲の間には無音部分ができてしまう。すなわち、曲は1曲という単位が最小になっており、その1曲で完結する聴き方しかできない。そのため、そこで集中、いわゆるノリが途切れてしまうので、テンションを保ったまま楽曲を聴き続けることが難しい。
第28図には楽曲Aと楽曲Bを用いた従来の音楽再生を示す。二つの楽曲はそれぞれ楽曲の持つオリジナルのテンポで再生される。もちろん、曲間には無音部分ができてしまう。
そこで、複数の音楽素材を組み合わせて編集する技術が考えられた。特開2003−44046号公報には、キーボードやマウスを介したユーザ入力に応じて、複数の音素材を組み合わせて楽曲を対話的に編集したり再生して楽しむ技術が開示されている。キーボードの各キーに対して、サウンドパターンやワンショットなどの音片や、これら音片に適用するエフェクトなどからなるチップが割り当てられている。ユーザがキーを押下することによって、この押下キーに対応するチップが実行される。複数のキーを同時に押下操作することによって、該当するチップを合成出力する。また、各キーを順に押下してチップを時系列的に組み合わせて楽曲を構成する。
しかし、上記特開2003−44046号公報の技術によっても、例えばディスクジョッキー(DJ)が行うリミックスのように曲の一部分を他の曲とつないで複数の曲からあたかも一つの曲を、ビートを揃えて繋ぐように再構成するということは困難であった。DJは現在では一般的な職業であり、リミックス音楽もそれ専用のレーベル会社がありそれを楽しんでいるユーザ層も規模が大きくなってきている。
本発明は、上記実情に鑑みてなされたものであり、ハードディスクやフラッシュメモリなどの記憶媒体に、記録されている多数の楽曲の全体あるいは部分をビートを揃えて重ねて再生したり、つないで再生するという編集を実現する際に利用できる音楽編集情報の作成方法の提供を目的とする。また、上記作成方法にしたがった編集情報に応じて、音楽コンテンツなどを素材として用いて編集して新たな楽曲(音楽コンテンツ)を生成する音楽編集装置の提供を目的とする。また、上記音楽編集情報の作成方法に従って記述された編集情報を記録する記録媒体の提供を目的とする。
本発明に係る音楽編集装置は、上記課題を解決するために、楽曲データに対応して予め生成された、少なくとも時間軸上のビート位置を含むメタデータと、リミックスパターンを決定するファイルに基づいてリミックス処理を行うリミックス処理部と、マスタービートを生成し、このマスタービートを上記リミックス処理部に送るとともに、上記リミックス処理部がリミックスパターンとメタデータに応じて指示してきたリミックス処理に応じて複数の楽曲を再生する同期再生制御部と、上記同期再生制御部にて再生された楽曲を混合する混合部とを備え、上記リミックス処理部は階層化され、かつ各階層に制御パラメータ部とデータ実体部を有するデータ構造のリミックスパターンファイルに基づいてリミックス処理を行う。
本発明に係る編集情報の作成方法は、上記課題を解決するために、楽曲データに対応して予め生成された、少なくとも時間軸上のビート位置を含むメタデータと、リミックスパターンを決定するファイルに基づいてリミックス処理を行うリミックス処理部と、マスタービートを生成し、このマスタービートを上記リミックス処理部に送るとともに、上記リミックス処理部がリミックスパターンとメタデータに応じて指示してきたリミックス処理に応じて複数の楽曲を再生する同期再生制御部と、上記同期再生制御部にて再生された楽曲を混合する混合部とを備えてなる音楽編集装置により、上記リミックスパターンとして参照される編集情報の作成方法であって、階層化され、かつ各階層に制御パラメータ部とデータ実体部を有するデータ構造のリミックスパターンファイルを、上位層のデータ部を構成している下位層の制御パラメータ部により同階層のデータ実体部を処理することにより作成する。
本発明に係る編集情報を記録した記録媒体は、上記課題を解決するために、楽曲データに対応して予め生成された、少なくとも時間軸上のビート位置を含むメタデータと、リミックスパターンを決定するファイルに基づいてリミックス処理を行うリミックス処理部と、マスタービートを生成し、このマスタービートを上記リミックス処理部に送るとともに、上記リミックス処理部がリミックスパターンとメタデータに応じて指示してきたリミックス処理に応じて複数の楽曲を再生する同期再生制御部と、上記同期再生制御部にて再生された楽曲を混合する混合部とを備えてなる音楽編集装置により、上記リミックスパターンとして参照される編集情報を記録した記録媒体であって、階層化され、かつ各階層に制御パラメータ部とデータ実体部を有するデータ構造のリミックスパターンファイルを、上位層のデータ部を構成している下位層の制御パラメータ部により同階層のデータ実体部を処理することにより作成された編集情報を記録している。
本発明によれば、ハードディスクやフラッシュメモリなどの記憶媒体に、記録されている多数の楽曲の全体あるいは部分をビートを揃えて重ねて再生したり、つないで再生するという編集を実現できる。また、楽曲の全体または一部をリアルタイムにその場その場でつないで再生することができる。
第1図は、本発明による装置、方法の一実施の形態が適用される音楽編集装置1のブロック図、第2図は、同期再生制御部と音声ミキシング部の詳細な構成を示すブロック図、第3図は、音楽編集装置の機能ブロック図、第4図は、音楽編集装置がCPUによって実行する音楽編集プログラムの処理手順を示すフローチャート、第5図は、時間軸上のメタデータを示す図、第6図は、時間軸メタデータの具体例を示す図、第7図は、時間軸メタデータの他の具体例を示す図、第8図A、第8図B及び第8図Cは、メタデータの格納方法を示す図、第9図は、リミックスパターンファイルの具体例を示す図、第10図は、本発明の編集情報の作成方法により作成された編集情報のデータ構造を示す図、第11図は、XMLにより記述されたリミックスパターンファイルの記述例を示す図、第12図は、ソングリスト層、ソング層、メロディブロック層のほかに、アンサンブル層、インストゥルメント層までの階層化を示している図、第13図は、本発明の編集情報の作成方法により作成された編集情報、具体的にはリミックスパターンファイルに基づいた音楽編集装置の制御例を示す図、第14図は、本発明の編集情報の作成方法を直感的に実現するためのオーサリングツールのGUI構成例を示す図、第15図は、本発明による音楽再生を説明するための図、第16図は、クロスフェードによるつなぎを説明するための図、第17図は、カットインによるつなぎを説明するための図、第18図は、効果音を用いたつなぎを説明するための図、第19図は、効果音を用いたクロスフェードによるつなぎを説明するための図、第20図は、同時同期再生を説明するための図、第21図は、エフェクトの適用を説明するための図、第22図は、部分再生を説明するための図、第23図は、ネットワーク通信部を有する音楽編集装置の構成図、第24図は、ネットワーク通信部を有する音楽編集装置の機能ブロック図、第25図は、センサー値取得部を有する音楽編集装置の構成図、第26図は、センサー値取得部を有する音楽編集装置の機能ブロック図、第27図A及び第27図Bは、センサー値取得部を有する音楽編集装置の処理手順を示すフローチャート、第28図は、従来の音楽再生を説明するための図である。
符号の説明
1 音楽編集装置
2 CPU
4 記憶部
5 楽曲用記憶部
6 楽曲メタデータ用記憶部
7 リミックスパターン用記憶部
8 同期再生部
9 同期再生制御部
10 音声ミキシング部
20 リミックス処理部
21 メタデータ処理部
22 リミックスパターン読み込み部
90 マスタービート生成部
93a、93b、93c 音声信号生成部
S1 リミックスパターンファイルを取得する
S2 次の楽曲を取得する
S3 次の曲があるか?
S4 マスタービートテンポを決定する
S5 つなぎ方パターンを取得する
S6 楽曲のメタデータを取得する
S7 エフェクト処理が必要か?
S8 エフェクト処理部を有効にする
S9 音量フェード処理が必要か?
S10 フェードパラメータを設定する
S11 同期再生制御部に楽曲のオリジナルテンポをセットする
S12 空いている音声信号生成部を取得する
S13 同期再生制御部に楽曲をセットする
S14 各楽曲の現在の再生位置を取得する
S15 次の楽曲を用意するポイントに到達したか?
S11 センサー優先モードかパターン優先モードかを決定する
S12 センサ優先モードか?
S13 センサーの入力から楽曲とテンポを決める
S14 次の曲があるか?
S15 マスタービートテンポを設定する
S16 つなぎ方パターンを自動で決定
S17 楽曲のメタデータを取得
S18 エフェクト処理が必要か?
S19 エフェクト処理部を有効にする
S20 音量フェード処理が必要か?
S21 フェードパラメータを設定する
S22 同期再生制御部に楽曲のオリジナルテンポをセットする
S23 空いている音声信号生成部を取得する
S24 同時再生制御部に楽曲をセットする
S25 各楽曲の現在の再生位置を取得
S26 次の楽曲を用意するポイントに到達したか?
S27 センサー優先モードか?
S28 リミックスパターンファイルを取得
S29 次の楽曲を取得
S30 次の曲があるか?
S31 マスタービートテンポを決定する
S32 つなぎ方パターンを取得
S40 ソングリスト選択
S41 繋ぎ方・ソング選択
S42 メロディブロック選択
S43 アンサンブル選択
S44 インストゥルメント選択
S45 ソング終了条件判定
以下、本発明を実施するための最良の形態について図面を参照しながら説明する。第1図は本発明による装置、方法の一実施の形態が適用される音楽編集装置1のブロック図である。
この音楽編集装置1は、ハードディスク(HD)、コンパクトディスク(CD)、ミニディスク(MD)、ディジタルバーサタイルディスク(DVD)などの種々の記録媒体やインターネットなどのネットワークを通じて提供される楽曲の音楽コンテンツデータ(オリジナルデータ)に対して、後述するメタデータを用いて、例えば本来テンポが異なる楽曲Aと楽曲Bとをビートを揃えて重ねて再生することができる。つまり、自動的にDJ再生を行う装置である。
第1図に示すように、この音楽編集装置1は、中央演算処理装置(CPU)2にバス3を介して記憶部4、同期再生部8を接続している。また、CPU2にバス3を介してROM13、RAM14、ユーザ操作I/F部15及びユーザインターフェース(U/I)表示部16を接続している。
CPU2はリアルタイムに楽曲のつなぎ方を決定し、同期再生部8に対して必要な楽曲素材を必要なタイミングで与える。また、ユーザの操作に応じて同期再生部8に対し、テンポの指示やビート同期/非同期の指示を行う。
記憶部4は、楽曲用記憶部5、楽曲メタデータ用記憶部6及びリミックスパターン用記憶部7からなる。楽曲用記憶部5は、複数の楽曲データを保持する記憶部である。据え置き用の音楽再生装置や、携帯用の音楽再生装置が持っているようなフラッシュメモリやハードディスクなど記憶部を外部接続してもよい。なお、楽曲用記憶部5に記憶される楽曲データは圧縮されたものでも非圧縮のものでもかまわない。
楽曲メタデータ用記憶部6は、楽曲に付加されている、時間軸上のメタデータを記憶している。詳細は後述するが、メタデータは楽曲に付加された時間軸上の補助データであり、テンポだけでなくビートの位置情報、小節の先頭(単に頭と記す)位置情報、前奏(イントロ)やテーマ(サビ)などのメロディ情報が記述されている。
リミックスパターン用記憶部7は、楽曲用記憶部5と同様に記憶装置であれば特に制限を付ける必要はない。リミックスパターン指定方法を指示したリミックスパターンファイルを保持する記憶部である。リミックスパターンファイルについては、詳細を後述するが、曲順が書いてあるだけでなく、曲順+どういうふうに組み合わせるか、あるいは楽曲Aと楽曲Bのどこを使ってどこに組み合わせるかというような、ことが書いてあるファイルである。
同期再生部8は、音楽編集装置1が自動的にDJ再生を行うための信号処理ブロックであり、CPU2のリミックス制御機能により指示された楽曲素材を基準ビートに同期して再生する。同期再生制御部9、音声ミキシング部10、デジタル/アナログ変換部(D/A)11及び音声出力部12からなる。
同期再生制御部9は、複数の音声信号生成部を有し、複数の音声信号を、自分の中で生成したクロック信号に同期して再生する。また、メタデータ用記憶装置6からのメタデータに基づいて現在再生されている楽曲の位置を常に監視し、CPU2のリミックス処理機能部に、今どこを再生しているのかという位置(楽曲の再生をしているサンプル数とかの位置)や、何小節目の何拍目を再生しているのかという位置を返す。
音声ミキシング部10は、同期再生制御部9内の複数の音声信号生成部で生成された複数系統の音声信号を合成して出力する。D/A11は音声ミキシング部10で再生されたデジタル信号をアナログ信号に変換する。音声出力部12は、D/A11からのアナログ音声信号を増幅し、スピーカやヘッドホンなどに出力する。
ROM13は、本発明の音楽編集方法にしたがった処理手順からなる音楽編集プログラムを格納している。また、デフォルトの各種データを格納している。RAM14は、CPU2が上記音楽編集プログラムを実行するときのワークエリアになる。また、上記音楽編集プログラムを実行するときの各種更新データを記憶する。
ユーザ操作I/F部15はユーザによる操作を受けつける例えばキーボードや、マウス、タッチパットなどである。U/I表示部16は、現在の操作状況、音楽編集処理状況、あるいはユーザによる操作を可能とするタッチパネルを含めた表示部であり、例えば液晶表示装置である。もちろん、CRTでもよい。
第2図は同期再生制御部9と音声ミキシング部10の詳細な構成を示すブロック図である。同期再生制御部9は、マスタービート生成部90と、3系統の音声信号生成部からなる。マスタービート生成部90は、ビートに相当するクロックを生成する。詳細には、リミックス時のテンポとそのテンポに同期したビート信号を出力する。マスタービート生成部90は指定された拍子(4/4拍子や3/4拍子など)にあわせて、小節の頭信号とそれ以外の通常のビート信号を生成し、出力する。
3系統(トラック)の音声信号生成部は、リアルタイムにステレオの音を複数だせるようにするために、典型的な例として、楽曲A、楽曲B、効果音(Sound effect:SE)ということで3トラックとしているものである。もちろん、楽曲の構成数に応じて4トラック、5トラックあるいはそれ以上のトラック数でもかまわない。この音声信号生成部は、マスタービート生成部90が生成した同期信号(クロック、あるいはビート)をもとに楽曲の小節/ビート位置をマスタービートの小節/ビート位置に合わせて同期再生を行う。
各トラックには、それぞれ、デコーダ(Decoder)91a、91b及び91cと、タイムストレッチ部(Time Stretch)92a、92b及び92cが備えられている。デコーダ91a、91b及び91cは、MP3やATRAC等の圧縮音声をデコードし、PCMデータとして出力する。ここで、SEは長さが短く、データサイズも小さいため必ずしも圧縮する必要は無い。そのため、このSEトラックのデコーダは省略してもよい。タイムストレッチ部92a、92b及び92cは、音程を一定に保ったまま再生速度を変換する。メタデータ用記憶部6からのメタデータに基づいて異なるテンポを持つ楽曲素材を基準ビートのテンポに合わせる。楽曲のオリジナルテンポとマスタービートとの比率に鑑みて、再生速度をリアルタイムに変化させるという処理を行う。これによって、楽曲のオリジナルテンポをマスタービートのテンポに合わせることができる。もちろん、上述したように音程を変えることはない。
なお、これら音声信号生成部には、ピッチシフト(Pitch Shifter)機能を搭載してもよい。ピッチシフト機能は、再生速度を一定に保ったまま音程を変更する。これは異なるキーや音程を持つ楽曲素材を音楽的に調和させるのに利用されるが、必ずしも必要な機能ではなく付加的な機能である。
音声ミキシング部10は、上記3トラックの音声信号生成部に対応して、3系統のエフェクト処理部100a、100b及び100cと、音量調整部101a、101b及び101cを備える。これら3系統の出力は音声ミックス部102によりミックスされてから音声出力部103により増幅されて外部のスピーカ、ヘッドホンに出力される。音声信号生成部の各トラックからの出力音声信号に対してそれぞれエフェクト処理と、音量調整処理ができる構成となっている。
第3図は音楽編集装置1の機能ブロック図である。第1図にハードウェア構成として示したCPU2の機能が、リミックス処理部20として示してある。リミックス処理部20は、さらにメタデータ処理部21とリミックスパターン読み込み部22に分かれている。
リミックス処理部20は、メタデータ用記憶部6に格納されたメタデータをメタデータ処理部21によって処理する。上述したように、楽曲には時間軸上のメタデータが付加されており、テンポだけでなくビートの位置情報、小節の頭位置情報、イントロやサビなどのメロディ情報を保持している。
メタデータ処理部21は、楽曲に対応した時間軸上のメタデータを読み込み、リミックスパターン読み込み部22で読み込んだリミックスパターン情報の指示に従って当該楽曲の位置情報を調査する。例えば、今、どこのビートに自分がいるのかとか、今組み合わせようとしている楽曲のビートはどこにあるのかということを把握したうえで、複数ある楽曲とか、効果音というものを、どの時点で、どういうふうに再生するかを決めている。
また、リミックス処理部20は、リミックスパターン用記憶部7に格納されたリミックスパターンファイル7aをリミックスパターン読み込み部22で読み込む。リミックスパターンファイル7aは、フェードアウトするのか、カットインするのか、SEは何をかけるのか、というようなことを指定したファイルである。リミックスパターンは、ユーザあるいは第三者の手によって人為的に指示されたデータ列(この曲の後にはこういふうにつなげとか)でもよいし、自動生成アルゴリズムによって作られたものでもよい(勝手に機械側が決めるようなリミックスのようなもの)。
同期再生制御部9は、マスタービート生成部90によりマスタービートを生成し、このマスタービートをリミックス処理部20に送るとともに、リミックス処理部20がリミックスパターンとメタデータに応じて指示してきたリミックス処理に応じ、メタデータ用記憶部6からの各メタデータを用いて複数の楽曲を再生する。
第4図は音楽編集装置1がCPU2によって実行する音楽編集プログラムの処理手順である。この音楽編集プログラムは本発明の音楽編集方法の具体例である。
まず、CPU2のリミックス処理部20はリミックスパターン用記憶部7からのリミックスパターンファイル7aをリミックパターン読み込み部22で読み込んで取得する(ステップS1)。次に、楽曲、例えば1曲目を同期再生制御部9に取得させる(ステップS2)。さらに、次の曲があれば(ステップS3にてYES)、同期再生制御部9のマスタービート生成部90のテンポを決定する(ステップS4)。これは、140なら140で固定でもいいし、ユーザが何か指定しているものでもよい。次に、つなぎかたパターン(これもパターンファイルに書いてある)を取得する(ステップS5)。
これで、曲とつなぎ方のパターンが決まったので、楽曲のメタデータを取得する(ステップS6)。楽曲Aであれば楽曲Aのメタデータのことである。次に、エフェクト処理が必要かどうかをリミックスパターンファイルから判断する(ステップS7)し、必要であれば(YES)、エフェクト処理部100にて、しかるべきエフェクトをかけるように有効にする(ステップS8)。
次に、音量フェード処理が必要かどうかをリミックスパターンファイルから判断する(ステップS9)。例えば楽曲Aと楽曲Bを編集して重ねるときに上げたり下げたりの音量フェードが必要かを選択する。もし必要があれば(YES)、フェードパラメータを設定する(ステップS10)。自動的に上げたり、下げたりを前提にして書いたが、そこにパラメータを設定しておく。
次に、同期再生制御部9のマスタービート生成部90に対して、楽曲のオリジナルのテンポをセットする(ステップS11)。楽曲のオリジナルのテンポはメタデータに付与されている。そして、同期再生制御部9内の空いている音声信号生成部を取得する。3chの具体例を上述したが、空いているところを取得して再生させたい楽曲をセットする(ステップS13)。
そして、各楽曲の現在の再生位置を取得してから(ステップS14)、次の楽曲を用意するポイントに到達したかを判断する(ステップS15)。例えば、SEがクロスフェードであれば、クロスフェードが終わるのはその小節の何小節か前であったり、カットインであれば、すぐに始まるので1小節前から準備しても間に合う。もちろん、同時再生は全く同時に再生である。そういうポイントに到達したかを見て、もし楽曲を用意するポイントに到達していないのであれば、ステップS14にもどり、到達するまで待っている。もし、次の楽曲を用意するポイントに到達したのであれば(YES)、ステップS2に戻る。
第5図は時間軸上のメタデータ30を示す図である。メタデータ30は、上述したように、楽曲に付加された時間軸上の補助データであり、テンポだけでなくビートの位置情報、小節の頭位置情報、イントロやサビなどのメロディ情報が記述されている。小節/拍31は1小節目の何拍目かを表している。「11」は1小節目の1拍目を表す。「14」は1小節目の4拍目を表す。同様に、「21」は2小節目の1拍目を表す。特に、「11」、「21」は各小節の先頭の拍を表すことになる。属性32はその位置に何があるかを示している。小節の頭、普通の拍、メロディ、テーマ(サビ)等の位置を示す。「01800001」は小節の先頭であることを示す。前記「11」、「21」の属性として示している。サンプル位置は、例えば楽曲が44.1kHzでサンプリングされているのであれば、1秒間に44100サンプルであるが、その位置がサンプル単位で記述されていることになる。この第5図に示したようなメタデータ30はテキスト形式やバイナリ形式で記述されている。
第6図は時間軸メタデータの具体例である。音声信号40とビート41、42の時間軸のメタデータを同時に表示している。音声信号40は左から右に時間の経過とともに変化しているが、それとともにビートも乗っている。第6図において長い線41が小節の頭、短い線42が通常のビートを示している。小節の先頭41とそれ以外のビート42(4拍子であれば小節頭のあとに4分音符のタイミングで3拍)位置を楽曲のサンプル位置に対応させて保持しているものである。
第7図も時間軸メタデータの具体例を示す図である。音声信号50に、ビート位置55だけでなく楽曲のイントロ51や、Aメロディ52及び53、Bメロディ54、テーマ(サビ)といったメロディ構成を示す位置情報を付けることが可能である。この情報を利用して対象の楽曲の小節位置や特定のメロディの開始位置がわかる。
上記第1図等に構成を示した音楽編集装置1では、メタデータは楽曲メタデータ用記憶装置6に格納されていた。メタデータの格納方法は、第8図A、第8図B及び第8図Cに示すようにしてもよい。第8図Aは、MP3のようにメタデータ71と楽曲データ72が論理的に別で物理的に同じメディアに存在する例である。また、第8図BはMPEG4のように楽曲データ74にメタデータ73が混在している例である。また、第8図Cは例えばネットワークを介して楽曲データ76に対応するメタデータ75が検索される例である。論理的にも物理的に楽曲データとメタデータは別々である。これは、後述する音楽編集装置80及び110のように、ネットワーク通信部を備え、インターネットなどのネットワークに接続する形態のときに適用される。楽曲IDに応じてネットワーク上のサイトからメタデータをダウンロードすることができる。
第9図はリミックスパターンファイルの具体例を示す図である。楽曲のメタデータは楽曲に対して1対1のものであるが、リミックスパターンのほうは、ユーザが自由に作ることができ、楽曲とは何の依存関係もないようにすることもできる。楽曲間をどうつなぐかというファイルである。リミックスのパターン60における、曲ID(ファイル)61のID_A〜ID_Eは、曲名A〜Eと同じであってもよい。絶対的なファイル名やファイルパスでもよい。再生部分62は、それぞれの楽曲に対してどこを再生するかを示す。曲Aに対しては「サビ」、Bに対しては「イントロ」、Cに対しては「8小節目から20小節目」まで、Dに対しては全体、Eに対しては「サビ」という位置を指定する。再生時(エフェクト)63は、各曲の各部分に、それぞれどういうふうなエフェクトをかけるかを指定する。つなぎ方(パターン)64は、曲Aに対してクロスフェードとあるが、Bとつなぐときにクロスフェードでつなぎなさいということを示す。また、BからCはカットインで、CからDはクロスフェードで、DとEはサビの部分を同時再生でつなぐということを示す。また、つなぎ時(エフェクト)65はつなぎ時にエフェクトとしてリバーブ、ローカット、ディストーションをかけることを指定する。つなぎSE66は、効果音を指定する。
第9図に示したパターンを指示した場合、実際の再生は次のように行われる。「ID_Aのサビが再生される。→ID_Aのサビ終わり付近でID_Bイントロがクロスフェードで入ってくる。→ID_Bのイントロ終わりと同時にID_Cの8小節目の再生が開始される→ID_C20小節の数小節からID_Dがクロスフェードで入ってくる。同時にSE_Aもミックスされる。→ID_DのサビがくるとID_Eのサビも同時に再生される。」という具合である。
このように、リミックスパターンは概念的に従来のプレイリストに対し曲のどこをどのようにつなぐかという指示を追加したものであるともいえる。
第10図は本発明の編集情報の作成方法により作成された編集情報のデータ構造を示す図である。第9図に示した具体例のID_A、ID_B、ID_Cの曲分に対応している。
第10図では、楽曲をソングリスト層120、ソング層130、メロディブロック層140のように階層化している。楽曲を階層化し、階層毎に処理内容の粒度を異ならせたツリー構造としている。このツリーを構成する各ノードは音楽編集装置のインターフェースからの入力に応じて、楽曲を構成方法や進行方法をリアルタイムに生成するための制御パラメータ部と楽曲を構成する音素材となるデータ実体部から構成される。また、各ノードは同一階層で同時刻に処理可能なものと処理不可能なものがある。
第10図では楽曲および楽曲と楽曲のつなぎシーケンスを次に示す3層のレイヤに分けて構造化して管理を行う。ソングリスト層120は、ソング層のつなぎのシーケンスも含めたもっともグローバルな層である。クロスフェードやBPMを揃えて動じ再生するなど曲間のエフェクトを変化させることができる。ソングリスト層のルールベースはソング層のソングルールを創作するクリエータがいくつかのソングをまとめて構築するか(既存のアルバムとソングの関係に似ている)、第三者(ユーザまたは他のクリエータ)がさまざまなソングをダイナミックに利用するためのルールを記述してもよい。
ソング層130は、既存の概念で言うところの1曲にあたる。ソングリスト層120との違いは、通常一つのソングは同一のクリエータによって創作され、少なくともひとつのソングで曲としては完結しているところである。このように考えるとソングリスト層120は複数のソングをつないでいくための上位の層である。したがって、例えば「ID_A」などのように既存の曲を別なアレンジにするためのひとまとまりのデータとアクションで構成されている。
メロディブロック層140は、上位のソング層130を構成するための楽曲ブロック群で構成される。例えば通常の楽曲は「イントロ」「Aメロ」「サビ」「ギターソロ」などと呼ばれる意味的な構造を持っている。本システムでも曲をこのような構造に分解して保持することによって、例えばイントロだけを別な物に入れ替えたり、サビを何度も繰り返したりというように楽曲をマクロ的に編曲することが可能である。
ソングリスト層120には、制御パラメータ部121がある。この制御パラメータ部121は、リミックス例を示すオブジェクトであるリミックスデータ部122を制御するためのパラメータを規定している。ソング層130には後述するようにID_A132、ID_B134、ID_C136の楽曲データ実体(オブジェクト)が記述される。これらID_A132、ID_B134、ID_C136を用いてのリミックスの実体がリミックスデータ部122に記述されている。そして、リミックスデータ部122を制御するための制御パラメータが制御パラメータ部121に記述されている。
制御パラメータ部121には、再生順序がID_A→ID_B→ID_Cのように記述されている。上記第9図に示した例の途中までの順序と同じである。つなぎ方パターンは、ID_A→ID_Bには、クロスフェードパターンを指定している。また、ID_B→ID_Cは、カットインパターンを指定している。また、つなぎ時エフェクトはID_A→ID_Bには、リバーブを指定している。また、ID_B→ID_Cはローカットを指定している。また、つなぎSEはID_A→ID_B、ID_B→ID_Cともになしとなっている。
ソング層130には、制御パラメータ部131、133及び135が記述されている。これら制御パラメータ部131、133及び135は、ソングリスト層のリミックスデータ部122から成り立っている。そして、制御パラメータ部131、133及び135は、各ID_A132、ID_B134、ID_C136というオブジェクトである実体を制御するための制御パラメータを規定している。
制御パラメータ部131は、ID_A132の曲の再生部分をテーマ(サビ)としている。再生時エフェクトは指定していない。また、制御パラメータ部133は、ID_B134の曲の再生部分をイントロとしている。再生時エフェクトはローカットを指定している。制御パラメータ部135はID_C136の曲の再生部分を8小節目から20小節目としている。再生時エフェクトは指定していない。
メロディブロック層140は、空の制御パラメータ部141、143、145、147、149、151、153、155を備えている。この例では、リミックスパターンにしたがって静的に処理を行うので、メロディブロック層140の制御パラメータ部は各パラメータを不要としている。各制御パラメータ部には、制御の実体となるイントロ部142、Aメロディ部144、Bメロディ部146、サビ部148、エンディング部150、イントロ部152、Aメロディ部154、サビ部156が接続する形となっている。
第11図には、XMLにより記述されたリミックスパターンファイルの記述例を示す。−<song_list id=”SONG_LIST_1”>によりソングリスト1であることを規定している。続いて、<controller transition=”ID_A:ID_B” pattern=”CROSS_FADE” effect=”REVERB” se=”” />により、ID_A→ID_Bには、クロスフェードパターンを指定して、さらにエフェクトとしてリバーブを指定している。
また、<controller transition=”ID_B:ID_C” pattern=”CUT_IN” effect=”LOW_CUT” se=”” />では、ID_B→ID_Cには、カットインパターンを指定して、さらにエフェクトとしてローカットを指定している。
また、<song id=”ID_A”>により、ID_Aの再生を規定している。<controller play_segment=”MELODY_BLOCK:A” effect=”” />にてAメロディブロックと、エフェクトなしを指定し、<melody type=”INTRO” />にてイントロを、<melody type=”A” />にてAメロディを、<melody type=”B” />にてBメロディを、<melody type=”SABI” />にてサビを、<melody type=”ENDING” />にてエンディングを指定している。
また、<song id=”ID_B”>にてID_Bの再生を規定し、<controller play_segment=”MELODY_BLOCK:INTRO” effect=”LOW_CUT” />にてイントロのエフェクトをローカットで再生することを規定している。そして、<melody type=”INTRO” />にてイントロを、<melody type=”A” />にてAメロディを、<melody type=”SABI” />にてサビを指定している。
また、<song id=”ID_C”>にて、ID_Cを指定し、<controller play_segment=”BAR:8−20” effect=”” />にて曲の再生部分を8小節目から20小節目とし、エフェクトをなしと指定している。
第12図には、ソングリスト層、ソング層、メロディブロック層のほかに、アンサンブル層、インストゥルメント層までの階層化を示している。アンサンブル層では、イントロ、サビなどの楽曲構造単位で見た場合、その繰り返し数によって例えば1回目のサビはピアノが入り、2回目のサビはピアノのかわりにホーンセクションが入る場合がある。また、繰り返しを抜けて別のメロディブロックに移行する直前の数小節が1回目の繰り返しとは異なることがある。
インストゥルメント層は、アンサンブル層を構成するための楽器ごとに録音された音素材の集合である。具体的なファイル実体を明示してもかまわないし、「明るい8ビートのギター」のような検索条件を与えておいてもかまわない。
第13図には、本発明の編集情報の作成方法により作成された編集情報、具体的にはリミックスパターンファイルに基づいた音楽編集装置1の制御例を示す。ここに示しているのは複数の楽曲を繋ぎ方を指定して連続再生する例である。
はじめにユーザによってソングリストが選択される(ステップS40)。つぎに第10図や第12図のソング層にある制御パラメータ部に指定された繋ぎ方とソングが選択される(ステップS41)。ここで指定される繋ぎ方とは楽曲の終了前何小節目からクロスフェードを行うのかといったエフェクト情報や、繋ぐときにどのような音声をどのように(例えば小節の頭のビートに合わせてN回再生)するかなどの情報である。
次にメロディブロック、アンサンブル、インストゥルメントの順に楽曲の構成要素が選択され、曲が再生される(ステップS42、ステップS43、ステップS44)。これらはソング終了条件が“継続中“の間繰り返される。さらにソング終了条件がステップS45にて”終了“になったときはステップS41の繋ぎ方・ソング選択に行き、新しいソングが指定された繋ぎ方で開始することになる。
第14図には、本発明の編集情報の作成方法を直感的に実現するためのオーサリングツールのGUI構成例を示す。この例は楽曲を繋いで再生することを目的とした指定方法例である。画面160にはソングリスト名161、ソング名162、次の曲と繋ぐときのエフェクト163と繋ぎに用いられる音声ファイル164が指定できるようになっている。
このように、第10図に示したデータ構造の編集情報であるリミックスパターンデータによれば、既存の楽曲のアレンジが変更になるため、ユーザに新たな音楽の楽しみ方を提供することが出来る。また、作者が楽曲生成・再生装置におけるセンサーやユーザインターフェースの入力に応じたアレンジの変更を指定出来るようになる。また、複数の曲を繋いで再生することで、DJが行っているような楽曲の再生方法を手軽に楽しむことが可能となる。
次に、第15図〜第22図を参照して楽曲をつなぐ方法の実例を概略的に説明する。従来の音楽再生では第28図のように二つの楽曲Aと楽曲Bはそれぞれの楽曲のもつオリジナルのテンポで再生され、曲と曲の間には無音部分ができることがほとんどであった。再生装置の仕組み的に無音部分なく繋ぐことができるものもあるが、楽曲の前後には多少なり無音部分がある曲も多く、それらの曲は曲の前後に曲の一部として無音部分を含んでいるためどうしても曲間に無音部分ができてしまう。
第1図に構成を示した音楽編集装置1によれば、第15図のように、楽曲のオリジナルテンポによらずユーザあるいはシステムが決定したテンポにすべての楽曲のテンポを合わせ、そしてそれら楽曲の拍位置(ダウンビート位置)も合わせて再生することで、曲を違和感なくシームレスにノンストップに繋ぐことを可能にする。
これは音楽編集装置1が楽曲Aと楽曲Bを上述したようにビート同期再生することによる。異なるテンポの楽曲のビート(拍)を同期させて再生するためには、それぞれの楽曲のオリジナルのテンポと拍(ビート)位置を知らなくてはならない。また、再生時にはテンポとビート位置を揃えるために楽曲の再生速度を変化させなくてはならない。
オリジナルのテンポとビート位置を知るために、音楽編集装置1では楽曲とペアとなった時間軸上のメタデータを用いている。再生時には楽曲のオリジナルテンポと現在のマスタービートテンポの比から再生速度を変化させたうえで、おのおのの楽曲の小節の頭位置を合わせて再生を開始する。
上記のように複数の楽曲のテンポとビート位置を正確に扱って、リアルタイムに再生位置を制御して同期再生を行う。ここで説明する楽曲をシームレスにつなぐ手法はすべてこのビート同期再生という方法を用いることが前提となっている。
第16図には、楽曲Aと楽曲Bをビートを揃えて重ねながら、クロスフェード処理によりつなぐという例を示す。現在の楽曲Aをフェードアウト(音量を徐々に小さくする)しながら次にくる楽曲Bをフェードイン(音量を徐々に大きくする)し、その両方を同時に再生することで双方の曲がシームレスに入れ替わる効果が得られる。クロスフェードは、従来からFMラジオ放送などでよく利用される手法であるが本発明のポイントはこれらの楽曲Aと楽曲Bのテンポとビート位置が揃えられているため違和感なくノンストップで楽曲がつながるところにある。
音楽編集装置1では、第17図に概要を示すカットイン処理も行える。楽曲A、楽曲B、楽曲C間の繋ぎ目が音楽的に切れがよい場合などではクロスフェードを行うよりも第17図のようにそのまま繋いでしまった方がよい場合もある。また、楽曲のビートの切れ目で意図的に切って次のビートから次の曲に切換えることも考えられる。
また、音楽編集装置1では、上述したように効果音(SE)を用いて楽曲をつないでいる。つまり、楽曲だけでなく、楽曲つなぎ部分や任意の部分に効果音(SE:Sound Effect)をはさむことができる。
第18図は楽曲Aと楽曲Bと楽曲Cのそれぞれの楽曲間に効果音を挟んだ例である。第19図はSEを用いた楽曲Aと楽曲Bのクロスフェードによるつなぎを示す例である。もちろんこの場合の効果音もマスタービートテンポに同期させることが可能である。SEを挟んだり重ねたりすることで曲調が大きく異なる楽曲同士をつなぐ場合により自然につなぐことが可能となる。
また、音楽編集装置1では、同時再生を行ってもよい。異なる楽曲をつなぐだけではなく、第20図に示すように、ビート同期を行い同時に再生を続ける。テンポとビート位置が同期しているため、あたかも最初からそのような1曲であったかのように錯覚することすらある。
また、音楽編集装置1は、第21図に示すように、一つの楽曲A中にエフェクトを適用してもよい。楽曲Aの一部分もしくは全体にエフェクト(音響効果)を適用し音質を変化させる。単に低音や高音を強調するものだけでなく、リバーブ、ディレイ、ディストーション、マキシマイザといった音色そのものを変化させるものまでを含む。
エフェクトは楽曲Aにはリバーブ、楽曲Bにはローカットフィルタをかけながら同時に再生したり上記さまざまなつなぎ方を同時に適用することによってより自然で魅力的なつなぎ方を実現することができる。
また、音楽編集装置1は、上記つなぎ方を適用するには楽曲全体に限らず、第22図のように各楽曲のサビの部分であったり、イントロ部分であったりしてもかまわない。楽曲の部分をつなぐことで例えばサビだけリミックスするようなつなぎ方が可能となる。
以上説明したように、音楽編集装置1によれば、リミックスパターンを記述したリミックスパターンファイルをもとに楽曲のリミックスをノンストップで行うことができる。その際ユーザが指定したテンポでマスタービートテンポを決定してもよいし、メインとなる楽曲のテンポに全体をあわせてもよい。
したがって、音楽編集装置1によれば、ユーザはこれまでの音楽の楽しみ方に加えて、次の新しい次元の楽しみ方ができる。これらの楽しみはこれまでのように受動的に音楽を聴いているだけでは決して得られないものであり、能動的に音楽にかかわり、自分自身に合った音楽の聴き方を創出したり自分自身の顕示欲を満たすものである。
つまり、楽曲の好きな部分をかっこうよくつないでノンストップのリミックス音楽として聞くことができる。また、楽曲のつなぎ方を自分で試行錯誤して選んだカッコウのよいものを作るという創造欲を満たすことができる。
なお、第23図には、本発明の実施の形態が適用される他の音楽編集装置80の構成を示す。第24図は、音楽編集装置80の機能ブロック図である。この音楽編集装置80は、ネットワーク通信部81を備え、インターネット82に接続できる。
ネットワーク通信部81を有することで、リミックスパターンファイルをインターネット82などのネットワークで交換、共有することによってあるユーザが作成したリミックスを第三者がダウンロードして楽しむことができる。また、個人のユーザに限らずコンテンツサービス側が提供したリミックスパターンを用いてもよい。
この音楽編集装置80によれば、楽曲のつなぎ方をインターネットなどで公開し、それを他の人と共有したり複数人でリミックスを作り上げ評価しあうといった新しい音楽を軸としたコミュニケーションが可能となる。
第25図及び第26図にはさらに他の音楽編集装置110のハードウェア構成及び機能ブロック図を示す。この音楽編集装置110は、A/Dコンバータ111を介してセンサー112からセンサー値を取得する構成であり、機能的にセンサー値取得部を備える。
センサー値取得部113は、例えば、「再生様態制御装置及び再生様態制御方法(特開2005−156641)」の発明にあるように、加速度センサーを利用して歩行テンポを検出し、その歩行テンポに合わせて楽曲のテンポを変化させる技術を適用している。この例を応用すると、歩行テンポに合わせてマスタービート生成部のテンポを変更し、すべての楽曲を歩行やジョギングのテンポに合わせてリミックス再生することが可能となる。また、「オーディオ信号の再生機および再生方法」(特願2005−363094)にあるように歩行やジョギングのテンポに合わせて楽曲を選択する発明を適用してもよい。
これらを使うためには、センサーが不可欠で、そのセンサーとこれら発明のアルゴリズムを本システムに適用することで、ユーザの状態に合わせて楽曲が選ばれ、さらにそれらがリミックスされてノンストップ再生することが可能である。
第27図A及び第27図Bはセンサー優先モードを備えた音楽編集装置110の処理手順を示すフローチャートである。この処理手順は、リミックスパターン優先モードのほかに、センサー優先モードがあり、例えばユーザの選択に応じて処理を異ならせる。センサー優先モードでは、歩行とか、ジョギングとかのパターンをセンサーが検出し、そのパターンに応じてビートを変化させるものである。
まず、センサー優先モードかパターン優先モードかを決定する(ステップS311)。この場合、センサー優先モードというのは、さきほどのユーザがジョギングするとか、歩くとかで選曲するという技術であり、曲の順番とか、選曲そのものはセンサーによって決定されるもので、パターンによって決定されるとはかぎらない。これは、動的にかわるというのを示唆しているとも言える。あらかじめフィックスされているパターンファイルを読むのではなくて、センサーからの値によって、パターンファイルを動的に作るというようなイメージである。
ステップS311にてセンサー優先ではなくパターン優先モードが選択されたときには、上述した第4図の処理手順と同様である。
ステップS311、ステップS312にてセンサー優先モードが選択されたときについて説明する。ジョギングに合わせて楽曲が自動的に選ばれてそれに合わせて楽曲を自動的につなぎましょうというような場合である。
サブルーチンとなっているが、センサーの入力から楽曲とテンポを決める(ステップS313)。ステップS314にて次の曲があると判定すると、ステップS315にてマスタービートテンポを設定する。この場合、歩行のテンポから検出されて設定されたテンポとなる。この場合は、曲のつなぎかたがあらかじめ決められたものとはかぎらないので、自動的に決定する(ステップS316)。例えば、ジョギングモードならば全部クロスフェードでつなぐ安易なものもあるし、次の曲のメタデータを見て、フェードインしている曲なので、そのまま重ねる場合もある。ステップS317以降の処理については第4図のステップS6〜S15と同一であるため、説明を省略する。
このように音楽編集装置110によれば、ジョギングのテンポに合わせた楽曲選択をし、さらにそれらをノンストップでつなぐことによってジョギングのテンションやテンポを狂わせることなく快適にジョギングを楽しむことができる。また、ジョギングに限らず、センサーによっては他のリズミカルな運動(ダンスなど)や心拍に合わせたリミックスなどが実現できる。
センサーからの入力を使って、曲を選択してさらにそのテンポもジョギングのテンポに合わせてやって、リミックスしてやる。自分の好きな曲を自分のテンポに合わせて、楽しむことができる。
また、タイマーリミックス再生を行うこともできる。例えば気に入ったアルバムの曲や自分で作ったプレイリストを通勤時間の30分の間に聞きたいという要求がある。従来であれば、アルバムが60分である場合、毎回30分再生したところで、曲を途中停止するしかなかったが、本発明のシステムを利用することで指定した楽曲集が30分にちょうどおさまるようにテンポおよび曲の使用する部分を選びリミックスすることが可能となる。ジョギングと組み合わせることもできる。30分だけ走りたいときに、30分リミックスでジョギングテンポで曲がなっているが、30分でぴったり曲がおわるようにすることができる。
サビだけを通勤時の30分に合うようにリミックスし、目的地についたときにちょうどリミックスが終わるようにすることが可能である。また、同時に到着時刻付近ではテンポをだんだん遅くしたり、特定のSEを重ねるなどしてそろそろ到着するという雰囲気を演出することもできる。
以上に説明したように、音楽編集装置80及び110によれば、楽曲のつなぎ方をインターネットなどで公開し、それを他の人と共有したり複数人でリミックスを作り上げ評価しあうといった新しい音楽を軸としたコミュニケーションが可能となる。また、センサーを利用して、より自分の状況や状態にあった音楽を聴くことができる。
これらの特徴は、これまでのプロクリエータ、ミュージシャンが作った作品をそのまま楽しむことを当たり前としてきた世界に一石を投じ、それら作品を自分の表現のための素材として再利用し再構成して楽しむという新しい世界をユーザに体験させることができる。
これにより、音楽に楽しみを見出すユーザが増えれば音楽業界全体が活性化される。また、音楽業界側から見てもユーザ側で新たに再構成することを前提とした楽曲作品とそれを創出する新たなクリエータが登場する可能性がある。業界とユーザによって新しい音楽文化創造の可能性がある。
最後に、本発明の音楽編集装置の利用可能な特徴について記述する。この音楽編集装置は、記憶部に記録された複数の楽曲のテンポとダウンビートを定められたタイミングに揃え、複数の再生制御部を保持する再生部において、前記複数の楽曲をすべて同時に同期再生することを特徴とした楽曲生成・再生装置である。また、上記楽曲は曲の全体あるいは一部分を使用することを特徴とする。また、上記楽曲は音楽的に構成された一つの曲だけでなく、効果音や会話、アナウンスなどの音声を含むことを特徴とする。
また、上記同期再生時に任意の楽曲に対して任意の楽曲開始位置、任意のタイミングで自由に発音開始/停止ができることを特徴とする。また、上記任意の位置、任意のタイミングは特に小節単位、拍単位、メロディ構成単位での指定が可能なことを特徴とする。
また、上記特徴を利用し、現在再生中の楽曲に対し異なる別の楽曲の任意部分を任意のタイミングで同時に再生することを可能とする。同様に、上記特徴を利用し、現在再生中の楽曲の任意の部分で再生を停止し、途切れることなく異なる別の楽曲の任意部分を即座に再生開始することを可能とする。
また、上記同期再生時に同時に再生中の各々の楽曲に対して、個別に音量調整可能なことを特徴とする。上記音量調整を利用し、上記同時再生時に現在再生中の楽曲の音量を下げながら次の楽曲の音量を上げながら同時に合成して再生することを可能とする。
また、上記同期再生時に同時に再生中の各々の楽曲に対して、個別に信号処理によるエフェクト処理を適用できることを特徴とする。また、上記同期再生は、上記楽曲に対応して前もって記録されたテンポ、拍子、ダウンビート位置、メロディ構成変化位置情報などで構成されるメタデータをもとにタイミング制御を行うことを特徴とする。
また、上記メタデータは楽曲と同一のファイルに記録されているか、別ファイルとして記録され楽曲との対応をデータベースおよび識別子を用いて管理することを特徴とする。また、上記同期再生時の楽曲の範囲、発音開始タイミング、音量の制御方法、エフェクト処理の種類は、生成・再生方法を記述したパターンファイルを別に用意し、それをもとにリアルタイムに再生制御を行うことを特徴とする。
また、上記テンポはユーザが指定するか本装置が自動的に決定することを特徴とする。上記の本装置が自動的に決定するテンポとしてセンサーからの入力データを使用することを特徴とする。
上記センサーには加速度センサー、ジャイロセンサー、心拍センサー、体温センサー、体動センサー、脳波センサーなどあらゆるセンサーを付加できることを特徴とする。上記パターンファイルは本装置内の記憶部に記録されるだけでなく、外部記憶装置またはインターネットから取得可能なことを特徴とする。
また、楽曲のリミックス方法を記述するためのファイルにおいて、楽曲を連続再生する場合に、それぞれの楽曲を一曲づつ個別に再生する以外に、クロスフェードのようなエフェクトや別な音をミキシングすることによって音が途切れることなく再生されるようにするための、曲と曲の繋ぎ方情報を記述できることを特徴とする。
また、楽曲生成・再生装置のインターフェースに対するユーザの操作や、楽曲生成・再生装置の外部に取り付けられたセンサーからの入力に応じた楽曲の再生位置や楽曲同士の繋ぎ方を、ユーザが指定できることを特徴とする。また、楽曲のつなぎ部分以外の場所にも別な音をミキシングしたり、エフェクトを加えたり、それらの制御パラメータの変更方法を指定するといった楽曲のアレンジ方法ができることを特徴とする。

Claims (8)

  1. 楽曲データに対応して予め生成された、少なくとも時間軸上のビート位置を含むメタデータと、リミックスパターンを決定するファイルに基づいてリミックス処理を行うリミックス処理部と、
    マスタービートを生成し、このマスタービートを上記リミックス処理部に送るとともに、上記リミックス処理部がリミックスパターンとメタデータに応じて指示してきたリミックス処理に応じ、各メタデータを用いて複数の楽曲を再生する同期再生制御部と、
    上記同期再生制御部にて再生された楽曲を混合する混合部とを備え、
    上記リミックス処理部は、階層化され、かつ各階層に制御パラメータ部とデータ実体部を有するデータ構造のリミックスパターンファイルに基づいてリミックス処理を行うことを特徴とする音楽編集装置。
  2. 上記リミックス処理部は、上記メタデータを処理するメタデータ処理部と、上記リミックスパターンを読み込むリミックスパターン読み込み部を備えることを特徴とする請求の範囲1記載の音楽編集装置。
  3. 上記同期再生制御部は、マスタービートを生成し、上記リミックス処理部に供給するマスタービート生成部と、複数の楽曲の音声信号を生成する複数系統の音声信号生成部を備えることを特徴とする請求の範囲1記載の音楽編集装置。
  4. 上記メタデータを記憶しているメタデータ用記憶部、上記楽曲データを記憶している楽曲用記憶部及びリミックスパターンを記憶しているリミックスパターン用記憶部を備えることを特徴とする請求の範囲1記載の音楽編集装置。
  5. 楽曲データに対応して予め生成された、少なくとも時間軸上のビート位置を含むメタデータと、リミックスパターンを決定するファイルに基づいてリミックス処理を行うリミックス処理部と、マスタービートを生成し、このマスタービートを上記リミックス処理部に送るとともに、上記リミックス処理部がリミックスパターンとメタデータに応じて指示してきたリミックス処理に応じて複数の楽曲を再生する同期再生制御部と、上記同期再生制御部にて再生された楽曲を混合する混合部とを備えてなる音楽編集装置により、上記リミックスパターンとして参照される編集情報の作成方法であって、
    階層化され、かつ各階層に制御パラメータ部とデータ実体部を有するデータ構造のリミックスパターンファイルを、上位層のデータ部を構成している下位層の制御パラメータ部により同階層のデータ実体部を処理することにより作成することを特徴とする編集情報の作成方法。
  6. 上記階層化は、上位層側からソングリスト層、ソング層、メロディブロック層であることを特徴とする請求の範囲5記載の編集情報の作成方法。
  7. ソングリスト層の制御パラメータ部はリミックス用実体データ部を制御するために用いられ、上記リミックス用実体データ部はソング層の複数の制御パラメータ部からなり、ソング層の複数の制御パラメータはソング層の各実体データ部を制御するために用いられ、メロディブロック層では静的に複数の実体データ部が実行されることを特徴とする請求の範囲6記載の編集情報の作成方法。
  8. 楽曲データに対応して予め生成された、少なくとも時間軸上のビート位置を含むメタデータと、リミックスパターンを決定するファイルに基づいてリミックス処理を行うリミックス処理部と、マスタービートを生成し、このマスタービートを上記リミックス処理部に送るとともに、上記リミックス処理部がリミックスパターンとメタデータに応じて指示してきたリミックス処理に応じて複数の楽曲を再生する同期再生制御部と、上記同期再生制御部にて再生された楽曲を混合する混合部とを備えてなる音楽編集装置により、上記リミックスパターンとして参照される編集情報を記録した記録媒体であって、
    階層化され、かつ各階層に制御パラメータ部とデータ実体部を有するデータ構造のリミックスパターンファイルを、上位層のデータ部を構成している下位層の制御パラメータ部により同階層のデータ実体部を処理することにより作成された編集情報を記録していることを特徴とする記録媒体。
JP2007549212A 2005-12-09 2006-12-07 音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体 Pending JPWO2007066813A1 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2005356820 2005-12-09
JP2005356820 2005-12-09
PCT/JP2006/324884 WO2007066813A1 (ja) 2005-12-09 2006-12-07 音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体

Publications (1)

Publication Number Publication Date
JPWO2007066813A1 true JPWO2007066813A1 (ja) 2009-05-21

Family

ID=38122950

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007549212A Pending JPWO2007066813A1 (ja) 2005-12-09 2006-12-07 音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体

Country Status (6)

Country Link
US (1) US7678983B2 (ja)
EP (1) EP1959427A4 (ja)
JP (1) JPWO2007066813A1 (ja)
KR (1) KR20080074975A (ja)
CN (1) CN101322179B (ja)
WO (1) WO2007066813A1 (ja)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9818386B2 (en) 1999-10-19 2017-11-14 Medialab Solutions Corp. Interactive digital music recorder and player
US8160269B2 (en) * 2003-08-27 2012-04-17 Sony Computer Entertainment Inc. Methods and apparatuses for adjusting a listening area for capturing sounds
US8139793B2 (en) 2003-08-27 2012-03-20 Sony Computer Entertainment Inc. Methods and apparatus for capturing audio signals based on a visual image
US8233642B2 (en) 2003-08-27 2012-07-31 Sony Computer Entertainment Inc. Methods and apparatuses for capturing an audio signal based on a location of the signal
WO2006043929A1 (en) * 2004-10-12 2006-04-27 Madwaves (Uk) Limited Systems and methods for music remixing
CN101322179B (zh) * 2005-12-09 2012-05-02 索尼株式会社 音乐编辑设备、创建音乐编辑信息的方法及其记录介质
JP5259083B2 (ja) * 2006-12-04 2013-08-07 ソニー株式会社 マッシュアップ用データの配布方法、マッシュアップ方法、マッシュアップ用データのサーバ装置およびマッシュアップ装置
JP5007563B2 (ja) * 2006-12-28 2012-08-22 ソニー株式会社 音楽編集装置および方法、並びに、プログラム
JP4311466B2 (ja) * 2007-03-28 2009-08-12 ヤマハ株式会社 演奏装置およびその制御方法を実現するプログラム
US7956274B2 (en) * 2007-03-28 2011-06-07 Yamaha Corporation Performance apparatus and storage medium therefor
JP5702599B2 (ja) * 2007-05-22 2015-04-15 コーニンクレッカ フィリップス エヌ ヴェ 音声データを処理するデバイス及び方法
US20090062943A1 (en) * 2007-08-27 2009-03-05 Sony Computer Entertainment Inc. Methods and apparatus for automatically controlling the sound level based on the content
US20090164034A1 (en) * 2007-12-19 2009-06-25 Dopetracks, Llc Web-based performance collaborations based on multimedia-content sharing
WO2009138425A1 (en) * 2008-05-16 2009-11-19 Tonium Ab Audio mix instruction file with timing information referring to unique patterns within audio tracks
JP4596043B2 (ja) * 2008-06-03 2010-12-08 ソニー株式会社 情報処理装置、情報処理方法、プログラム
JP4600521B2 (ja) 2008-06-03 2010-12-15 ソニー株式会社 情報処理装置、情報処理方法、プログラム
JP4596044B2 (ja) 2008-06-03 2010-12-08 ソニー株式会社 情報処理システム、情報処理方法
JP2010054530A (ja) * 2008-08-26 2010-03-11 Sony Corp 情報処理装置、発光制御方法およびコンピュータプログラム
US7939742B2 (en) * 2009-02-19 2011-05-10 Will Glaser Musical instrument with digitally controlled virtual frets
KR101040086B1 (ko) * 2009-05-20 2011-06-09 전자부품연구원 오디오 생성방법, 오디오 생성장치, 오디오 재생방법 및 오디오 재생장치
JP4537490B2 (ja) * 2009-09-07 2010-09-01 株式会社ソニー・コンピュータエンタテインメント オーディオ再生装置およびオーディオ早送り再生方法
FR2963471A1 (fr) * 2010-08-02 2012-02-03 Nevisto Sa Procede et dispositif automatique de production d'une bande son par combinaison de composantes sonores
US8805693B2 (en) * 2010-08-18 2014-08-12 Apple Inc. Efficient beat-matched crossfading
US8458221B2 (en) * 2010-10-13 2013-06-04 Sony Corporation Method and system and file format of generating content by reference
CN101984490B (zh) * 2010-11-23 2012-06-27 亿览在线网络技术(北京)有限公司 一种逐字同步的歌词文件的生成方法及系统
WO2013114421A1 (ja) * 2012-01-30 2013-08-08 パイオニア株式会社 表示システム、表示制御装置、音響機器、表示方法およびプログラム
WO2013181414A1 (en) * 2012-06-01 2013-12-05 Songalbum, Llc System and method for automatic synchronization of audio layers
JP2014052469A (ja) * 2012-09-06 2014-03-20 Sony Corp 音声処理装置、音声処理方法、及び、プログラム
CN102968995B (zh) * 2012-11-16 2018-10-02 新奥特(北京)视频技术有限公司 一种音频信号的混音方法及装置
US20140229393A1 (en) * 2013-02-11 2014-08-14 James E. Malackowski Ip content discovery platform
US9502017B1 (en) * 2016-04-14 2016-11-22 Adobe Systems Incorporated Automatic audio remixing with repetition avoidance
US10545720B2 (en) * 2017-09-29 2020-01-28 Spotify Ab Automatically generated media preview
CN108322816B (zh) * 2018-01-22 2020-07-31 北京英夫美迪科技股份有限公司 广播节目中背景音乐的播放方法和系统
CN108831425B (zh) 2018-06-22 2022-01-04 广州酷狗计算机科技有限公司 混音方法、装置及存储介质
CN109147745B (zh) * 2018-07-25 2020-03-10 北京达佳互联信息技术有限公司 歌曲编辑处理方法、装置、电子设备及存储介质
CN109545249B (zh) * 2018-11-23 2020-11-03 广州酷狗计算机科技有限公司 一种处理音乐文件的方法及装置
WO2020230279A1 (ja) * 2019-05-14 2020-11-19 AlphaTheta株式会社 音響装置および音響再生プログラム
CN110472094B (zh) * 2019-08-06 2023-03-31 沈阳大学 一种传统音乐录入方法
CN110517657B (zh) * 2019-08-15 2024-01-16 上海若安文化传播有限公司 音乐文件的节拍配置/播放方法、系统、介质及设备
US11238839B2 (en) 2019-09-19 2022-02-01 Spotify Ab Audio stem identification systems and methods
US10997986B2 (en) * 2019-09-19 2021-05-04 Spotify Ab Audio stem identification systems and methods
CN112863466A (zh) * 2021-01-07 2021-05-28 广州欢城文化传媒有限公司 一种音频社交变声方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07199925A (ja) * 1993-12-28 1995-08-04 Yamaha Corp 自動演奏装置
JPH113077A (ja) * 1997-06-13 1999-01-06 Yamaha Corp カラオケ装置
JP2000056780A (ja) * 1998-08-05 2000-02-25 Yamaha Corp カラオケ装置
JP2001109470A (ja) * 1999-10-13 2001-04-20 Yamaha Corp 自動演奏装置及び方法
JP2003108132A (ja) * 2001-09-28 2003-04-11 Pioneer Electronic Corp オーディオ情報再生装置及びオーディオ情報再生システム
JP2004172668A (ja) * 2002-11-15 2004-06-17 Matsushita Electric Ind Co Ltd 着信音生成回路及び記録媒体
JP2004198759A (ja) * 2002-12-19 2004-07-15 Sony Computer Entertainment Inc 楽音再生装置及び楽音再生プログラム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT1282613B1 (it) * 1996-02-13 1998-03-31 Roland Europ Spa Apparecchiatura elettronica per la composizione e riproduzione automatica di dati musicali
WO2002052565A1 (en) * 2000-12-22 2002-07-04 Muvee Technologies Pte Ltd System and method for media production
US6888999B2 (en) * 2001-03-16 2005-05-03 Magix Ag Method of remixing digital information
JP3778024B2 (ja) 2001-07-30 2006-05-24 ソニー株式会社 情報処理装置及び情報処理方法、並びに記憶媒体
US20040205648A1 (en) * 2001-08-17 2004-10-14 David Tinsley Systems and methods for authoring content
JP3901098B2 (ja) 2003-01-17 2007-04-04 ヤマハ株式会社 楽音編集システム
CN1523909A (zh) * 2003-02-18 2004-08-25 手机及微型电子产品的电子音乐铃声导入方法及装置
US7208672B2 (en) * 2003-02-19 2007-04-24 Noam Camiel System and method for structuring and mixing audio tracks
US20040254660A1 (en) * 2003-05-28 2004-12-16 Alan Seefeldt Method and device to process digital media streams
JP2005156641A (ja) 2003-11-20 2005-06-16 Sony Corp 再生態様制御装置及び再生態様制御方法
CN100362567C (zh) * 2004-04-07 2008-01-16 杭州斯达康通讯有限公司 一种合成和弦手机铃声的方法
CA2622333C (en) * 2005-09-15 2017-02-28 Digital Layers Inc. A method, a system and an apparatus for delivering media layers
US8762403B2 (en) * 2005-10-10 2014-06-24 Yahoo! Inc. Method of searching for media item portions
US20070083537A1 (en) * 2005-10-10 2007-04-12 Yahool, Inc. Method of creating a media item portion database
US20070083380A1 (en) * 2005-10-10 2007-04-12 Yahoo! Inc. Data container and set of metadata for association with a media item and composite media items
US7844820B2 (en) * 2005-10-10 2010-11-30 Yahoo! Inc. Set of metadata for association with a composite media item and tool for creating such set of metadata
CN101322179B (zh) * 2005-12-09 2012-05-02 索尼株式会社 音乐编辑设备、创建音乐编辑信息的方法及其记录介质
CN101322180B (zh) * 2005-12-09 2012-01-11 索尼株式会社 音乐编辑装置和音乐编辑方法
US20070208564A1 (en) * 2006-03-06 2007-09-06 Available For Licensing Telephone based search system
JP4487958B2 (ja) * 2006-03-16 2010-06-23 ソニー株式会社 メタデータ付与方法及び装置
US20070261537A1 (en) * 2006-05-12 2007-11-15 Nokia Corporation Creating and sharing variations of a music file
JP5007563B2 (ja) * 2006-12-28 2012-08-22 ソニー株式会社 音楽編集装置および方法、並びに、プログラム
US8426715B2 (en) * 2007-12-17 2013-04-23 Microsoft Corporation Client-side audio signal mixing on low computational power player using beat metadata

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07199925A (ja) * 1993-12-28 1995-08-04 Yamaha Corp 自動演奏装置
JPH113077A (ja) * 1997-06-13 1999-01-06 Yamaha Corp カラオケ装置
JP2000056780A (ja) * 1998-08-05 2000-02-25 Yamaha Corp カラオケ装置
JP2001109470A (ja) * 1999-10-13 2001-04-20 Yamaha Corp 自動演奏装置及び方法
JP2003108132A (ja) * 2001-09-28 2003-04-11 Pioneer Electronic Corp オーディオ情報再生装置及びオーディオ情報再生システム
JP2004172668A (ja) * 2002-11-15 2004-06-17 Matsushita Electric Ind Co Ltd 着信音生成回路及び記録媒体
JP2004198759A (ja) * 2002-12-19 2004-07-15 Sony Computer Entertainment Inc 楽音再生装置及び楽音再生プログラム

Also Published As

Publication number Publication date
WO2007066813A1 (ja) 2007-06-14
US7678983B2 (en) 2010-03-16
EP1959427A4 (en) 2011-11-30
EP1959427A1 (en) 2008-08-20
CN101322179A (zh) 2008-12-10
KR20080074975A (ko) 2008-08-13
CN101322179B (zh) 2012-05-02
US20090044689A1 (en) 2009-02-19

Similar Documents

Publication Publication Date Title
JPWO2007066813A1 (ja) 音楽編集装置、音楽編集情報の作成方法、並びに音楽編集情報が記録された記録媒体
JP5243042B2 (ja) 音楽編集装置及び音楽編集方法
JPWO2007066819A1 (ja) 音楽編集装置及び音楽編集方法
US7626112B2 (en) Music editing apparatus and method and program
KR101136974B1 (ko) 재생장치 및 재생방법
CN1165951A (zh) 产生伴随于现场歌唱声的合唱声的音乐设备
US11875763B2 (en) Computer-implemented method of digital music composition
JP4489650B2 (ja) 歌詞文字に基づいて切り貼り編集を行うカラオケ録音編集装置
Huber The Midi manual: A practical guide to Midi within Modern Music production
KR101029483B1 (ko) 멀티채널 오디오 파일을 이용한 음악 ucc 제작방법 및 그 장치
JP2007072315A (ja) 重唱曲における模範歌唱の再生制御に特徴を有するカラオケ装置
JP2001318670A (ja) 編集装置、方法、記録媒体
JP2024501519A (ja) オーディオアレンジメントの生成及びミキシング
JP2007079413A (ja) オーディオ再生装置、オーディオ配信システム、オーディオ再生プログラムおよびオーサリングプログラム
Eisele Sound Design and Mixing in Reason
Dixon Fractures for clarinet and computer

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111012

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120326

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120619