JP2009543150A - マルチメディアシーケンスを自動的又は半自動的に合成するための方法及び装置 - Google Patents

マルチメディアシーケンスを自動的又は半自動的に合成するための方法及び装置 Download PDF

Info

Publication number
JP2009543150A
JP2009543150A JP2009519010A JP2009519010A JP2009543150A JP 2009543150 A JP2009543150 A JP 2009543150A JP 2009519010 A JP2009519010 A JP 2009519010A JP 2009519010 A JP2009519010 A JP 2009519010A JP 2009543150 A JP2009543150 A JP 2009543150A
Authority
JP
Japan
Prior art keywords
subcomponent
subcomponents
track
tracks
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009519010A
Other languages
English (en)
Inventor
ユエ,シルヴェイン
ユリシェ,ジャン−フィリップ
バビネ,ジル
Original Assignee
エムエックスピー4
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR0606428A external-priority patent/FR2903802B1/fr
Priority claimed from FR0700586A external-priority patent/FR2903803B1/fr
Application filed by エムエックスピー4 filed Critical エムエックスピー4
Publication of JP2009543150A publication Critical patent/JP2009543150A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • G10H1/0025Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H7/00Instruments in which the tones are synthesised from a data store, e.g. computer organs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/111Automatic composing, i.e. using predefined musical rules
    • G10H2210/115Automatic composing, i.e. using predefined musical rules using a random process to generate a musical note, phrase, sequence or structure
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/125Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/145Sound library, i.e. involving the specific use of a musical database as a sound bank or wavetable; indexing, interfacing, protocols or processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/005Algorithms for electrophonic musical instruments or musical processing, e.g. for automatic composition or resource allocation
    • G10H2250/015Markov chains, e.g. hidden Markov models [HMM], for musical processing, e.g. musical analysis or musical composition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本発明による方法は,基準マルチメディアシーケンス構造を合成し,この構造を各々が一連の基本サブコンポーネント(ブリック
Figure 2009543150

)を含む基本コンポーネント(トラックP,P,P)に分割し,複数の同属サブコンポーネント(同属ブリック
Figure 2009543150

)の基本サブコンポーネントの各々に属性が割り当てられたサブコンポーネントの各々を関連付けること,更にサブコンポーネントを維持すること,又はこれらを,選択されるサブコンポーネントの確率を決定するアルゴリズムによりアルゴリズム的に選択され,更に属性を考慮しながらこれらの確率において任意抽出を実行することにより選択された同属サブコンポーネントに交換することを含む新しいマルチメディアシーケンスの自動合成段階を含む。

Description

発明の詳細な説明
本発明は,既存の,又は状況に応じて合成された基準マルチメディアシーケンス構造を使用して,マルチメディアシーケンス(より好ましくは主に音声)をリアルタイムで自動的又は半自動的に合成するための方法及び装置に関する。
既存のマルチメディア素材を使用してマルチメディアシーケンスを生成するための多くの解決策がすでに提案されていることは一般的に知られている。
一例として,欧州特許第0 857 343 B1号には,導入装置,コンピュータに接続された一又は複数の記録媒体,リズム発生器,音程実行プログラム,及び音源を含む電子音楽発生器が開示されている。単独で曲を作り演奏を行いたい使用者がその電子音楽発生器を操作すると,導入装置は入力リズム信号と音程信号を生成する。記録媒体は,様々な伴奏トラックを有しており,使用者はそれらを重ね合わせることによりトラック上で独奏パートや,各々が少なくとも音符が演奏される瞬間における少なくとも一つの音符を定義する様々なリズムブロックを作成したり演奏したりすることができる。記録媒体は,一定の経過時間にわたり使用者により作成された独奏部の少なくとも一つの部分を記録する。リズム発生器は,導入装置により発生されたリズム信号を受け取り,前記信号により記録媒体内のリズムブロックの一つを選択し,選択されたリズムブロックにより定義された音符を即時演奏するためのコマンドを発生する。音程実行プログラムは,導入装置により発生された音程信号を受け取り,前記信号による適切な音程,使用者により選択された伴奏トラック,及び記録された独奏部を選択する。その結果,音程実行プログラムは適切な音程を作成する。リズム発生器から受け取った命令,音程実行プログラムからの音程,また使用者により選択された伴奏トラックの表示を有する音源は,使用者により作成された独奏パート及び選択された伴奏トラックの音声信号を生成する。
更に,欧州特許第1 326 228号では,特定の使用者の好みに合う音楽を得るために双方向操作形式で楽曲を変更できる方法が開示されている。この方法では特に,音楽の規則が,使用者により変更できる音楽データに適用される,歌のデータ構造の介入を採用する。
実際,前述の解決方法は,主に,ハードコードされたデジタル音楽ファイルフォーマットに関連付けられている連続プロセスに従って,分離している音楽シーケンスを変更することにある。
本発明は,制作者により定義された音楽空間内でマルチメディアシーケンスの合成を可能にする方法を有しており,聴取者は双方向操作式ツールを利用することにより操作を行うことができる。
その趣旨で,本発明は,基準マルチメディアシーケンス構造を作成し,前記構造をトラック(P,P,P)に利用できる基本コンポーネントに分割し,かつこれらの基本コンポーネントの各々が,楽章,和声,又はスタイルを構成することができる一組の基本サブコンポーネント(すなわちブリック(bricks)
Figure 2009543150
)に分割される事前段階,ならびにサブコンポーネントの選択を含む新しいマルチメディアシーケンスのリアルタイムの自動合成段階を含む,マルチメディアシーケンスのリアルタイムでの自動的又は半自動的な合成の方法を提唱している。
本発明によれば,この方法は,事前段階が心理音響記述子又は属性をサブコンポーネントの各々に割り当てること,及びサブコンポーネント及びそれらに割り当てられた記述子又は属性をデータベースに保存することを含み,更に自動合成段階がサブコンポーネントのシーケンスを基本コンポーネント上で発生することを含み,ここでサブコンポーネントの保持又は交換により特徴付けられる連鎖法(chaining)は,各サブコンポーネントに対し心理音響記述子又は属性及び状況パラメータを考慮した選択基準を決定するアルゴリズムによって計算され,前記合成段階をループして繰り返し,各シーケンスはサブコンポーネントを各基本コンポーネントに割り当てることにより永久にそれを再生し,聴取者は前記アルゴリズムの操作に影響を及ぼすことによりサブコンポーネントの選択にリアルタイムで介入できることを特徴とする。
本発明はしたがって,使用者の操作に従ってマルチメディアシーケンスを(最初の1回だけではなく)リアルタイムで発生することを可能にする。この発生は,ループ機能(自然停止なし)により無制限に繰り返すことができ,シーケンスはデータベース内でアルゴリズム的に選択されたサブコンポーネントを割り当てることによりそれ自身を永久に再生し,使用者はアルゴリズムの操作に影響を及ぼすことによりサブコンポーネントの選択のレベルで介入することができる。
前述の方法は,これらのサブコンポーネントの各々及び割り当てられた属性の各々に対する,データベース内に保存されているファイルに含まれる複数の同種のサブコンポーネント(又は同種のブリック)の関連付けを含むことができる。自動合成段階は,次に,サブコンポーネントを同種のサブコンポーネントに交換すること及び属性を考慮しながら同種のサブコンポーネントの各々を決定すること(基本サブコンポーネントの場合,このサブコンポーネントが選択される確率と同じ)を含む。
前述のとおり,アルゴリズムは確率計算(probability calculation)に基づく。このアルゴリズムは,各サブコンポーネントが選択される確率を決定し,これらの確率に応じて任意抽出を実行する。
確率は,サブコンポーネントの内容と無関係な規則(例えば非音楽規則)を適用することにより計算することができる。これらの規則ではサブコンポーネントの選択が他のコンポーネントの規則に影響を及ぼすことを考慮することができる。また,ある規則では,例えば,前回の選択によって,あるコンポーネントを選択する可能性を変更することを含む。
したがって,シーケンス,例えば音楽シーケンスは,本発明による方法によって,次の項目について介入することができる。
− コンポーネント(又はトラック)数N,
− これらの基本コンポーネント(又はブリック)及び一組のサブコンポーネント(例えば,音楽ブリック)のそれぞれ,
− サブコンポーネント(ブリック)の選択がサブシーケンスの選択にどのように影響を及ぼすかを定義する一組の規則,
− 使用者が上述の規則を有効又は無効にすることを可能にする双方向操作型キーを入力する手段。
基本コンポーネント(トラック)は,作動状態又は非作動状態(一時停止)にすることができる。この状態は,サブコンポーネントの事前選択又は同時選択により定義される。
本発明による方法によって実行された選択では,最大確率(したがって非無作為選択)から利益を得るサブコンポーネントを伴う可能性がある。
前記規則は,重要度又は優先順位により特徴付けられることがある。この場合,2つの規則が矛盾する場合,サブコンポーネントの選択が常に可能(ゼロ以外の確率を有する少なくとも一つのブリック)になるような方法で,より重要度が低い方が瞬時に削除される。
サブコンポーネント(ブリック)選択のアルゴリズムは,音楽の他のパラメータ,すなわち,トラックの音量,繰り返しの程度,エコー係数などを選択することを可能にするために一般化されることがある。
更に,サブコンポーネント選択アルゴリズムは,音楽以外のコンテンツの種類(ビデオシーケンス,テキストなどの選択)に対して一般化されることがある。
前記手段により,本発明では,本発明の方法により合成された単一のファイルを使用して,可変性が大きく,無制限に作り変えることができる楽曲を作ることができる。
コンピュータ技術は,ここでは再生の手段としてだけではなく,音楽との双方向操作の手段として介在している。このことは,発生する音楽の質に関して,音楽の創作段階が常に重要でかつ絶対的な基本であるという意味で,自動音楽とは無関係である。
しかしながら,作曲者の作業は,本発明の実施により,大幅に変更される。これには,聴取者が双方向操作型ツールを使用してナビゲートされる音楽空間を作曲者が定義することが含まれる。
より詳細には,本発明による方法は,次の工程を含む。
− フィルタの適用又は音楽シーケンスの処理による,所定の音楽シーケンスを使用した一連の音楽ブリックから構成されるトラックを作成する工程,
− 作成されたブリックとの整合性により選択された既存のブリック及びそれによって作成されたブリックを含む音楽ブリックの基部を作成する工程,
− 心理音響記述子の名称を定義する工程,
− 各組(ブリックと記述子)のスコアを定義する表を作成する工程,
− 固有の双方向操作の重みによってミキシングインタフェースを介して使用者が双方向に操作できる記述子のサブセットを定義する工程,
− 各関数は任意のトラックにリンクし,各関数は状況パラメータを有する候補となるブリック(演奏されたばかりのブリック,現在他のトラック上で演奏されているブリック,使用者により定義された双方向操作の重み)に適用され,かつ候補となるブリックの適切性の結果を有する複数のミキシング関数のリストを作成する工程,
− ミキシング関数の結果が最大となるための候補となるブリックを選択する工程。
本発明の実施形態を,一例として添付図面を参照して以下に説明するが,これらの例に限定されるものではない。
本発明の方法に適用される動作原理を示す外観図。 本発明の方法による,既存の音楽のコード化過程の原理を示す矢線図。 本発明による方法で実装された実行プログラム(プレイヤ)の一般的な操作を示す矢線図。
図1に示す例では,本発明による方法はn個のトラックP,P,…,Pに分解された基準マルチメディアシーケンスを使用している。
各トラックは,次の様に連続したサブコンポーネント又は基準ブリックを含む。
− トラックPは,連続したブリック
Figure 2009543150
などを含む。
− トラックPは,連続したブリック
Figure 2009543150
などを含む。
− トラックPは,連続したブリック
Figure 2009543150
などを含む。
各トラックの基準ブロックは各々,次のように一連の同属ブリックに関連付けられる。
− ブリック
Figure 2009543150
は,同属ブリック
Figure 2009543150
に関連付けられ,
− ブリック
Figure 2009543150
は,同属ブリック
Figure 2009543150
に関連付けられ
− ブリック
Figure 2009543150
は,同属ブリック
Figure 2009543150
に関連付けられ
− ブリック
Figure 2009543150
は,同属ブリック
Figure 2009543150
に関連付けられる。
言うまでもなく,本発明はトラック,基準ブリック又は同属ブリックの数については制限していない。更に,トラック,基準ブリック,及び同属ブリックに関連したデータはファイル又はデータベースB1a,B1b,B2a,B2b,Bn1,Bn2,Bn3,Bn4に保存される。
これらのファイル又はデータベースは,以下“エキスパートシステム”と称するコンピュータシステムSEにより使用され,このエキスパートシステムは仮想ミキシングコンソールの機能を提供するように設定され,次の要素を含む。
− 規則の基底(BR),
− 様々なファイルB1a,B1b,B2a,B2b,Bn1,Bn2,Bn3,Bn4内にあるブリック(基準又は同属)の選択手段S
− 基準トラックP,P,Pの状態E,E,Eを検出するための手段,
− 使用者に多様な双方向操作の可能性を提供する制御ボタンB及び/又はカーソルC,
− それぞれが選択されたブリックを含む新しい仮想トラックP’,P’,P’を有する新しいマルチメディアシーケンスをリアルタイムで合成するための計算手段CA。
この新しいマルチメディアシーケンスは,メモリMに一時的に記憶したり,生成時にリアルタイムで演奏したりすることができる。
− 新しいトラックP’,P’,P’の状態を制御する手段CO,
− 必要な処理の後に,選択されたブリックを適切なマルチメディアインタフェースIからI,例えばラウドスピーカーのエンクロージャー,ディスプレイ,光源などに伝送するために設計されたルーティングステーションA。
この例では,選択装置Sを介して,以前に選択されたブリック
Figure 2009543150
によってブリック
Figure 2009543150
を選択し,そのブリックをトラックP’に統合する様子を示している。
任意の持続時間を有するトラックP’,P’,P’により示されている基準のマルチメディアシーケンス構造は,以下“曲(piece)”と称する。曲は,曲を合成する工程,ファイル作成工程,及びファイルを再生し対応する曲を実行する工程を経て得られる。
曲を合成する工程は,次の要素の定義を含む。
− 音声/テキスト/ビデオなどのトラックの識別による,曲の仮想ミキシングコンソールの構造,及び使用者に提供される双方向操作型の制御装置(カーソルC又はボタンB)の識別による,これらのトラックの各々のための特定の属性(例えば,音声トラックの音量),
− 音声トラックのサンプル,曲のスタイル及び楽節,及び通常これらの要素が双方向操作により発展する方法,及び双方向操作型ボタンがこの構造に影響する方法の識別による曲の双方向操作構造,
− 音楽の抜粋,ビデオの抜粋,3Dアニメーション,テキスト,音声,及びビデオフィルタなどから構成される基本マルチメディアコンポーネント,すなわち“ブリック(or bricks)”。各ブリックは有限な持続時間の時系列及び様々なマルチメディアイベントのコーディングとして理解される。
この双方向操作構造は次のいずれかにより定義することができる。
− 構造モデル,例えば,音楽様式,音楽パッセージ(例えばリフレイン/ヴァース),音声トラック,“オリジナル曲”のトラック,及び複数の伴奏トラックなどの使用,
− 曲の構造の直接操作。
ファイルは,前述の構成要素及び,特に基本マルチメディアコンポーネント(ブリック)を含む又は参照する。ファイルは,上述した曲の合成段階を実行するためにシステムエキスパート型のコンピュータシステムにより使用されるように設計されている。
各マルチメディアコンポーネントのコンテンツの符号化フォーマットは,ハードコード化されていない。したがって,例えば音声に対しては,Windowsオーディオ/ビデオファイル拡張子(登録商標),wav(登録商標),mp3標準(登録商標),又はエキスパートシステムが認識できるいずれかのフォーマットを使用することができる。
エキスパートシステムSEは,ファイルを読み取り,対応する曲を実行することができるソフトウェアから構成されている。このソフトウェアは,ファイルに含まれているか,又はファイルにより参照されるマルチメディアコンポーネント(ブリック)を解釈することができる。
エキスパートシステムは,使用者に頼ることなく,自動で双方向操作型制御装置(ボタン)を扱うことができるが,通常は使用者に双方向操作型インタフェースを提供する。更に,エキスパートシステムは,ある曲から別の曲への切り替えを可能にする。
エキスパートシステムにより実行される機能は,次の特徴を有する仮想ミキシングコンソールの操作として提供される。
− 無限になる可能性のあるトラック数,
− 独立して作動状態又は非作動状態にできるトラック,
− 音声,ビデオ,テキスト,雰囲気,抽象制御などの多様な種類のトラック,
− 無限になる可能性のある双方向操作型カーソルの数,
− 音声トラックのための音声ブリックなど,トラックの種類と互換性のあるサブコンポーネントと共に連繋する,作動状態になった各トラック,
− サブコンポーネントがあるトラックに対して選択されたとき,エキスパートシステムはまた,このサブコンポーネントが保持されている間,最小の持続時間を選択する。
このミキシングコンソールは構成することができる。そのため,例えば,音声トラックに対して,考慮されている情報は,再生する音声コンポーネント,音量,コンポーネントのための最小再生時間を含むことができる。表示の場合,考慮されている情報は,例えば,表示するテキスト要素,使用する文字フォントなどを含むことができる。
構造上,エキスパートシステムは,互いに異なる2つの部分を含む。
− 規則の基底による制約を実行し,多様な性質のサブコンポーネントの選択を提供する抽出エンジン(abstract engine),
− 選択された要素を使用して双方向操作型インタフェースを発生させるミキシングコンソールのモデル。
エキスパートシステムにより実行された計算は,次の条件及び計算規則に基づく。
a)空間,システム,及び状態の概念
空間はシステム“S”から構成され,各システムは状態“E”のベクトルである。そのため,例えば,
− トラックは,状態Eが音楽ブリックであるシステムSである,
− 一連の和声は,状態がその和声であるシステムである。
常に,システムSは,停止しているかあるいは状態Eである。後者の場合には,状態Eは,アクティブであると考えられ,E(S)と表わされる。
システムは,非対称性の“γ”相関及び“τ”相関により双方向に操作する。
S’γS:Sの状態がS’の状態に依存していることを意味する。相関γの循環は認められていない。すなわち,S1γS2γ…SnγS1は不可能である。
S’τS:Sの状態が“以前の”S’の状態に依存していることを意味する。システムSの以前の状態は,E’(S)と表される。τ相関は再帰的であり得る。
γ相関又はτ相関及びシステムは,α相関により状態に関連付けることができる。
EαS:Eが非アクティブの場合,Sは停止。
Eαγ:Eが非アクティブの場合,γは停止。
停止された相関はすべての影響を失う。
2つのシステムS及びS’がγ相関又はτ相関にあるとき,Sの状態に対するS’の状態の確率マトリクスが定義される。そのため,式aγbは,S’の状態aが確率pでSの状態bをもたらすことを表すために書かれる。この寄与率は,また,ps’γS(a,b)と表され,あいまい度の可能性がない場合は,p(a,b)に等しい。この寄与率は,正の実数(場合によりゼロ)である。
停止システムは,γ相関又はτ相関により影響を与え続ける可能性がある。確率マトリクスはソースシステムの“停止”状態まで拡張される。
ここで注意すべき点は,一つの状態のみを有しα相関がないシステムは,後者のみをアクティブにできることである。この状態は常に既知のため,“完全制約システム”である。
制約は,システムを強制的にある状態にする方法として定義されている。
ここで注意すべき点は,τ相関はしたがって,次の制約のもとではγ相関と等しいということである。SτS’は次のものと置き換えられる。
− S(すなわち同じ状態を有する)に一致するシステムSprev
− 相関τと同じマトリクスの相関SprevγS’
− 制約E(Sprev)=E’(S)
更に,ここで注意すべき点は,完全制約システムと制約されるシステム間のγ相関として,制約がより一般的に見られるということである。この相関のためのマトリクスは,したがって,1を除くすべての係数が0であるベクトルに縮小される。
制約は相反することがあるので,それらに重要度を割り当てることにより順序付けられなければならない。このため,重要度のレベルは,制約と同様にγ相関及びτ相関にも割り当てられる。
この重要度のレベルは,γ相関に対しては無限になる可能性があるが,τ相関及び制約に対しては有限でなければならない。これは,次の事実により正しいことが証明される。
− 所定の状態において,空間を維持することができなくてはならないが,それはτ相関を固定する必要がありうる,
− 適用される制約は,要求どおりに考慮されなければならない。
b)解決(又は減少)の概念
:解決空間及び自由に計算できる空間
システムSの減少は,その状態の各々の確率を決定すること,次にこれらの確率を考慮した任意抽出を行うことにある。この選択は,システムSの状態を決定する。
正規化前のSの状態bの確率は,次の式で表される。
p(b)=ΠS’γSp(E(S’),b).ΠS’τSp(E’(S’),b)
この確率は,非停止γ相関又は非停止τ相関を基に計算される。
Sの状態bの正規化された確率は,次の式で表される。
p(b)=p(b)/ΣaεSp(a)
この確率は,序数内にある和がゼロでない場合にのみ存在し,言い換えれば,正規化前にゼロではない確率を有する少なくとも一つの状態が存在する。
空間の解決は,可能性のある相関が満足するような方法で,すべてのシステム状態を決定することにある。
空間は,無限の重要度が考慮されることによってのみ解決が存在する場合,“自由に計算可能”である。
本明細書の残りの部分では“自由に計算可能”な空間のみを対象とする。
2:制約下での解決
制約下での解決は,いくつかのシステムの状態を抑制することにある。
制約は常にE(S)=bを呈することにある。
制約は,重要度の基準と関連があり,これによって,全体の順序が決定する(この重要度の概念は混合計算(mixing calculation)を使用する用途によって決定する)。
制約のもとでの解決は,すべての関係及びすべての制約が遵守されるような方法で,有限な重要度の関係を含むすべてのシステムの状態を決定することにある。
3:制約下での低い解決
低い解決は,少数の制約又は相関を排除すること及び次の規則を適用することにより解決法を特定することにある。制約下での解決が失敗した場合,失敗を引き起こしたすべての制約又は相関が特定され,重要度が低い制約又は相関が抑制され,解決が再び開始される。
“自由に計算可能”な空間が,常に粗雑な方法で決定されるのは明らかである。最悪の場合,自由に計算できる空間は,有限の重要度のすべての制約及び相関を抑制することにより決定される場合がある。
4:システム及び演算相関
演算システム(arithmetical systems)は,その状態が実数である特定のシステムとして定義され,Sa..と表される。これらは,したがって,状態が有限の数で,実数の範囲に一致しているシステムである。
演算相関は定義される。システムS,S,…,SとシステムS間のγ相関及びτ相関を定義する代わりに,これらの相関はシステムS,S,…,SとシステムS間の演算表現で表される。
この表現は,システムS,S,…,Sの現在又は過去の状態を基にしており,アクティブ状態Sを提供する。
システムが演算式の場合,その状態は実数(システムが抑制されている場合は慣例により0)である。
例えば,
S:=if(E(S)+E’(S))=0 then a else b
S:=1+if E(S)=a then 0 else 1
(ここでa及びbはSの状態,a1はS1の状態,E’(S2)はS2の以前の状態を表す)。
基本コマンド(primitives)は,次のとおりである。
− +,*,−,/,%,&,|,&&,||,∧,!,〜
− if…then…else
− rand(0と1の間の実数を返す)
− sin,cos,tan,…
その結果,システムSは,演算解決を有するとされる。逆の場合,システムSは量子解決を有する。
空間の解決に関して直前の検討が有効のままであるような,量子解決の中に演算解決が含まれることが分かっている。
解決の複雑さを適正な制限内で維持するためには,次の制限が定められる。
− 演算システムは常に演算解決を有する。そうでなければ,量子相関マトリクスは無限のサイズを有することになる。
− 制約は演算解決に依存するシステムに適用することはできない。なぜなら,それは結果的に任意の演算関数の逆数の計算になる可能性があるためである。
−− このシステムは,演算解決を有さない。
−− このシステムは,直接間接を問わず,演算解決を有するシステムに依存しない。
この制約は,ある場合においては,減少した複雑度を超え得ることがあり,これは量子解決として導入するには冗長である。
例えば,S=if E(S’)!=E’(S’)then a else b。
:量子解決計算の例
慣例により,確率寄与率が指定されていない場合,それらは1の値を有すると見なされる。
“否定(Not)”演算子
定義:
SγS’
S={a,b}
S’={a’,b’}
P(a,a’)=(b,b’)=0
したがって,a≡a’≡真,及びb≡b’≡偽を考慮して,
E(S’)=!E(S)
E(S)=a⇔E(S’)=b’
E(S)=b⇔E(S’)=a’
“否定論理積(Nand)”演算子
定義:
γS’
γS’
S’γS
={a,b
={a,b
S’={a,a,b,b
S={a,b}
p(a,b)=p(a,b)=0
p(b,a)=p(b,a)=0
p(a,a)=p(a,b)=0
p(b,a)=p(b,b)=0
p(a,a)=0
p(a,b)=0
p(b,b)=0
p(b,b)=0
したがって,a≡a≡a’≡真,及びb≡b≡b’≡偽を考慮して,
E(S)=!E(S)∧E(S
発振器
定義:
SτS
S={a,b}
p(a,a)=p(b,b)=0
したがって,新しい解決のそれぞれにおいてシステムSは状態を変える。
ロム(Rom)
定義:
S={a}
システムSは常に状態aを有する。
無効(Disable)
定義:
S={a}
S’={有効,無効}
SγS’
p(a,有効)=1
p(a,無効)=0
したがって,有効状態は常にアクティブで,無効状態は決してアクティブではない。
マルコフ連鎖
定義:
SτS
S={a,b,c}
p(a,c)=0
p(b,a)=0
p(c,a)=0
Sの初期状態はaであると仮定する。
その結果,システムはある期間状態aのままで,次に状態bに切り替わり,その後,状態bと状態cの間で無限に発展し,決して状態aには戻らない。
:制約下での低い解決アルゴリズム
制約下での解決の場合,一組の制約(S,b,n)が提供される。すなわち,システムSは状態bに制約され,重要度nを有する。
アルゴリズムは,次のとおりである。
− 準備:
−− 制約は,それらのシステムに関連付けられる。複数の制約が同じシステムに適用される場合,より重要度の高い制約が保持される
−− 複数のシステムが“未解決の”状態に初期化される
− 次に,再帰的に解決できるシステムが選択される:
−− このシステムはまだ解決されていない
−− このシステムのα相関はシステムが解決される状態をもたらす
−− このシステムが量子解決を有する場合:
−− すべての入力相関は既知の状態(停止又は非停止)になり
−− 入力非停止γ相関は解決源を有する
−− システムが演算解決を有する場合は:
−− 演算相関を使用しているすべてのシステムは解決される
−− ヒューリステック:最初に,演算解決のシステムSに関心が与えられ,続いて,最小の状態を有する量子解決のシステムに関心が与えられる
− システムが停止しているかどうかが決定され,もしそうなら,システムは“停止”状態に置かれることで解決され,この状態は再帰的に持続する
− そうでなければ,演算解決において:
−− 演算表現が評価され,それにより新しい状態が指定され
−− これは再帰的に解決される
− そうでなければ,量子解決において:
−− システムの非停止状態の確率が計算される
−− すべての状態が起こりえない場合,又はシステムが起こりえない状態に制約される場合,このシステムの解決は機能しなくなり,その結果,候補状態が欠如する
−− 確率に対してドローイングが実行され,続いて,最良のスコアが得られた一つによりその状態の開始が試みられる
−− ある状態が選択され,再帰的に解決される
−− 再帰的な解決が失敗した場合,次の状態に進む
−− すべての状態が起こりえない場合,解決は失敗する
そのため,失敗の場合,失敗が発生した最後のシステム(候補状態の欠如した,失敗した最後のシステム)に注目する。次に,このシステムにつながるα相関,γ相関,及びτ相関のツリーに沿って逆行し,この失敗の原因となった有限の重要度の制約と相関のリストが決定される。より重要度の低い制約と相関は,それから停止され,解決が再び開始される。
空間は自由に計算できるので,最悪の場合に,すべての制約及び有限の重要度の相関を取り除くことによる解決が常に存在する。
もちろん,前述の概念及び規則は,エキスパートシステムにより実行される機能の特異性に適応させなければならない。
そのため,第一に,最初の評価期間に適用される初期制約リスト(場合により空)を定義することが適切である。
いくつかのシステムは,“マスター”として定義され,このことは任意のシステムが少なくとも一つのマスターシステム(場合によりそれ自身)に対応していることとして理解される。
マスターシステムは,それらのスレーブシステムのために,次の解決の時間を定義する。
マスターシステムの各状態は,“基本持続時間”を定義する。マスターシステムの状態がアクティブになった場合,新しい解決は,基本持続時間後に行われなくてはならない。この解決は,このマスターシステムの制御下にない非一時停止システムに対して部分的であり,アクティブ状態の延長制約が準無限重要度(空間の他のすべてのレベルの重要度よりも高い)に適用される。
一般に,“マスター”システムは,部分解決を回避する空間全体であると看做すことができる。
更に,典型的なトラックのリストである“ミキシングコンソール”を定義するのに適している。
各トラックは,ミキシングコンソールの空間の一又は複数のシステムSに対応している。例えば,音声トラックに対して:
− システムは,再生される音楽ブリックを示す(システムの状態は,トラックのブリックに一致する)
− 演算システムは,繰り返し回数を示す
− 演算システムは,繰り返し制約の重要度を示す
− 演算システムは,音量を示す。
スタイルトラックに対しては,
− システムは,現在のスタイルを示す
− 演算システムは,スタイルを維持するための最小時間を示す
− 演算システムは,スタイルを維持するための制約の重要度を示す,など。
実際には,トラックは次のものに対応している。
− 再生されているサブコンポーネントを選択するメインシステム
− トラックの属性を定義する二次的システム。これらの属性が不変の場合,それらを表すために,システムを定義しなければならないことを避けることができる(それはどのような場合でも,α相関なしで絶対制約システムを必要とする)
トラックが状態を変えた場合は,それらの属性を使用して最小希望持続時間が決定される。
いったんミキシングコンソールが定義されると,エキスパートシステムにより実行される解決が行われている間,各トラックに適用される制約が定義される。
− 延長制約:状態は命令的に維持されなければならない(終了していない音楽ブリック)
− 繰り返し制約:状態は更新されなければならない(音楽の繰り返し,スタイルの維持など)
− 手動制約:使用者が強制的に所定の状態に切り替える
各制約では,定数又は演算システムの値を使用することにより重要度のレベルが定義される。
もちろん,同一のマスターシステムによって決定する音声トラックは同期しなければならない。そのため,トラック上で音声ブリックが選択された場合,そのトラックの再生はトラックの選択の要因となった解決の正確な時間に開始される。この再生は,たとえブリックが繰り返されることになっていても,ループ形式で実行されない。そのため,次の解決の期間には,
− ブリックがまだ再生中(延長制約)で,再生が単に続いている,
− 又は,ブリックの再生が完了し,ブリックが選択されたままの状態の場合(例えば,繰り返し制約の後),この新しい解決の正確な時間で再生が再び開始される。
前述のように,エキスパートシステムは,次の要素を構造化方式でまとめるように設計されたファイルを使用する。
− 混合計算の定義
− マルチメディア要素の定義
− ミキシングコンソールの定義
−− トラック及びトラック間のリンクの定義
−− トラック,属性,及び混合計算システム間のリンク
−− マルチメディア要素及び混合計算の状態間のリンク
− 双方向操作が提案された制約の定義,及び双方向操作がエキスパートシステムにより提供されない場合に保持するための処理の定義。
このファイルは,xml記述ファイルで構成され,コンポーネント(component),システム(system),制約(constraint),フレームワーク(framework)の4種類のタグを含む。
<component…>
<system…>
<constraint…>
<framework…>
これらのタグは,次の2つの属性を有することができる。
name:検索又は表示に使用する名前
id:ファイル全体の固有id
属性は,次のいずれかである。
−定数
−システムidで,属性は,その結果,システムの現在の状態の値を有する。
コンポーネントタグは,主属性を有するミキシングコンソールのコンポーネントを記述する。
Type=audio|abstract|general|,他
それは通常,次の属性を有する。
Select:コンポーネントの現在の値(通常,ミキシングコンソールシステムid)
“一般”コンポーネントはファイルの一般属性(主テンポ,主音声など)の定義を可能にする。そのようなコンポーネントは,一般的に,選択属性を含まない。
一般コンポーネントが次の属性を有する場合,そのコンポーネントが一定の時間,現在の値を維持することを意味する。
length:秒単位での持続時間
repeatmin/repeatmax:繰り返し回数
level:制約を維持する重要度
コンポーネントはまた,ミキシングコンソールの評価が“基本持続時間”の終わりに実行されなければならない“マスター”属性を含むことができる。この基本持続時間は “選択”属性の現在の状態の基本持続時間により決定される。
“audio”タイプのコンポーネントでは,次の属性もある。
Volume_left:左音声の音量
Volume_right:右音声の音量
systemタグは,混合計算システム及びそのシステムを決定する相関を記述している。
その属性は,“name”及び“id”に加え,次のものがある。
Type=select|numerical
eval=quantum|arithmetical
Typeは,次の値を有する。
− select:状態のリストからの選択
− numerical:数値
評価(eval)モードは,次の値を有する。
− quantum:量子減少(selectタイプの場合のみ)
− arithmetical:演算表現
下位タグは,次のとおりである。
<alpha…>
<state…>
<relation…>
<expr…>
alpha下位タグは,システムのためのα相関を定義する。
その属性は次のとおりである。
State:α相関を引き起こす状態のid
state下位タグはシステムのTypeが“select”の場合にのみ,システムのとりうる状態の一つを定義する。
nameとstateは,数値として解釈されることがある。
属性は,“name”及び“id”に加え,次のものがある。
type=audio|adstract
enable=on|off
enableが“off”に等しい場合,その状態は選択することができない。
“audio”タイプの状態では,次の属性もある。
File:wavファイル
Time:wavファイルの時間
Stereo:wavファイルの種類
Bytestart:wavファイル内のデータストリームの開始バイト
Bytelength:wavファイル内のデータストリームのサイズ
Volume_left:左音声の音量
Volume_right:右音声の音量
繰り返しのための持続時間又は係数も定義される。
Length:秒単位での持続時間
Repeatmin/repeatmax:繰り返し回数
Level:制約を維持する重要度
relation下位タグはシステムのためのγ相関又はτ相関を定義する。
“name”及び“id”に加え,次の属性がある。
type=gamma|tau
source:ソースシステムのid
level:重要度のレベル
それらの属性は,次の下位タグを有する。
<alpha…>:任意のα相関
<matrix>:確率マトリクス(状態がこのxmlファイル内で現れる順番)
<suspend>:一時停止されたソース状態の確率ベクトル
マトリクス及びベクトルは,スペース又は改行により分離された,係数値の連続したフィールドを有する。
expr下位タグは,自身のフィールド内で,次に基づく演算表現を定義する。
− 数値
− 状態(#id)
− システムの現在値(#id)
− システムの以前の値(@id)
− +,*,−,/,%,&,|,&&,||,∧,!, ̄
− if…then…else
− rand(0と1の間の実数を返す)
− sin,cos,tan,など
constraintタグは,双方向になり得る混合計算制約を定義する。
その属性は,“name”及び“id”に加え,次のものがある。
State:強制される状態のid
Level:制約の重要度
Interactive=yes|no
Default:yes|no
Startup:yes|no
Icon:画像ファイル
frameworkタグは,ファイルの構造モデルを定義する。これは,自動的にある構造要素(主に相関)を作成することにより,編集段階において有用である。
例えば,“song”frameworkでは,
− 抽象コンポーネントは和声として機能する
− 抽象コンポーネントはスタイルとして機能する
− 絶対制約を有するコンポーネントはスコアとして機能する
− トラックはオリジナルを含む
− トラックは音声を含む
− 抽象コンポーネントは,オリジナルとミックスとの間で,α相関により選択される
− 制約はスタイルによる
− 制約はオリジナルモードに切り替える
− 制約は音声を抑制する,など。
γ相関は,スコアコンポーネントと各オーディオトラックとの間に適用される。
γ相関は,スタイルコンポーネントと各オーディオトラックとの間に適用される。
γ相関は,和声コンポーネントと各オーディオトラックとの間に適用される。
τ相関は,ある和声から別の和声に直線的に切り替えるために,和声に適用され,再生が行われた場合に最初の和声を飛ばして進む。
τ相関は,オリジナルトラックの要素を繰り返すために,オリジナルトラックに適用される。
τ相関は,和声トラックとオリジナルトラックとの間に適用される。
τ相関は,オリジナルトラック間と和声との間に適用される。
曲は,次のものとして定義される。
− xml記述ファイル
− wavファイル,アイコンファイル,などのファイル
コンポジットフォーマットは,これらの要素のすべてが一つのファイルにグループ化できるように定義される。
コンポジットファイルは,最初にサブファイルの表を含む。
− ファイル数,
− コンポジットファイル内における,ファイル名,サイズ,及びインデックス。
記述ファイルには,“index.xml”という名前が付けられている。
xmlによって参照されるファイルは,最初にサブファイルの表内で検索され,続いてローカルディスク上で検索される。
エキスパートシステムの機能は,
− 演奏を例示化し,
− 演奏での双方向操作を提案し,
− ある演奏から別の演奏への切り替えを処理することである。
図2及び図3に示された例において,本発明による音楽コンテンツ作成の出発点は,デジタルフォーマットの音声ファイル又はビデオファイルから成る。この初期シーケンスは,複数のシーケンスに分解される際に使用され,実行プログラムに対してクロック発生の指示を与えるためのテンポを有する。
この方法の第一の工程は,(音楽的感覚において)複数の小節に相当する持続時間のシーケンスに分割することにある。この分割は,例えば,従来の音楽編集ソフトウェアを使用して,又は小節終了マーカの記録を制御するリズムにより制御されるペダルにより手動で実行することができる。分割は,また,シーケンスの解析により自動的に実行することもできる。この最初の分割工程の結果により,デジタルファイルから成る音声又はビデオの初期素材が作成される。
第二の工程は,これは各初期素材に対して,一又は複数のフィルタ処理された素材を,使用された実行プログラムに対応するフォーマット(例えば,MP3フォーマット)に適応させるために,これらの音声又はビデオの初期素材にフィルタを適用することにある。フィルタ処理された各素材には,例えば,ファイル名などの識別子が割り当てられる。一組のフィルタ処理された素材は,それにより,例えば,初期シーケンスのフィルタ処理の結果から構成される。これらのフィルタは,次のフィルタを含むことができる。
− 歌手の声又はオーケストレーションを分離するフィルタ,
− ディストーションフィルタ,
− 音声を追加するためのフィルタ,
− 特殊効果を作成するフィルタ,など。
任意に,元の構造を維持するために構成された他のフィルタ処理された素材上で,“リーダー”(歌のトラック)が維持される。
更に,その長さが“特定のフィルタ処理された素材”の長さを超える可能性がある素材のため,“汎用の”フィルタ処理された素材が追加される。これらは,音楽又はビデオのデジタルファイルで,初期ビデオシーケンス又は初期音楽シーケンスに依存しない。
聴取者が作成されたファイルと双方向に操作できるように,次の3つのコンポーネントが用意されている。
− 心理音響基準
− トラック
− フィルタ処理された素材の集合又は上述したサブコンポーネントを含む“ブリック”
心理音響基準は,例えば,次のものにより定義される。
− 音量,
− 初期シーケンス内での作成番号,
− 初期シーケンスに対する相似のレベル,
− 開始ブリック又は曲の終わりの品質,
− 独奏パートの要素(他のトラックはオフ),
− 他のブリックと共に体系的に再生された要素,など。
次に,一組のトラックが構成される(n個のビデオトラック,m個の音声トラック,z個のテキストトラック,照明,又はフィルタ,例えば,トラックx及びyに適用された音量(他のトラック及びトラック間相関に適用された,効果を定義しているいくつかのトラック)など)。また,“コントロール”として参照されるトラックもあり,それは,目や耳に対して実際的な効果を有さないが,他のトラックが基部として使用するパラメータを決定する。例えば,あるトラックは,他のトラックでも使用される和声を決定する。
その後,サブコンポーネント又はブリックの集合は,各ブリックがフィルタ処理された要素から成るように構成され,次のものと関連付けられる。
− 各心理音響基準(手動又は自動)に関して,その重み付けに対応した係数
− トラックの集合から選択された,あるトラック
続いて,双方向操作型カーソルが定義され,それにより使用者は音楽演奏と双方向に操作することができる。
次の工程は,各トラックに対して,定数(心理音響基準)及び状況(カーソル値及び現在実行されている曲の履歴)によって各ブリックの重み付けをする評価関数を定義することにある。
状況に応じ,各トラックに対しては内部変数変更関数が定義され,各ブリック(エッジ効果)に対しては内部の変数変更関数が各ブリックの開始点及び終了点で呼び出される。
様々な関数によって,基本算術演算に対して,乱数発生器,複雑な構造の使用,及びエッジ効果の管理を用いることができる。距離関数は,ブリックの組み合わせ全体を評価することを防止し,その関数を,演奏が完了したばかりのブリックに近接したブリックに対してのみ適用する。それにより,音声/ビデオシーケンスは,双方向操作型の音楽用のマルチメディアフォーマットに一致するフォーマットで構成される。
そのフォーマットは,“曲”の概念を利用する。曲は,ある持続時間,場合によっては無制限の時間を有するシーケンスである。
本発明によるフォーマットは,マルチメディアサブコンポーネント又はブリックに基づいている。それらは主に音声ブリックであるが,ビデオ,テキスト,又はその他用のブリックもある。また,あるブリックは,他のブリックに適用されるマルチメディアフィルタ(音声フィルタ,ビデオフィルタ,又はその他のフィルタ)になることもある。
システムは,前述のとおり,ブリックを組み立てたり,組み合わせたりすることによりマルチメディアシーケンスを合成する。
組み立てたり組み合わせたりするブリックの選択は,シーケンスが実行されている間,使用者の双方向操作機能により達成することができる。
システムは複数の段階から成る。
−− 合成
−− ファイル
−− 実行プログラム
曲の合成は,非網羅的な方法で次のものを組み立てることにより実行される。
−− “ブリック”と称されるマルチメディア要素,すなわち,音楽の抜粋,ビデオの抜粋,3Dアニメーション,テキスト,音声フィルタ,及びビデオフィルタなど。各ブリックは,限られた持続時間を有する時間シーケンスで,次の様々なマルチメディアイベントをコード化する。
−− ブリックの定数属性を決定する,“心理音響”として参照されるパラメータ
−− 双方向操作型カーソル
−− ブリックの選択が行われる方法を判断する評価関数。
この組み立ては,通常,上述の項目を含む又は参照するファイルを生じる。
各ブリックのコンテンツの符号化フォーマットは,仕様上ハードコードされていない。例えば,MP3(登録商標)などの標準仕様を利用することができる。
このフォーマットは,双方向操作型カーソルの記述に加えて心理音響基準に対応したパラメータのリストを含む。
更に,このフォーマットは様々な評価関数を含む。これらの関数は,その特徴が仕様の一部であるバイトコードの形で記述されている。このバイトコードは,実行プログラムに組み込まれた仮想マシンにより解釈されるようになっている。
ファイルは,曲を豊かにしたり,特に実行プログラムによる曲の表現を豊かにしたりするメタデータを自由に追加できる。
実行プログラムは,本発明により合成されたファイルを読み,対応する曲を実行することができるソフトウェアである。
実行プログラムは,ファイルに含まれているブリック,又はファイルを参照するブリックを解釈することができる。
実行プログラムは,できる限り自動で,ただし,通常は使用者に双方向操作型インタフェースを与えることにより,使用者に依存することなく双方向操作型カーソルを管理することができる。
最終的に,実行プログラムは評価関数の値を求め,その結果により組み合わされるブリックの選択を行うことができる。
曲は,次の方法により定義される。
− テンポ:Π
− 一組のトラック:T
− あるトラックが他のトラックに作用することを示す,非対称でかつ必ずしも必要でない単射β相関:tβt’
− 一組の心理音響基準:C
− それぞれがあるトラックに関連している一組のマルチメディアブリック:B={btj,t∈T};拡張により,Bはあるトラックに関連している複数のブリックを示す。
− 各心理音響基準により各ブリックを評価している一組の値:K={kc,b,c∈C,b∈B}
− 心理音響基準による,場合によりユークリッドの距離関数:
−− d:B×B→R
− 場合により無限の心理音響リミッタ:λ∈R
− 一組の双方向操作型カーソル:I
− 各双方向操作型カーソルの現在の値を与える一組の双方向操作型パラメータ:P={p,i∈I}
− 各トラックに現在送信されているブリック,及び繰り返し回数のリスト:H={h,t∈T,h∈B}∪{r,t∈T}
− 一組の一般パラメータ(例えば,曲の始めからの経過時間):G
− 一般使用のための一組のグローバル変数:V
− 各トラックに関連した評価関数:
−− F={f,t∈T},ただしf:B×K×P×H×G×V→R
−− これらの関数は,ランドランダム発生器に基づくことがある:φ=R[0,1]
−− これらの関数は,一組のVにおいてエッジ効果を発生することができる
− これらのエッジ効果の管理を最適化するため,ブリックのための関数は各トラックに対して,開始及び終了する。
−− S={s,t∈T},ただし,s:B×K×P×H×G×V→R
−− E={e,t∈T},ただし,e:B×K×P×H×G×V→R
曲の実行中,実行プログラムは,すべてのトラックを永続的に組み合わせる。各トラック上では,プログラムによりブリックが一つずつ連繋される。
各ブリックの終わりにおいて,実行プログラムは,次のテンポで開始される次のブリックを選択する。
トラックt上で再生する次のブロックの選択は,f(b,K,P,H,G,V)を最大化するブリックbを決定することにより実行される。この計算は,d(b,b)<λになるようにブリックb∈B上で実行される。ここで,bは完了したばかりのブリックを示す。
曲に含まれるブリックの数及び実行プログラムの計算能力によっては,値λは劇的に小さくなることがある。
ブリックの開始点において,実行プログラムは関数s(b,K,P,H,G,V)を評価する。またブリックの終了点において,関数e(b,K,P,H,G,V)を評価する。関数sは,適用可能な場合には,エッジ効果を用いてブリックの再生パラメータ(繰り返し,音程,全体の音量など)を変更することができる。
使用者は,双方向操作型パラメータPと双方向に操作する。
ミキシング操作は,ブリックの種類による。一般に,トラックが独立していない場合,β相関は,従属関係を定義する。例えば,音声効果(音量,エコー,など)と連繋しているトラックは,音声トラック上のミキシングに適用される。
例:純粋なランダム操作
実行プログラムは,得られるすべてのブリックの中から任意のブリックを随時無作為に選択する。
d(b,b)=0
(b,K,P,H,G,V)=rand
実行プログラムは,得られるすべてのブリックの中から任意のブリックを随時無作為に選択し,ブリックの選択を1,2,…2に等しい可変回数繰り返す。ここで,nはブリックの繰り返しパラメータである。
C={repetition}
d(b,b)=0
(b,K,P,H,G,V)=
if b!=h then rand
else if r<2epetition,b&&r!=2E(rand×k repetition,b then−1
else 1
ブリックは順序づけられ,実行プログラムは規則正しく次のブリックを選択し,シーケンスの最後で最初のブリックに戻る。
C={order}
d(b,b)=0
(b,K,P,H,G,V)=
if h=φ||korder,b<=korder,ht then−korder,b
else korder,ht−korder,b
次の要素をグループ化するファイルは,構造化様式である。
− 一般パラメータ(主にテンポ)
− トラックの数と記述,特に各トラックの種類(音声ソース/音声効果/サブタイトル/ビデオ/ビジュアルフィルタ)
− トラック間の関係,例えば,トラック3はトラック2のクレッシェンドを処理する
− 心理音響特性の数と記述
− 様々なマルチメディア素材(ファイルに直接組み込まれるもの,又はディスク又はURL上のパスにより参照されるもの)
− 各ブリックのリストと記述(ブリックはマルチメディア素材を含むが,同じ素材が複数のブリックにより使用されることがある)
− 各ブリックの心理音響特性値の表
− 双方向操作型カーソルの数と記述
− 関連リミッタと同様,バイトコードの形で定義された各トラックの距離関数のリスト
− バイトコードの形で定義された各トラックの評価関数のリスト
− バイトコードの形で定義された各トラックの開始関数及び終了関数のリスト
マルチメディア素材のフォーマットは,mp3,wavなど自由である。関連したコーデックは,言うまでもなく実行プログラム内に存在しなければならない。
バイトコードは,スタックバイトコードであり,これにより基本算術演算に対し,乱数発生器の使用,複合構造(リスト,タプル,ベクトル)の使用,及び関数の操作を可能にする。
ユーザインタフェースに関しては,使用者がブリックを選択するためのアルゴリズムと双方向に操作する方法が多様であるということに留意すべきである。
簡易な手段として,使用者は,例えば,検討中の作業に依存して数と種類が決定する双方向操作のためのいくつかのボタン又はカーソルから成るグラフィックインタフェースを有することができる。
本発明による方法を使用したコンテンツの作者は,より穏やか/中間/よりダイナミックなどのある種類の双方向操作型共通項目(interaction uniform)を作成する方法によって,これらのボタン又はカーソルのいくつかをすべての作業(又はマルチメディアシーケンス)に統合することができる。
双方向操作型カーソルはまた,生体計測データにより動作が行われることもある。
− コース計測(歩数計)
− 心臓の鼓動
− EEG(脳波図;electroencephalogram)波,すなわち“脳波”
後者の例は,特に使用者のストレス状態又は集中状態を測定することが可能であることが知られている。そのため,次の2つのモードの相互関係が考えられる。
− アクティブモードでは,使用者は精神状態を変えることにより音楽の操作に誘導される。このモードでは,使用者が脳の活動をコントロールする方法を学ばなければならないので,使用者側は著しい努力を必要とする。実際,このモードは教育上にのみ利用される。
− パッシブモードでは,使用者は例えば,システムに対して使用者がリラックスした状態又は集中状態を維持するよう要求できる。その後,システムは,簡単なキックダウン(kickdown)によって,“より穏やか/中間/よりダイナミック”ボタンを自動的に作動させる。使用者が穏やかな状態を維持するためには,EEG波が使用者の興奮の開始を示す場合は“より穏やか”ボタンが作動し,使用者が低レベルのストレス状態になった場合は,“中間”ボタンが作動する。

Claims (22)

  1. 基準マルチメディアシーケンス構造を生成し,前記構造をトラック(P,P,P)に利用できる複数の基本コンポーネントに分割し,かつこれらの基本コンポーネントの各々が,楽章,和声,又はスタイルで構成されることができる一組の基本サブコンポーネント(すなわちブリック
    Figure 2009543150
    )に分割される事前段階と
    前記サブコンポーネントの選択を含む新しいマルチメディアシーケンスのリアルタイムの自動合成段階と
    を含み,
    前記事前段階が心理音響記述子又は属性を前記サブコンポーネントの各々に割り当てること,及び前記サブコンポーネント及びそれらに割り当てられた前記記述子又は前記属性をデータベースに保存することを含み,
    前記自動合成段階が一連の前記サブコンポーネントの前記基本コンポーネント上で発生することを含み,ここで前記サブコンポーネントの保持又は交換により特徴付けられる連鎖法は,各前記サブコンポーネントに対し前記心理音響記述子又は前記属性及び状況パラメータを考慮した選択基準を決定するアルゴリズムによって計算され,
    前記合成段階をループして繰り返し,各前記シーケンスは前記サブコンポーネントを各前記基本コンポーネントに割り当てることにより永久にそれを再生し,聴取者は前記アルゴリズムの操作に影響を及ぼすことにより前記サブコンポーネントの選択にリアルタイムで介入できる
    ことを特徴とするマルチメディアシーケンスのリアルタイムでの自動的又は半自動的な合成の方法。
  2. 前記自動合成段階において実行される前記サブコンポーネントの選択が,前記属性及び前記状況パラメータを考慮して,各前記サブコンポーネントの選択確率を決定する前記アルゴリズムにより定義される前記選択基準を遵守しながら,無作為に実行されることを特徴とする請求項1記載の方法。
  3. 前記確率が,前記サブコンポーネントの内容に依存しない規則を適用することにより計算されることを特徴とする請求項1又は2記載の方法。
  4. 前記規則が,前記サブコンポーネントの選択において他のコンポーネントの規則に影響を及ぼすことを考慮することができ,更にある規則が事前選択又は同時選択によって,あるコンポーネントの選択を行う確率を変更することを特徴とする請求項3記載の方法。
  5. 前記合成段階で行われる選択が無作為ではなく,前記サブコンポーネントが最大選択基準によって選択されることを特徴とする請求項1記載の方法。
  6. 前記規則が重要度又は優先順位度により特徴付けられることを特徴とする請求項3記載の方法。
  7. 2つの前記規則が矛盾する場合,前記サブコンポーネントの選択が常に可能になるような方法で,より重要度が低い方が瞬時に削除されることを特徴とする請求項6記載の方法。
  8. 前記合成段階が,無限になる可能性のある複数のトラック,独立して作動状態又は非作動状態にできるトラック,多様な種類のトラック,無限になる可能性のある複数の制御機器(ボタン(B)及びカーソル(C)),前記トラックの種類と互換性のある前記サブコンポーネントに連繋している前記トラックの作動化,選択された前記サブコンポーネントが保持されている間に最小の持続時間を決定するシステムを含む仮想ミキシングコンソールを操作するシステム(SE)により実行されることを特徴とする請求項1〜7のいずれか1項記載の方法。
  9. 前記システム(SE)が,
    − 前記規則の基底により課された制約を実行し,多様な性質の前記サブコンポーネントの選択を提供する抽出エンジン
    − 選択された前記要素を使用して双方向操作型インタフェースを発生させる仮想ミキシングコンソールのモデル
    を含むことを特徴とする請求項8記載の方法。
  10. 前記仮想ミキシングコンソールの各前記トラックが,計算領域の一又は複数の前記システムに関連付けられていることを特徴とする請求項9記載の方法。
  11. 音声トラックに対して,前記システムは前記サブコンポーネント(音楽ブリック)が再生されるように指示し,演算システムが実行される繰り返し回数を示している間,前記演算システムが繰り返し制約の重要度及び音量を示すことを特徴とする請求項10記載の方法。
  12. 各前記トラックが,このトラックの前記サブコンポーネントを選択するメインシステム及び前記トラックの属性を定義する二次システムに関連付けられており,前記トラックが状態を変えた場合,前記システムがそれらの属性を使用して最小必要持続時間を決定することを特徴とする請求項10記載の方法。
  13. 複数の前記トラックが同期しなければならない場合,前記サブコンポーネントが前記トラックのいずれか上で選択されたとき,その再生が前記トラックの選択を導く正確な時間に開始され,この時間がマスターシステムの役割を果たすシステムの一つにより決定されることを特徴とする請求項10記載の方法。
  14. 次の解決の間に,たとえ前記サブコンポーネントの繰り返しが,
    − 前記サブコンポーネントが再生中で,前記システムは単にそれを再生し続けている,
    − 又は,前記サブコンポーネントの前記再生が終了し,前記サブコンポーネントが選択されたままの場合は,この新しい解決の正確な時間で再生が再び開始されるという方法で実行されることになっていても,前記再生がループして実行されない
    ことを特徴とする請求項13記載の方法。
  15. 前記システムが,
    − 混合計算の定義
    − マルチメディア要素の定義
    − 前記ミキシングコンソールの定義
    − 前記トラック及び前記トラック間のリンクの定義
    − 前記トラック及びそれらの属性,及び前記混合計算のシステム間のリンク
    − 前記マルチメディア要素及び前記混合計算の状態間のリンク
    − 双方向操作が提案された制約の定義,及び前記双方向操作がエキスパートシステムにより提供されない場合に保持するための処理の定義
    の各要素を構造化様式でまとめるように設計されたファイルを含むことを特徴とする請求項8記載の方法。
  16. − フィルタの適用又は音楽シーケンスの処理による,所定の前記音楽シーケンスを使用した一連の音楽サブコンポーネントから構成される前記トラックを作成する工程と,
    − 作成された前記サブコンポーネントとの整合性により選択された既存のサブコンポーネント及びそれによって作成されたサブコンポーネントを含む音楽サブコンポーネントの基部を作成する工程と,
    − 前記心理音響記述子の名称を定義する工程と,
    − 各組(サブコンポーネント;記述子)のスコアを定義する表を構築する工程と,
    − 固有の双方向操作の重みによってミキシングインタフェースを介して使用者が双方向操作をできる記述子のサブセットを定義する工程と,
    − 各関数は任意のトラックにリンクし,各関数は状況パラメータを有する候補となるサブコンポーネント(演奏されたばかりのサブコンポーネント,現在他のトラック上で演奏されているサブコンポーネント,前記使用者により定義された前記双方向操作の重み)に適用され,かつ候補となるサブコンポーネントの適切性の結果を有する複数のミキシング関数のリストを作成する工程と,
    − 前記ミキシング関数の前記結果が最大となるための前記候補となるサブコンポーネントを選択する工程と
    を含むことを特徴とする請求項5記載の方法。
  17. 前記サブコンポーネントの少なくとも一つが,周辺機器を駆動するための情報を含む制御サブコンポーネントであることを特徴とする請求項1〜16のいずれか1項記載の方法。
  18. 物理センサー又はリモートコンピュータから得られる情報による自動サブコンポーネント選択工程を含むことを特徴とする請求項1〜17のいずれか1項記載の方法。
  19. 前記合成段階が,更に非音楽的サブコンポーネントを含むことを特徴とする請求項1〜18のいずれか1項記載の方法。
  20. 前記ファイルが,次の要素,すなわち
    − 一般パラメータ(主にテンポ),
    − 前記トラックの数と記述,特に各前記トラックの種類(音声ソース/音声効果/サブタイトル/ビデオ/ビジュアルフィルタ),
    − 前記トラック間の関係
    − 心理音響特性の数と記述,
    − 様々なマルチメディア素材,
    − 各前記サブコンポーネントのリストと記述(前記サブコンポーネントはマルチメディア素材を含むが,同じ素材が複数の前記サブコンポーネントにより使用されることがある),
    − 各前記サブコンポーネントの心理音響特性値の表,
    − 双方向操作型カーソルの数と記述,
    − 関連リミッタと同様,バイトコードの形で定義された各前記トラックの距離関数のリスト,
    − バイトコードの形で定義された各前記トラックの評価関数のリスト,
    − バイトコードの形で定義された各前記トラックの開始関数及び終了関数のリスト,
    の各要素の少なくとも一つの部分を含むことを特徴とする請求項16記載の方法。
  21. 前記サブコンポーネントの開始点で,前記状況パラメータを変更する関数sの実行プログラムを実行し,前記サブコンポーネントの終了点で,前記状況パラメータ(b,K,P,H,G,V)に適用される関数eを評価する実行プログラムを実行することを特徴とする請求項16記載の方法。
  22. 前記基準マルチメディアシーケンス構造を作成し,
    この構造をそれぞれが一組の前記サブコンポーネント
    Figure 2009543150
    を含む複数の前記トラック(P,P,P)に分割する手段を提供し,
    前記記述子又は前記属性を割り当てることを可能にする手段と,
    前記基準シーケンス内の前記基本サブコンポーネントのすべて又は一部のために,これらのサブコンポーネントに対して,同種のサブコンポーネントによって前記サブコンポーネントを維持又は交換することを含む新しいマルチメディアシーケンスを使用者への補助を前提としてリアルタイムで自動合成する手段と,
    各前記基本サブコンポーネント又は同種のサブコンポーネントに対して,このサブコンポーネントが選択される確率を,属性を考慮し,更に前記確率に関して前記選択を実行することにより決定するアルゴリズムによって前記コンポーネントをアルゴリズム的に選択する手段と,
    各前記シーケンスの再生による再繰り返し操作及び前記サブコンポーネントの各前記基本コンポーネントへの割り当てにより,前記自動合成段階を繰り返すための手段と,
    前記アルゴリズムの操作に影響を及ぼすことによりサブコンポーネントの選択に聴取者が介入することを可能にする手段と
    を有することを特徴とする請求項1〜21のいずれか1項記載の方法を実行するための装置。
JP2009519010A 2006-07-13 2007-07-12 マルチメディアシーケンスを自動的又は半自動的に合成するための方法及び装置 Pending JP2009543150A (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
FR0606428A FR2903802B1 (fr) 2006-07-13 2006-07-13 Procede de generation automatique de musique.
FR0700586A FR2903803B1 (fr) 2006-07-13 2007-01-29 Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia.
FR0702475A FR2903804B1 (fr) 2006-07-13 2007-04-04 Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia.
PCT/IB2007/003205 WO2008020321A2 (en) 2006-07-13 2007-07-12 Method and device for the automatic or semi-automatic composition of a multimedia sequence

Publications (1)

Publication Number Publication Date
JP2009543150A true JP2009543150A (ja) 2009-12-03

Family

ID=38878469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009519010A Pending JP2009543150A (ja) 2006-07-13 2007-07-12 マルチメディアシーケンスを自動的又は半自動的に合成するための方法及び装置

Country Status (6)

Country Link
US (1) US8357847B2 (ja)
EP (1) EP2041741A2 (ja)
JP (1) JP2009543150A (ja)
KR (1) KR20090051173A (ja)
FR (1) FR2903804B1 (ja)
WO (1) WO2008020321A2 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006084749A (ja) * 2004-09-16 2006-03-30 Sony Corp コンテンツ生成装置およびコンテンツ生成方法
US7985912B2 (en) * 2006-06-30 2011-07-26 Avid Technology Europe Limited Dynamically generating musical parts from musical score
FR2903804B1 (fr) * 2006-07-13 2009-03-20 Mxp4 Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia.
WO2009107137A1 (en) * 2008-02-28 2009-09-03 Technion Research & Development Foundation Ltd. Interactive music composition method and apparatus
US20110190914A1 (en) * 2008-03-12 2011-08-04 Iklax Media Method for managing digital audio flows
FR2928766B1 (fr) * 2008-03-12 2013-01-04 Iklax Media Procede de gestion de flux audionumeriques
US20100199833A1 (en) * 2009-02-09 2010-08-12 Mcnaboe Brian Method and System for Creating Customized Sound Recordings Using Interchangeable Elements
DE102009017204B4 (de) * 2009-04-09 2011-04-07 Rechnet Gmbh Musiksystem
RU2495789C2 (ru) * 2010-12-20 2013-10-20 Алексей Александрович Тарасов Способ использования гироскопического момента для управления летательным аппаратом (транспортным средством) и устройство управления летательным аппаратом
US9390756B2 (en) * 2011-07-13 2016-07-12 William Littlejohn Dynamic audio file generation system and associated methods
US9459768B2 (en) * 2012-12-12 2016-10-04 Smule, Inc. Audiovisual capture and sharing framework with coordinated user-selectable audio and video effects filters
US9411882B2 (en) 2013-07-22 2016-08-09 Dolby Laboratories Licensing Corporation Interactive audio content generation, delivery, playback and sharing
US9613605B2 (en) * 2013-11-14 2017-04-04 Tunesplice, Llc Method, device and system for automatically adjusting a duration of a song
US11132983B2 (en) 2014-08-20 2021-09-28 Steven Heckenlively Music yielder with conformance to requisites
US10515615B2 (en) * 2015-08-20 2019-12-24 Roy ELKINS Systems and methods for visual image audio composition based on user input
US10854180B2 (en) 2015-09-29 2020-12-01 Amper Music, Inc. Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine
US9721551B2 (en) * 2015-09-29 2017-08-01 Amper Music, Inc. Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions
EP3577651A1 (en) * 2017-02-06 2019-12-11 Kodak Alaris Inc. Method for creating audio tracks for accompanying visual imagery
US11024276B1 (en) 2017-09-27 2021-06-01 Diana Dabby Method of creating musical compositions and other symbolic sequences by artificial intelligence
AU2019207800A1 (en) * 2018-01-10 2020-08-06 Qrs Music Technologies, Inc. Musical activity system
US10896663B2 (en) * 2019-03-22 2021-01-19 Mixed In Key Llc Lane and rhythm-based melody generation system
US11024275B2 (en) 2019-10-15 2021-06-01 Shutterstock, Inc. Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system
US10964299B1 (en) 2019-10-15 2021-03-30 Shutterstock, Inc. Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions
US11037538B2 (en) 2019-10-15 2021-06-15 Shutterstock, Inc. Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system
CN113091645B (zh) * 2021-02-20 2022-01-28 四川大学 基于概率密度函数提高相移误差检测精度的方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09120283A (ja) * 1995-10-25 1997-05-06 Casio Comput Co Ltd 自動作曲機
US5877445A (en) * 1995-09-22 1999-03-02 Sonic Desktop Software System for generating prescribed duration audio and/or video sequences
JP2000099013A (ja) * 1998-09-21 2000-04-07 Eco Systems:Kk 複数のデータからの任意な参照比率による作曲システム
JP2002515987A (ja) * 1997-01-27 2002-05-28 ハーモニックス ミュージック システムズ,インコーポレイテッド リアルタイム音楽作成システム
JP2004500588A (ja) * 1999-07-30 2004-01-08 シャンドア メスター ジュニア 即興でミュージックを創作するための装置及び方法
JP2006084749A (ja) * 2004-09-16 2006-03-30 Sony Corp コンテンツ生成装置およびコンテンツ生成方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5267318A (en) * 1990-09-26 1993-11-30 Severson Frederick E Model railroad cattle car sound effects
US5692517A (en) * 1993-01-06 1997-12-02 Junker; Andrew Brain-body actuated system
US5521323A (en) * 1993-05-21 1996-05-28 Coda Music Technologies, Inc. Real-time performance score matching
JP3056168B2 (ja) * 1998-08-20 2000-06-26 株式会社プロムナード 番組編成方法および番組編成装置
US6636763B1 (en) * 1998-12-10 2003-10-21 Andrew Junker Brain-body actuated system
US6392133B1 (en) * 2000-10-17 2002-05-21 Dbtech Sarl Automatic soundtrack generator
US7176372B2 (en) * 1999-10-19 2007-02-13 Medialab Solutions Llc Interactive digital music recorder and player
WO2001045391A1 (en) * 1999-12-16 2001-06-21 Kent Ridge Digital Labs System and method for video production
US7076494B1 (en) * 2000-01-21 2006-07-11 International Business Machines Corporation Providing a functional layer for facilitating creation and manipulation of compilations of content
US7613993B1 (en) * 2000-01-21 2009-11-03 International Business Machines Corporation Prerequisite checking in a system for creating compilations of content
AT500124A1 (de) * 2000-05-09 2005-10-15 Tucmandl Herbert Anlage zum komponieren
US7035873B2 (en) * 2001-08-20 2006-04-25 Microsoft Corporation System and methods for providing adaptive media property classification
EP1354318A1 (en) * 2000-12-22 2003-10-22 Muvee Technologies Pte Ltd System and method for media production
US6822153B2 (en) * 2001-05-15 2004-11-23 Nintendo Co., Ltd. Method and apparatus for interactive real time music composition
EP1274069B1 (en) * 2001-06-08 2013-01-23 Sony France S.A. Automatic music continuation method and device
US6683241B2 (en) * 2001-11-06 2004-01-27 James W. Wieder Pseudo-live music audio and sound
EP1326228B1 (en) * 2002-01-04 2016-03-23 MediaLab Solutions LLC Systems and methods for creating, modifying, interacting with and playing musical compositions
US7076035B2 (en) * 2002-01-04 2006-07-11 Medialab Solutions Llc Methods for providing on-hold music using auto-composition
US7078607B2 (en) * 2002-05-09 2006-07-18 Anton Alferness Dynamically changing music
US7169996B2 (en) * 2002-11-12 2007-01-30 Medialab Solutions Llc Systems and methods for generating music using data/music data file transmitted/received via a network
US7026534B2 (en) * 2002-11-12 2006-04-11 Medialab Solutions Llc Systems and methods for creating, modifying, interacting with and playing musical compositions
EP1666967B1 (en) * 2004-12-03 2013-05-08 Magix AG System and method of creating an emotional controlled soundtrack
US7491878B2 (en) * 2006-03-10 2009-02-17 Sony Corporation Method and apparatus for automatically creating musical compositions
FR2903804B1 (fr) * 2006-07-13 2009-03-20 Mxp4 Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia.
US7863511B2 (en) * 2007-02-09 2011-01-04 Avid Technology, Inc. System for and method of generating audio sequences of prescribed duration
JP5228432B2 (ja) * 2007-10-10 2013-07-03 ヤマハ株式会社 素片検索装置およびプログラム
US8026436B2 (en) * 2009-04-13 2011-09-27 Smartsound Software, Inc. Method and apparatus for producing audio tracks

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5877445A (en) * 1995-09-22 1999-03-02 Sonic Desktop Software System for generating prescribed duration audio and/or video sequences
JPH09120283A (ja) * 1995-10-25 1997-05-06 Casio Comput Co Ltd 自動作曲機
JP2002515987A (ja) * 1997-01-27 2002-05-28 ハーモニックス ミュージック システムズ,インコーポレイテッド リアルタイム音楽作成システム
JP2000099013A (ja) * 1998-09-21 2000-04-07 Eco Systems:Kk 複数のデータからの任意な参照比率による作曲システム
JP2004500588A (ja) * 1999-07-30 2004-01-08 シャンドア メスター ジュニア 即興でミュージックを創作するための装置及び方法
JP2006084749A (ja) * 2004-09-16 2006-03-30 Sony Corp コンテンツ生成装置およびコンテンツ生成方法

Also Published As

Publication number Publication date
US8357847B2 (en) 2013-01-22
WO2008020321A2 (en) 2008-02-21
WO2008020321A3 (en) 2008-05-15
FR2903804B1 (fr) 2009-03-20
EP2041741A2 (en) 2009-04-01
US20100050854A1 (en) 2010-03-04
FR2903804A1 (fr) 2008-01-18
KR20090051173A (ko) 2009-05-21

Similar Documents

Publication Publication Date Title
JP2009543150A (ja) マルチメディアシーケンスを自動的又は半自動的に合成するための方法及び装置
EP1994525B1 (en) Method and apparatus for automatically creating musical compositions
JP4267925B2 (ja) 対話型再生によるマルチパートオーディオ演奏を記憶する媒体
US7034217B2 (en) Automatic music continuation method and device
EP0961209A1 (en) Sequence generation using a constraint satisfaction problem formulation
US20140018947A1 (en) System and Method for Combining Two or More Songs in a Queue
JP7392955B2 (ja) 調和コード・マップを使用してオーディオ出力ファイルまたはmidi出力ファイルを生成する方法およびシステム
IES20130120A2 (en) A system and method for generating an audio file
RU2729165C1 (ru) Динамическая модификация звукового контента
WO2004057495A1 (en) Query by indefinite expressions
US7674966B1 (en) System and method for realtime scoring of games and other applications
Vogl et al. An intelligent drum machine for electronic dance music production and performance.
KR101217995B1 (ko) 모핑 악곡 생성장치 및 모핑 악곡생성용 프로그램
JP2014010275A (ja) 情報処理装置、情報処理方法及びプログラム
Sporka et al. Design and implementation of a non-linear symphonic soundtrack of a video game
Karlsson et al. Conceptual model and system for genre-focused interactive storytelling
CN113724673B (zh) 节奏型编辑器构建及节奏型编辑器生成节奏并保存节奏的方法
WO2022044646A1 (ja) 情報処理方法、情報処理プログラム及び情報処理装置
Chiricota et al. IMTool: an open framework for interactive music composition
de Abreu Recreating tracker music sequencers in modern videogames: an integrated model approach for adaptive music
Savoldy GALiCA: A Gestural Approach to Live Coding Algorithms
GB2602118A (en) Generating and mixing audio arrangements
Dubnov Adaptive Music
Ince Programming For Music: Explorations in Abstraction
Mizutani et al. Vorpal: A middleware for real-time soundtracks in digital games

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100709

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120411

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120709

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120717

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120810

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120823

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20120907

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20120914

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130327