JP2009543150A - マルチメディアシーケンスを自動的又は半自動的に合成するための方法及び装置 - Google Patents
マルチメディアシーケンスを自動的又は半自動的に合成するための方法及び装置 Download PDFInfo
- Publication number
- JP2009543150A JP2009543150A JP2009519010A JP2009519010A JP2009543150A JP 2009543150 A JP2009543150 A JP 2009543150A JP 2009519010 A JP2009519010 A JP 2009519010A JP 2009519010 A JP2009519010 A JP 2009519010A JP 2009543150 A JP2009543150 A JP 2009543150A
- Authority
- JP
- Japan
- Prior art keywords
- subcomponent
- subcomponents
- track
- tracks
- selection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0008—Associated control or indicating means
- G10H1/0025—Automatic or semi-automatic music composition, e.g. producing random music, applying rules from music theory or modifying a musical piece
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K15/00—Acoustics not otherwise provided for
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/111—Automatic composing, i.e. using predefined musical rules
- G10H2210/115—Automatic composing, i.e. using predefined musical rules using a random process to generate a musical note, phrase, sequence or structure
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/101—Music Composition or musical creation; Tools or processes therefor
- G10H2210/125—Medley, i.e. linking parts of different musical pieces in one single piece, e.g. sound collage, DJ mix
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/131—Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/121—Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
- G10H2240/145—Sound library, i.e. involving the specific use of a musical database as a sound bank or wavetable; indexing, interfacing, protocols or processing therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2250/00—Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
- G10H2250/005—Algorithms for electrophonic musical instruments or musical processing, e.g. for automatic composition or resource allocation
- G10H2250/015—Markov chains, e.g. hidden Markov models [HMM], for musical processing, e.g. musical analysis or musical composition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Electrophonic Musical Instruments (AREA)
- Processing Or Creating Images (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
)を含む基本コンポーネント(トラックP1,P2,Pn)に分割し,複数の同属サブコンポーネント(同属ブリック
)の基本サブコンポーネントの各々に属性が割り当てられたサブコンポーネントの各々を関連付けること,更にサブコンポーネントを維持すること,又はこれらを,選択されるサブコンポーネントの確率を決定するアルゴリズムによりアルゴリズム的に選択され,更に属性を考慮しながらこれらの確率において任意抽出を実行することにより選択された同属サブコンポーネントに交換することを含む新しいマルチメディアシーケンスの自動合成段階を含む。
Description
)に分割される事前段階,ならびにサブコンポーネントの選択を含む新しいマルチメディアシーケンスのリアルタイムの自動合成段階を含む,マルチメディアシーケンスのリアルタイムでの自動的又は半自動的な合成の方法を提唱している。
− コンポーネント(又はトラック)数N,
− これらの基本コンポーネント(又はブリック)及び一組のサブコンポーネント(例えば,音楽ブリック)のそれぞれ,
− サブコンポーネント(ブリック)の選択がサブシーケンスの選択にどのように影響を及ぼすかを定義する一組の規則,
− 使用者が上述の規則を有効又は無効にすることを可能にする双方向操作型キーを入力する手段。
− フィルタの適用又は音楽シーケンスの処理による,所定の音楽シーケンスを使用した一連の音楽ブリックから構成されるトラックを作成する工程,
− 作成されたブリックとの整合性により選択された既存のブリック及びそれによって作成されたブリックを含む音楽ブリックの基部を作成する工程,
− 心理音響記述子の名称を定義する工程,
− 各組(ブリックと記述子)のスコアを定義する表を作成する工程,
− 固有の双方向操作の重みによってミキシングインタフェースを介して使用者が双方向に操作できる記述子のサブセットを定義する工程,
− 各関数は任意のトラックにリンクし,各関数は状況パラメータを有する候補となるブリック(演奏されたばかりのブリック,現在他のトラック上で演奏されているブリック,使用者により定義された双方向操作の重み)に適用され,かつ候補となるブリックの適切性の結果を有する複数のミキシング関数のリストを作成する工程,
− ミキシング関数の結果が最大となるための候補となるブリックを選択する工程。
− トラックP1は,連続したブリック
などを含む。
− トラックP2は,連続したブリック
などを含む。
− トラックPnは,連続したブリック
などを含む。
− ブリック
は,同属ブリック
に関連付けられ,
− ブリック
は,同属ブリック
に関連付けられ
− ブリック
は,同属ブリック
に関連付けられ
− ブリック
は,同属ブリック
に関連付けられる。
− 規則の基底(BR),
− 様々なファイルB1a,B1b,B2a,B2b,Bn1,Bn2,Bn3,Bn4内にあるブリック(基準又は同属)の選択手段S1,
− 基準トラックP1,P2,Pnの状態E1,E2,Enを検出するための手段,
− 使用者に多様な双方向操作の可能性を提供する制御ボタンB及び/又はカーソルC,
− それぞれが選択されたブリックを含む新しい仮想トラックP’1,P’2,P’nを有する新しいマルチメディアシーケンスをリアルタイムで合成するための計算手段CA。
− 新しいトラックP’1,P’2,P’nの状態を制御する手段CO,
− 必要な処理の後に,選択されたブリックを適切なマルチメディアインタフェースI1からI2,例えばラウドスピーカーのエンクロージャー,ディスプレイ,光源などに伝送するために設計されたルーティングステーションA。
− 音声/テキスト/ビデオなどのトラックの識別による,曲の仮想ミキシングコンソールの構造,及び使用者に提供される双方向操作型の制御装置(カーソルC又はボタンB)の識別による,これらのトラックの各々のための特定の属性(例えば,音声トラックの音量),
− 音声トラックのサンプル,曲のスタイル及び楽節,及び通常これらの要素が双方向操作により発展する方法,及び双方向操作型ボタンがこの構造に影響する方法の識別による曲の双方向操作構造,
− 音楽の抜粋,ビデオの抜粋,3Dアニメーション,テキスト,音声,及びビデオフィルタなどから構成される基本マルチメディアコンポーネント,すなわち“ブリック(or bricks)”。各ブリックは有限な持続時間の時系列及び様々なマルチメディアイベントのコーディングとして理解される。
− 構造モデル,例えば,音楽様式,音楽パッセージ(例えばリフレイン/ヴァース),音声トラック,“オリジナル曲”のトラック,及び複数の伴奏トラックなどの使用,
− 曲の構造の直接操作。
− 無限になる可能性のあるトラック数,
− 独立して作動状態又は非作動状態にできるトラック,
− 音声,ビデオ,テキスト,雰囲気,抽象制御などの多様な種類のトラック,
− 無限になる可能性のある双方向操作型カーソルの数,
− 音声トラックのための音声ブリックなど,トラックの種類と互換性のあるサブコンポーネントと共に連繋する,作動状態になった各トラック,
− サブコンポーネントがあるトラックに対して選択されたとき,エキスパートシステムはまた,このサブコンポーネントが保持されている間,最小の持続時間を選択する。
− 規則の基底による制約を実行し,多様な性質のサブコンポーネントの選択を提供する抽出エンジン(abstract engine),
− 選択された要素を使用して双方向操作型インタフェースを発生させるミキシングコンソールのモデル。
空間はシステム“S”から構成され,各システムは状態“E”のベクトルである。そのため,例えば,
− トラックは,状態Eが音楽ブリックであるシステムSである,
− 一連の和声は,状態がその和声であるシステムである。
EαS:Eが非アクティブの場合,Sは停止。
Eαγ:Eが非アクティブの場合,γは停止。
停止された相関はすべての影響を失う。
− S(すなわち同じ状態を有する)に一致するシステムSprev
− 相関τと同じマトリクスの相関SprevγS’
− 制約E(Sprev)=E’(S)
− 所定の状態において,空間を維持することができなくてはならないが,それはτ相関を固定する必要がありうる,
− 適用される制約は,要求どおりに考慮されなければならない。
b1:解決空間及び自由に計算できる空間
システムSの減少は,その状態の各々の確率を決定すること,次にこれらの確率を考慮した任意抽出を行うことにある。この選択は,システムSの状態を決定する。
p(b)=ΠS’γSp(E(S’),b).ΠS’τSp(E’(S’),b)
p(b)=p(b)/ΣaεSp(a)
制約下での解決は,いくつかのシステムの状態を抑制することにある。
低い解決は,少数の制約又は相関を排除すること及び次の規則を適用することにより解決法を特定することにある。制約下での解決が失敗した場合,失敗を引き起こしたすべての制約又は相関が特定され,重要度が低い制約又は相関が抑制され,解決が再び開始される。
演算システム(arithmetical systems)は,その状態が実数である特定のシステムとして定義され,Sa..と表される。これらは,したがって,状態が有限の数で,実数の範囲に一致しているシステムである。
S:=if(E(S1)+E’(S2))=0 then a else b
S:=1+if E(S1)=a1 then 0 else 1
(ここでa及びbはSの状態,a1はS1の状態,E’(S2)はS2の以前の状態を表す)。
− +,*,−,/,%,&,|,&&,||,∧,!,〜
− if…then…else
− rand(0と1の間の実数を返す)
− sin,cos,tan,…
− 演算システムは常に演算解決を有する。そうでなければ,量子相関マトリクスは無限のサイズを有することになる。
− 制約は演算解決に依存するシステムに適用することはできない。なぜなら,それは結果的に任意の演算関数の逆数の計算になる可能性があるためである。
−− このシステムは,演算解決を有さない。
−− このシステムは,直接間接を問わず,演算解決を有するシステムに依存しない。
例えば,S=if E(S’)!=E’(S’)then a else b。
慣例により,確率寄与率が指定されていない場合,それらは1の値を有すると見なされる。
“否定(Not)”演算子
定義:
SγS’
S={a,b}
S’={a’,b’}
P(a,a’)=(b,b’)=0
したがって,a≡a’≡真,及びb≡b’≡偽を考慮して,
E(S’)=!E(S)
E(S)=a⇔E(S’)=b’
E(S)=b⇔E(S’)=a’
定義:
S1γS’
S2γS’
S’γS
S1={a1,b1}
S2={a2,b2}
S’={a1a2,a1b2,b1a2,b1b2}
S={a,b}
p(a1,b1a2)=p(a1,b1b2)=0
p(b1,a1a2)=p(b1,a1b2)=0
p(a2,a1b2)=p(a2,b1b2)=0
p(b2,a1a2)=p(b2,b1a2)=0
p(a1a2,a)=0
p(a1b2,b)=0
p(b1a2,b)=0
p(b1b2,b)=0
したがって,a1≡a2≡a’≡真,及びb1≡b2≡b’≡偽を考慮して,
E(S)=!E(S1)∧E(S2)
定義:
SτS
S={a,b}
p(a,a)=p(b,b)=0
したがって,新しい解決のそれぞれにおいてシステムSは状態を変える。
定義:
S={a}
システムSは常に状態aを有する。
定義:
S={a}
S’={有効,無効}
SγS’
p(a,有効)=1
p(a,無効)=0
したがって,有効状態は常にアクティブで,無効状態は決してアクティブではない。
定義:
SτS
S={a,b,c}
p(a,c)=0
p(b,a)=0
p(c,a)=0
制約下での解決の場合,一組の制約(S,b,n)が提供される。すなわち,システムSは状態bに制約され,重要度nを有する。
− 準備:
−− 制約は,それらのシステムに関連付けられる。複数の制約が同じシステムに適用される場合,より重要度の高い制約が保持される
−− 複数のシステムが“未解決の”状態に初期化される
− 次に,再帰的に解決できるシステムが選択される:
−− このシステムはまだ解決されていない
−− このシステムのα相関はシステムが解決される状態をもたらす
−− このシステムが量子解決を有する場合:
−− すべての入力相関は既知の状態(停止又は非停止)になり
−− 入力非停止γ相関は解決源を有する
−− システムが演算解決を有する場合は:
−− 演算相関を使用しているすべてのシステムは解決される
−− ヒューリステック:最初に,演算解決のシステムSに関心が与えられ,続いて,最小の状態を有する量子解決のシステムに関心が与えられる
− システムが停止しているかどうかが決定され,もしそうなら,システムは“停止”状態に置かれることで解決され,この状態は再帰的に持続する
− そうでなければ,演算解決において:
−− 演算表現が評価され,それにより新しい状態が指定され
−− これは再帰的に解決される
− そうでなければ,量子解決において:
−− システムの非停止状態の確率が計算される
−− すべての状態が起こりえない場合,又はシステムが起こりえない状態に制約される場合,このシステムの解決は機能しなくなり,その結果,候補状態が欠如する
−− 確率に対してドローイングが実行され,続いて,最良のスコアが得られた一つによりその状態の開始が試みられる
−− ある状態が選択され,再帰的に解決される
−− 再帰的な解決が失敗した場合,次の状態に進む
−− すべての状態が起こりえない場合,解決は失敗する
− システムは,再生される音楽ブリックを示す(システムの状態は,トラックのブリックに一致する)
− 演算システムは,繰り返し回数を示す
− 演算システムは,繰り返し制約の重要度を示す
− 演算システムは,音量を示す。
− システムは,現在のスタイルを示す
− 演算システムは,スタイルを維持するための最小時間を示す
− 演算システムは,スタイルを維持するための制約の重要度を示す,など。
− 再生されているサブコンポーネントを選択するメインシステム
− トラックの属性を定義する二次的システム。これらの属性が不変の場合,それらを表すために,システムを定義しなければならないことを避けることができる(それはどのような場合でも,α相関なしで絶対制約システムを必要とする)
− 延長制約:状態は命令的に維持されなければならない(終了していない音楽ブリック)
− 繰り返し制約:状態は更新されなければならない(音楽の繰り返し,スタイルの維持など)
− 手動制約:使用者が強制的に所定の状態に切り替える
− ブリックがまだ再生中(延長制約)で,再生が単に続いている,
− 又は,ブリックの再生が完了し,ブリックが選択されたままの状態の場合(例えば,繰り返し制約の後),この新しい解決の正確な時間で再生が再び開始される。
− 混合計算の定義
− マルチメディア要素の定義
− ミキシングコンソールの定義
−− トラック及びトラック間のリンクの定義
−− トラック,属性,及び混合計算システム間のリンク
−− マルチメディア要素及び混合計算の状態間のリンク
− 双方向操作が提案された制約の定義,及び双方向操作がエキスパートシステムにより提供されない場合に保持するための処理の定義。
<component…>
<system…>
<constraint…>
<framework…>
name:検索又は表示に使用する名前
id:ファイル全体の固有id
−定数
−システムidで,属性は,その結果,システムの現在の状態の値を有する。
Type=audio|abstract|general|,他
Select:コンポーネントの現在の値(通常,ミキシングコンソールシステムid)
length:秒単位での持続時間
repeatmin/repeatmax:繰り返し回数
level:制約を維持する重要度
Volume_left:左音声の音量
Volume_right:右音声の音量
Type=select|numerical
eval=quantum|arithmetical
− select:状態のリストからの選択
− numerical:数値
− quantum:量子減少(selectタイプの場合のみ)
− arithmetical:演算表現
<alpha…>
<state…>
<relation…>
<expr…>
State:α相関を引き起こす状態のid
type=audio|adstract
enable=on|off
enableが“off”に等しい場合,その状態は選択することができない。
File:wavファイル
Time:wavファイルの時間
Stereo:wavファイルの種類
Bytestart:wavファイル内のデータストリームの開始バイト
Bytelength:wavファイル内のデータストリームのサイズ
Volume_left:左音声の音量
Volume_right:右音声の音量
Length:秒単位での持続時間
Repeatmin/repeatmax:繰り返し回数
Level:制約を維持する重要度
type=gamma|tau
source:ソースシステムのid
level:重要度のレベル
<alpha…>:任意のα相関
<matrix>:確率マトリクス(状態がこのxmlファイル内で現れる順番)
<suspend>:一時停止されたソース状態の確率ベクトル
− 数値
− 状態(#id)
− システムの現在値(#id)
− システムの以前の値(@id)
− +,*,−,/,%,&,|,&&,||,∧,!, ̄
− if…then…else
− rand(0と1の間の実数を返す)
− sin,cos,tan,など
State:強制される状態のid
Level:制約の重要度
Interactive=yes|no
Default:yes|no
Startup:yes|no
Icon:画像ファイル
− 抽象コンポーネントは和声として機能する
− 抽象コンポーネントはスタイルとして機能する
− 絶対制約を有するコンポーネントはスコアとして機能する
− トラックはオリジナルを含む
− トラックは音声を含む
− 抽象コンポーネントは,オリジナルとミックスとの間で,α相関により選択される
− 制約はスタイルによる
− 制約はオリジナルモードに切り替える
− 制約は音声を抑制する,など。
− xml記述ファイル
− wavファイル,アイコンファイル,などのファイル
− ファイル数,
− コンポジットファイル内における,ファイル名,サイズ,及びインデックス。
− 演奏を例示化し,
− 演奏での双方向操作を提案し,
− ある演奏から別の演奏への切り替えを処理することである。
− 歌手の声又はオーケストレーションを分離するフィルタ,
− ディストーションフィルタ,
− 音声を追加するためのフィルタ,
− 特殊効果を作成するフィルタ,など。
− 心理音響基準
− トラック
− フィルタ処理された素材の集合又は上述したサブコンポーネントを含む“ブリック”
− 音量,
− 初期シーケンス内での作成番号,
− 初期シーケンスに対する相似のレベル,
− 開始ブリック又は曲の終わりの品質,
− 独奏パートの要素(他のトラックはオフ),
− 他のブリックと共に体系的に再生された要素,など。
− 各心理音響基準(手動又は自動)に関して,その重み付けに対応した係数
− トラックの集合から選択された,あるトラック
−− 合成
−− ファイル
−− 実行プログラム
−− “ブリック”と称されるマルチメディア要素,すなわち,音楽の抜粋,ビデオの抜粋,3Dアニメーション,テキスト,音声フィルタ,及びビデオフィルタなど。各ブリックは,限られた持続時間を有する時間シーケンスで,次の様々なマルチメディアイベントをコード化する。
−− ブリックの定数属性を決定する,“心理音響”として参照されるパラメータ
−− 双方向操作型カーソル
−− ブリックの選択が行われる方法を判断する評価関数。
− テンポ:Π
− 一組のトラック:T
− あるトラックが他のトラックに作用することを示す,非対称でかつ必ずしも必要でない単射β相関:tβt’
− 一組の心理音響基準:C
− それぞれがあるトラックに関連している一組のマルチメディアブリック:B={btj,t∈T};拡張により,Btはあるトラックに関連している複数のブリックを示す。
− 各心理音響基準により各ブリックを評価している一組の値:K={kc,b,c∈C,b∈B}
− 心理音響基準による,場合によりユークリッドの距離関数:
−− dt:B×B→R+
− 場合により無限の心理音響リミッタ:λt∈R+
− 一組の双方向操作型カーソル:I
− 各双方向操作型カーソルの現在の値を与える一組の双方向操作型パラメータ:P={pi,i∈I}
− 各トラックに現在送信されているブリック,及び繰り返し回数のリスト:H={ht,t∈T,ht∈B}∪{rt,t∈T}
− 一組の一般パラメータ(例えば,曲の始めからの経過時間):G
− 一般使用のための一組のグローバル変数:V
− 各トラックに関連した評価関数:
−− F={ft,t∈T},ただしft:Bt×K×P×H×G×V→R
−− これらの関数は,ランドランダム発生器に基づくことがある:φ=R[0,1]
−− これらの関数は,一組のVにおいてエッジ効果を発生することができる
− これらのエッジ効果の管理を最適化するため,ブリックのための関数は各トラックに対して,開始及び終了する。
−− S={st,t∈T},ただし,st:Bt×K×P×H×G×V→R
−− E={et,t∈T},ただし,et:Bt×K×P×H×G×V→R
実行プログラムは,得られるすべてのブリックの中から任意のブリックを随時無作為に選択する。
d(b,b0)=0
ft(b,K,P,H,G,V)=rand
C={repetition}
d(b,b0)=0
ft(b,K,P,H,G,V)=
if b!=ht then rand
else if rt<2krepetition,b&&rt!=2E(rand×k repetition,b )then−1
else 1
C={order}
d(b,b0)=0
ft(b,K,P,H,G,V)=
if ht=φ||korder,b<=korder,ht then−korder,b
else korder,ht−korder,b
− 一般パラメータ(主にテンポ)
− トラックの数と記述,特に各トラックの種類(音声ソース/音声効果/サブタイトル/ビデオ/ビジュアルフィルタ)
− トラック間の関係,例えば,トラック3はトラック2のクレッシェンドを処理する
− 心理音響特性の数と記述
− 様々なマルチメディア素材(ファイルに直接組み込まれるもの,又はディスク又はURL上のパスにより参照されるもの)
− 各ブリックのリストと記述(ブリックはマルチメディア素材を含むが,同じ素材が複数のブリックにより使用されることがある)
− 各ブリックの心理音響特性値の表
− 双方向操作型カーソルの数と記述
− 関連リミッタと同様,バイトコードの形で定義された各トラックの距離関数のリスト
− バイトコードの形で定義された各トラックの評価関数のリスト
− バイトコードの形で定義された各トラックの開始関数及び終了関数のリスト
− コース計測(歩数計)
− 心臓の鼓動
− EEG(脳波図;electroencephalogram)波,すなわち“脳波”
− アクティブモードでは,使用者は精神状態を変えることにより音楽の操作に誘導される。このモードでは,使用者が脳の活動をコントロールする方法を学ばなければならないので,使用者側は著しい努力を必要とする。実際,このモードは教育上にのみ利用される。
− パッシブモードでは,使用者は例えば,システムに対して使用者がリラックスした状態又は集中状態を維持するよう要求できる。その後,システムは,簡単なキックダウン(kickdown)によって,“より穏やか/中間/よりダイナミック”ボタンを自動的に作動させる。使用者が穏やかな状態を維持するためには,EEG波が使用者の興奮の開始を示す場合は“より穏やか”ボタンが作動し,使用者が低レベルのストレス状態になった場合は,“中間”ボタンが作動する。
Claims (22)
- 基準マルチメディアシーケンス構造を生成し,前記構造をトラック(P1,P2,Pn)に利用できる複数の基本コンポーネントに分割し,かつこれらの基本コンポーネントの各々が,楽章,和声,又はスタイルで構成されることができる一組の基本サブコンポーネント(すなわちブリック
)に分割される事前段階と
前記サブコンポーネントの選択を含む新しいマルチメディアシーケンスのリアルタイムの自動合成段階と
を含み,
前記事前段階が心理音響記述子又は属性を前記サブコンポーネントの各々に割り当てること,及び前記サブコンポーネント及びそれらに割り当てられた前記記述子又は前記属性をデータベースに保存することを含み,
前記自動合成段階が一連の前記サブコンポーネントの前記基本コンポーネント上で発生することを含み,ここで前記サブコンポーネントの保持又は交換により特徴付けられる連鎖法は,各前記サブコンポーネントに対し前記心理音響記述子又は前記属性及び状況パラメータを考慮した選択基準を決定するアルゴリズムによって計算され,
前記合成段階をループして繰り返し,各前記シーケンスは前記サブコンポーネントを各前記基本コンポーネントに割り当てることにより永久にそれを再生し,聴取者は前記アルゴリズムの操作に影響を及ぼすことにより前記サブコンポーネントの選択にリアルタイムで介入できる
ことを特徴とするマルチメディアシーケンスのリアルタイムでの自動的又は半自動的な合成の方法。 - 前記自動合成段階において実行される前記サブコンポーネントの選択が,前記属性及び前記状況パラメータを考慮して,各前記サブコンポーネントの選択確率を決定する前記アルゴリズムにより定義される前記選択基準を遵守しながら,無作為に実行されることを特徴とする請求項1記載の方法。
- 前記確率が,前記サブコンポーネントの内容に依存しない規則を適用することにより計算されることを特徴とする請求項1又は2記載の方法。
- 前記規則が,前記サブコンポーネントの選択において他のコンポーネントの規則に影響を及ぼすことを考慮することができ,更にある規則が事前選択又は同時選択によって,あるコンポーネントの選択を行う確率を変更することを特徴とする請求項3記載の方法。
- 前記合成段階で行われる選択が無作為ではなく,前記サブコンポーネントが最大選択基準によって選択されることを特徴とする請求項1記載の方法。
- 前記規則が重要度又は優先順位度により特徴付けられることを特徴とする請求項3記載の方法。
- 2つの前記規則が矛盾する場合,前記サブコンポーネントの選択が常に可能になるような方法で,より重要度が低い方が瞬時に削除されることを特徴とする請求項6記載の方法。
- 前記合成段階が,無限になる可能性のある複数のトラック,独立して作動状態又は非作動状態にできるトラック,多様な種類のトラック,無限になる可能性のある複数の制御機器(ボタン(B)及びカーソル(C)),前記トラックの種類と互換性のある前記サブコンポーネントに連繋している前記トラックの作動化,選択された前記サブコンポーネントが保持されている間に最小の持続時間を決定するシステムを含む仮想ミキシングコンソールを操作するシステム(SE)により実行されることを特徴とする請求項1〜7のいずれか1項記載の方法。
- 前記システム(SE)が,
− 前記規則の基底により課された制約を実行し,多様な性質の前記サブコンポーネントの選択を提供する抽出エンジン
− 選択された前記要素を使用して双方向操作型インタフェースを発生させる仮想ミキシングコンソールのモデル
を含むことを特徴とする請求項8記載の方法。 - 前記仮想ミキシングコンソールの各前記トラックが,計算領域の一又は複数の前記システムに関連付けられていることを特徴とする請求項9記載の方法。
- 音声トラックに対して,前記システムは前記サブコンポーネント(音楽ブリック)が再生されるように指示し,演算システムが実行される繰り返し回数を示している間,前記演算システムが繰り返し制約の重要度及び音量を示すことを特徴とする請求項10記載の方法。
- 各前記トラックが,このトラックの前記サブコンポーネントを選択するメインシステム及び前記トラックの属性を定義する二次システムに関連付けられており,前記トラックが状態を変えた場合,前記システムがそれらの属性を使用して最小必要持続時間を決定することを特徴とする請求項10記載の方法。
- 複数の前記トラックが同期しなければならない場合,前記サブコンポーネントが前記トラックのいずれか上で選択されたとき,その再生が前記トラックの選択を導く正確な時間に開始され,この時間がマスターシステムの役割を果たすシステムの一つにより決定されることを特徴とする請求項10記載の方法。
- 次の解決の間に,たとえ前記サブコンポーネントの繰り返しが,
− 前記サブコンポーネントが再生中で,前記システムは単にそれを再生し続けている,
− 又は,前記サブコンポーネントの前記再生が終了し,前記サブコンポーネントが選択されたままの場合は,この新しい解決の正確な時間で再生が再び開始されるという方法で実行されることになっていても,前記再生がループして実行されない
ことを特徴とする請求項13記載の方法。 - 前記システムが,
− 混合計算の定義
− マルチメディア要素の定義
− 前記ミキシングコンソールの定義
− 前記トラック及び前記トラック間のリンクの定義
− 前記トラック及びそれらの属性,及び前記混合計算のシステム間のリンク
− 前記マルチメディア要素及び前記混合計算の状態間のリンク
− 双方向操作が提案された制約の定義,及び前記双方向操作がエキスパートシステムにより提供されない場合に保持するための処理の定義
の各要素を構造化様式でまとめるように設計されたファイルを含むことを特徴とする請求項8記載の方法。 - − フィルタの適用又は音楽シーケンスの処理による,所定の前記音楽シーケンスを使用した一連の音楽サブコンポーネントから構成される前記トラックを作成する工程と,
− 作成された前記サブコンポーネントとの整合性により選択された既存のサブコンポーネント及びそれによって作成されたサブコンポーネントを含む音楽サブコンポーネントの基部を作成する工程と,
− 前記心理音響記述子の名称を定義する工程と,
− 各組(サブコンポーネント;記述子)のスコアを定義する表を構築する工程と,
− 固有の双方向操作の重みによってミキシングインタフェースを介して使用者が双方向操作をできる記述子のサブセットを定義する工程と,
− 各関数は任意のトラックにリンクし,各関数は状況パラメータを有する候補となるサブコンポーネント(演奏されたばかりのサブコンポーネント,現在他のトラック上で演奏されているサブコンポーネント,前記使用者により定義された前記双方向操作の重み)に適用され,かつ候補となるサブコンポーネントの適切性の結果を有する複数のミキシング関数のリストを作成する工程と,
− 前記ミキシング関数の前記結果が最大となるための前記候補となるサブコンポーネントを選択する工程と
を含むことを特徴とする請求項5記載の方法。 - 前記サブコンポーネントの少なくとも一つが,周辺機器を駆動するための情報を含む制御サブコンポーネントであることを特徴とする請求項1〜16のいずれか1項記載の方法。
- 物理センサー又はリモートコンピュータから得られる情報による自動サブコンポーネント選択工程を含むことを特徴とする請求項1〜17のいずれか1項記載の方法。
- 前記合成段階が,更に非音楽的サブコンポーネントを含むことを特徴とする請求項1〜18のいずれか1項記載の方法。
- 前記ファイルが,次の要素,すなわち
− 一般パラメータ(主にテンポ),
− 前記トラックの数と記述,特に各前記トラックの種類(音声ソース/音声効果/サブタイトル/ビデオ/ビジュアルフィルタ),
− 前記トラック間の関係
− 心理音響特性の数と記述,
− 様々なマルチメディア素材,
− 各前記サブコンポーネントのリストと記述(前記サブコンポーネントはマルチメディア素材を含むが,同じ素材が複数の前記サブコンポーネントにより使用されることがある),
− 各前記サブコンポーネントの心理音響特性値の表,
− 双方向操作型カーソルの数と記述,
− 関連リミッタと同様,バイトコードの形で定義された各前記トラックの距離関数のリスト,
− バイトコードの形で定義された各前記トラックの評価関数のリスト,
− バイトコードの形で定義された各前記トラックの開始関数及び終了関数のリスト,
の各要素の少なくとも一つの部分を含むことを特徴とする請求項16記載の方法。 - 前記サブコンポーネントの開始点で,前記状況パラメータを変更する関数stの実行プログラムを実行し,前記サブコンポーネントの終了点で,前記状況パラメータ(b,K,P,H,G,V)に適用される関数etを評価する実行プログラムを実行することを特徴とする請求項16記載の方法。
- 前記基準マルチメディアシーケンス構造を作成し,
この構造をそれぞれが一組の前記サブコンポーネント
を含む複数の前記トラック(P1,P2,Pn)に分割する手段を提供し,
前記記述子又は前記属性を割り当てることを可能にする手段と,
前記基準シーケンス内の前記基本サブコンポーネントのすべて又は一部のために,これらのサブコンポーネントに対して,同種のサブコンポーネントによって前記サブコンポーネントを維持又は交換することを含む新しいマルチメディアシーケンスを使用者への補助を前提としてリアルタイムで自動合成する手段と,
各前記基本サブコンポーネント又は同種のサブコンポーネントに対して,このサブコンポーネントが選択される確率を,属性を考慮し,更に前記確率に関して前記選択を実行することにより決定するアルゴリズムによって前記コンポーネントをアルゴリズム的に選択する手段と,
各前記シーケンスの再生による再繰り返し操作及び前記サブコンポーネントの各前記基本コンポーネントへの割り当てにより,前記自動合成段階を繰り返すための手段と,
前記アルゴリズムの操作に影響を及ぼすことによりサブコンポーネントの選択に聴取者が介入することを可能にする手段と
を有することを特徴とする請求項1〜21のいずれか1項記載の方法を実行するための装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0606428A FR2903802B1 (fr) | 2006-07-13 | 2006-07-13 | Procede de generation automatique de musique. |
FR0700586A FR2903803B1 (fr) | 2006-07-13 | 2007-01-29 | Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia. |
FR0702475A FR2903804B1 (fr) | 2006-07-13 | 2007-04-04 | Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia. |
PCT/IB2007/003205 WO2008020321A2 (en) | 2006-07-13 | 2007-07-12 | Method and device for the automatic or semi-automatic composition of a multimedia sequence |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009543150A true JP2009543150A (ja) | 2009-12-03 |
Family
ID=38878469
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009519010A Pending JP2009543150A (ja) | 2006-07-13 | 2007-07-12 | マルチメディアシーケンスを自動的又は半自動的に合成するための方法及び装置 |
Country Status (6)
Country | Link |
---|---|
US (1) | US8357847B2 (ja) |
EP (1) | EP2041741A2 (ja) |
JP (1) | JP2009543150A (ja) |
KR (1) | KR20090051173A (ja) |
FR (1) | FR2903804B1 (ja) |
WO (1) | WO2008020321A2 (ja) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006084749A (ja) * | 2004-09-16 | 2006-03-30 | Sony Corp | コンテンツ生成装置およびコンテンツ生成方法 |
US7985912B2 (en) * | 2006-06-30 | 2011-07-26 | Avid Technology Europe Limited | Dynamically generating musical parts from musical score |
FR2903804B1 (fr) * | 2006-07-13 | 2009-03-20 | Mxp4 | Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia. |
WO2009107137A1 (en) * | 2008-02-28 | 2009-09-03 | Technion Research & Development Foundation Ltd. | Interactive music composition method and apparatus |
US20110190914A1 (en) * | 2008-03-12 | 2011-08-04 | Iklax Media | Method for managing digital audio flows |
FR2928766B1 (fr) * | 2008-03-12 | 2013-01-04 | Iklax Media | Procede de gestion de flux audionumeriques |
US20100199833A1 (en) * | 2009-02-09 | 2010-08-12 | Mcnaboe Brian | Method and System for Creating Customized Sound Recordings Using Interchangeable Elements |
DE102009017204B4 (de) * | 2009-04-09 | 2011-04-07 | Rechnet Gmbh | Musiksystem |
RU2495789C2 (ru) * | 2010-12-20 | 2013-10-20 | Алексей Александрович Тарасов | Способ использования гироскопического момента для управления летательным аппаратом (транспортным средством) и устройство управления летательным аппаратом |
US9390756B2 (en) * | 2011-07-13 | 2016-07-12 | William Littlejohn | Dynamic audio file generation system and associated methods |
US9459768B2 (en) * | 2012-12-12 | 2016-10-04 | Smule, Inc. | Audiovisual capture and sharing framework with coordinated user-selectable audio and video effects filters |
US9411882B2 (en) | 2013-07-22 | 2016-08-09 | Dolby Laboratories Licensing Corporation | Interactive audio content generation, delivery, playback and sharing |
US9613605B2 (en) * | 2013-11-14 | 2017-04-04 | Tunesplice, Llc | Method, device and system for automatically adjusting a duration of a song |
US11132983B2 (en) | 2014-08-20 | 2021-09-28 | Steven Heckenlively | Music yielder with conformance to requisites |
US10515615B2 (en) * | 2015-08-20 | 2019-12-24 | Roy ELKINS | Systems and methods for visual image audio composition based on user input |
US10854180B2 (en) | 2015-09-29 | 2020-12-01 | Amper Music, Inc. | Method of and system for controlling the qualities of musical energy embodied in and expressed by digital music to be automatically composed and generated by an automated music composition and generation engine |
US9721551B2 (en) * | 2015-09-29 | 2017-08-01 | Amper Music, Inc. | Machines, systems, processes for automated music composition and generation employing linguistic and/or graphical icon based musical experience descriptions |
EP3577651A1 (en) * | 2017-02-06 | 2019-12-11 | Kodak Alaris Inc. | Method for creating audio tracks for accompanying visual imagery |
US11024276B1 (en) | 2017-09-27 | 2021-06-01 | Diana Dabby | Method of creating musical compositions and other symbolic sequences by artificial intelligence |
AU2019207800A1 (en) * | 2018-01-10 | 2020-08-06 | Qrs Music Technologies, Inc. | Musical activity system |
US10896663B2 (en) * | 2019-03-22 | 2021-01-19 | Mixed In Key Llc | Lane and rhythm-based melody generation system |
US11024275B2 (en) | 2019-10-15 | 2021-06-01 | Shutterstock, Inc. | Method of digitally performing a music composition using virtual musical instruments having performance logic executing within a virtual musical instrument (VMI) library management system |
US10964299B1 (en) | 2019-10-15 | 2021-03-30 | Shutterstock, Inc. | Method of and system for automatically generating digital performances of music compositions using notes selected from virtual musical instruments based on the music-theoretic states of the music compositions |
US11037538B2 (en) | 2019-10-15 | 2021-06-15 | Shutterstock, Inc. | Method of and system for automated musical arrangement and musical instrument performance style transformation supported within an automated music performance system |
CN113091645B (zh) * | 2021-02-20 | 2022-01-28 | 四川大学 | 基于概率密度函数提高相移误差检测精度的方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09120283A (ja) * | 1995-10-25 | 1997-05-06 | Casio Comput Co Ltd | 自動作曲機 |
US5877445A (en) * | 1995-09-22 | 1999-03-02 | Sonic Desktop Software | System for generating prescribed duration audio and/or video sequences |
JP2000099013A (ja) * | 1998-09-21 | 2000-04-07 | Eco Systems:Kk | 複数のデータからの任意な参照比率による作曲システム |
JP2002515987A (ja) * | 1997-01-27 | 2002-05-28 | ハーモニックス ミュージック システムズ,インコーポレイテッド | リアルタイム音楽作成システム |
JP2004500588A (ja) * | 1999-07-30 | 2004-01-08 | シャンドア メスター ジュニア | 即興でミュージックを創作するための装置及び方法 |
JP2006084749A (ja) * | 2004-09-16 | 2006-03-30 | Sony Corp | コンテンツ生成装置およびコンテンツ生成方法 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5267318A (en) * | 1990-09-26 | 1993-11-30 | Severson Frederick E | Model railroad cattle car sound effects |
US5692517A (en) * | 1993-01-06 | 1997-12-02 | Junker; Andrew | Brain-body actuated system |
US5521323A (en) * | 1993-05-21 | 1996-05-28 | Coda Music Technologies, Inc. | Real-time performance score matching |
JP3056168B2 (ja) * | 1998-08-20 | 2000-06-26 | 株式会社プロムナード | 番組編成方法および番組編成装置 |
US6636763B1 (en) * | 1998-12-10 | 2003-10-21 | Andrew Junker | Brain-body actuated system |
US6392133B1 (en) * | 2000-10-17 | 2002-05-21 | Dbtech Sarl | Automatic soundtrack generator |
US7176372B2 (en) * | 1999-10-19 | 2007-02-13 | Medialab Solutions Llc | Interactive digital music recorder and player |
WO2001045391A1 (en) * | 1999-12-16 | 2001-06-21 | Kent Ridge Digital Labs | System and method for video production |
US7076494B1 (en) * | 2000-01-21 | 2006-07-11 | International Business Machines Corporation | Providing a functional layer for facilitating creation and manipulation of compilations of content |
US7613993B1 (en) * | 2000-01-21 | 2009-11-03 | International Business Machines Corporation | Prerequisite checking in a system for creating compilations of content |
AT500124A1 (de) * | 2000-05-09 | 2005-10-15 | Tucmandl Herbert | Anlage zum komponieren |
US7035873B2 (en) * | 2001-08-20 | 2006-04-25 | Microsoft Corporation | System and methods for providing adaptive media property classification |
EP1354318A1 (en) * | 2000-12-22 | 2003-10-22 | Muvee Technologies Pte Ltd | System and method for media production |
US6822153B2 (en) * | 2001-05-15 | 2004-11-23 | Nintendo Co., Ltd. | Method and apparatus for interactive real time music composition |
EP1274069B1 (en) * | 2001-06-08 | 2013-01-23 | Sony France S.A. | Automatic music continuation method and device |
US6683241B2 (en) * | 2001-11-06 | 2004-01-27 | James W. Wieder | Pseudo-live music audio and sound |
EP1326228B1 (en) * | 2002-01-04 | 2016-03-23 | MediaLab Solutions LLC | Systems and methods for creating, modifying, interacting with and playing musical compositions |
US7076035B2 (en) * | 2002-01-04 | 2006-07-11 | Medialab Solutions Llc | Methods for providing on-hold music using auto-composition |
US7078607B2 (en) * | 2002-05-09 | 2006-07-18 | Anton Alferness | Dynamically changing music |
US7169996B2 (en) * | 2002-11-12 | 2007-01-30 | Medialab Solutions Llc | Systems and methods for generating music using data/music data file transmitted/received via a network |
US7026534B2 (en) * | 2002-11-12 | 2006-04-11 | Medialab Solutions Llc | Systems and methods for creating, modifying, interacting with and playing musical compositions |
EP1666967B1 (en) * | 2004-12-03 | 2013-05-08 | Magix AG | System and method of creating an emotional controlled soundtrack |
US7491878B2 (en) * | 2006-03-10 | 2009-02-17 | Sony Corporation | Method and apparatus for automatically creating musical compositions |
FR2903804B1 (fr) * | 2006-07-13 | 2009-03-20 | Mxp4 | Procede et dispositif pour la composition automatique ou semi-automatique d'une sequence multimedia. |
US7863511B2 (en) * | 2007-02-09 | 2011-01-04 | Avid Technology, Inc. | System for and method of generating audio sequences of prescribed duration |
JP5228432B2 (ja) * | 2007-10-10 | 2013-07-03 | ヤマハ株式会社 | 素片検索装置およびプログラム |
US8026436B2 (en) * | 2009-04-13 | 2011-09-27 | Smartsound Software, Inc. | Method and apparatus for producing audio tracks |
-
2007
- 2007-04-04 FR FR0702475A patent/FR2903804B1/fr not_active Expired - Fee Related
- 2007-07-12 KR KR1020097003048A patent/KR20090051173A/ko not_active Application Discontinuation
- 2007-07-12 US US12/373,682 patent/US8357847B2/en not_active Expired - Fee Related
- 2007-07-12 EP EP07825486A patent/EP2041741A2/en not_active Withdrawn
- 2007-07-12 WO PCT/IB2007/003205 patent/WO2008020321A2/en active Application Filing
- 2007-07-12 JP JP2009519010A patent/JP2009543150A/ja active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5877445A (en) * | 1995-09-22 | 1999-03-02 | Sonic Desktop Software | System for generating prescribed duration audio and/or video sequences |
JPH09120283A (ja) * | 1995-10-25 | 1997-05-06 | Casio Comput Co Ltd | 自動作曲機 |
JP2002515987A (ja) * | 1997-01-27 | 2002-05-28 | ハーモニックス ミュージック システムズ,インコーポレイテッド | リアルタイム音楽作成システム |
JP2000099013A (ja) * | 1998-09-21 | 2000-04-07 | Eco Systems:Kk | 複数のデータからの任意な参照比率による作曲システム |
JP2004500588A (ja) * | 1999-07-30 | 2004-01-08 | シャンドア メスター ジュニア | 即興でミュージックを創作するための装置及び方法 |
JP2006084749A (ja) * | 2004-09-16 | 2006-03-30 | Sony Corp | コンテンツ生成装置およびコンテンツ生成方法 |
Also Published As
Publication number | Publication date |
---|---|
US8357847B2 (en) | 2013-01-22 |
WO2008020321A2 (en) | 2008-02-21 |
WO2008020321A3 (en) | 2008-05-15 |
FR2903804B1 (fr) | 2009-03-20 |
EP2041741A2 (en) | 2009-04-01 |
US20100050854A1 (en) | 2010-03-04 |
FR2903804A1 (fr) | 2008-01-18 |
KR20090051173A (ko) | 2009-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009543150A (ja) | マルチメディアシーケンスを自動的又は半自動的に合成するための方法及び装置 | |
EP1994525B1 (en) | Method and apparatus for automatically creating musical compositions | |
JP4267925B2 (ja) | 対話型再生によるマルチパートオーディオ演奏を記憶する媒体 | |
US7034217B2 (en) | Automatic music continuation method and device | |
EP0961209A1 (en) | Sequence generation using a constraint satisfaction problem formulation | |
US20140018947A1 (en) | System and Method for Combining Two or More Songs in a Queue | |
JP7392955B2 (ja) | 調和コード・マップを使用してオーディオ出力ファイルまたはmidi出力ファイルを生成する方法およびシステム | |
IES20130120A2 (en) | A system and method for generating an audio file | |
RU2729165C1 (ru) | Динамическая модификация звукового контента | |
WO2004057495A1 (en) | Query by indefinite expressions | |
US7674966B1 (en) | System and method for realtime scoring of games and other applications | |
Vogl et al. | An intelligent drum machine for electronic dance music production and performance. | |
KR101217995B1 (ko) | 모핑 악곡 생성장치 및 모핑 악곡생성용 프로그램 | |
JP2014010275A (ja) | 情報処理装置、情報処理方法及びプログラム | |
Sporka et al. | Design and implementation of a non-linear symphonic soundtrack of a video game | |
Karlsson et al. | Conceptual model and system for genre-focused interactive storytelling | |
CN113724673B (zh) | 节奏型编辑器构建及节奏型编辑器生成节奏并保存节奏的方法 | |
WO2022044646A1 (ja) | 情報処理方法、情報処理プログラム及び情報処理装置 | |
Chiricota et al. | IMTool: an open framework for interactive music composition | |
de Abreu | Recreating tracker music sequencers in modern videogames: an integrated model approach for adaptive music | |
Savoldy | GALiCA: A Gestural Approach to Live Coding Algorithms | |
GB2602118A (en) | Generating and mixing audio arrangements | |
Dubnov | Adaptive Music | |
Ince | Programming For Music: Explorations in Abstraction | |
Mizutani et al. | Vorpal: A middleware for real-time soundtracks in digital games |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120411 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120709 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120717 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120810 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120823 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120907 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120914 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130327 |