JP2009521008A - コンテンツアイテムを混合するときに音の衝突を回避する電子装置及び方法 - Google Patents

コンテンツアイテムを混合するときに音の衝突を回避する電子装置及び方法 Download PDF

Info

Publication number
JP2009521008A
JP2009521008A JP2008546760A JP2008546760A JP2009521008A JP 2009521008 A JP2009521008 A JP 2009521008A JP 2008546760 A JP2008546760 A JP 2008546760A JP 2008546760 A JP2008546760 A JP 2008546760A JP 2009521008 A JP2009521008 A JP 2009521008A
Authority
JP
Japan
Prior art keywords
content item
mixing
point
potential
mixing point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008546760A
Other languages
English (en)
Inventor
エヌ レンマ,アウェーケ
エフ エム ゼイデルフェルト,フランセスコ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2009521008A publication Critical patent/JP2009521008A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/46Volume control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/025Envelope processing of music signals in, e.g. time domain, transform domain or cepstrum domain
    • G10H2250/035Crossfade, i.e. time domain amplitude envelope control of the transition between musical sounds or melodies, obtained for musical purposes, e.g. for ADSR tone generation, articulations, medley, remix

Abstract

第1のコンテンツアイテム(X1)と第2のコンテンツアイテム(X2)とを混合するパラメータを決定する方法は、第1のコンテンツアイテム(X1)と第2のコンテンツアイテム(X2)との間の潜在的な混合点で音(55、57)の同時(59)発生を検出するステップと、潜在的な混合点での検出された音の同時発生に応じてパラメータを決定するステップ(61、63)とを有する。第1のコンテンツアイテム(X1)と第2のコンテンツアイテム(X2)とを混合する方法は、第1のコンテンツアイテム(X1)と第2のコンテンツアイテム(X2)との間の混合点をデータベースから取得するステップと、混合点で第1のコンテンツアイテム(X1)と第2のコンテンツアイテム(X2)とを混合するステップ(65)とを有する。本発明の電子装置及びコンピュータプログラムは、これらの方法の一方又は双方を実行するように動作可能である。

Description

本発明は、第1のコンテンツアイテムと第2のコンテンツアイテムとを混合するパラメータを決定する電子装置に関する。
本発明は、第1のコンテンツアイテムと第2のコンテンツアイテムとを混合するパラメータを決定する方法に更に関する。
本発明はまた、混合パラメータを有するデータベースに関する。
本発明は、第1のコンテンツアイテムと第2のコンテンツアイテムとを混合する電子装置に更に関する。
本発明はまた、第1のコンテンツアイテムと第2のコンテンツアイテムとを混合する方法に関する。
本発明は、第1のコンテンツアイテムと第2のコンテンツアイテムとを混合するパラメータを決定する方法及び/又は第1のコンテンツアイテムと第2のコンテンツアイテムとを混合する方法をプログラム可能装置が実行するように動作可能にするコンピュータプログラムに更に関する。
このような方法の例は、US2003/183064A1から知られている。US2003/183064A1は、連続再生システム(自動音楽混合システムとも呼ばれる)を開示している。連続再生システムは、それぞれ前の曲の終了部分の特性に基づいて、それぞれ続いて生じる曲を選択するように構成される。曲の間の円滑な遷移を容易にするために、推移部が任意選択で提供される。推移部は、各曲の終了時に音量/音の大きさを減少させ(フェードアウト)、次の曲の開始時に音量/音の大きさを増加させる(フェードイン)ことにより、生成され得る。代替として、曲の終了部分と次の曲の開始部分とが抽出され、推移部は、抽出された部分の特定の特性を融合することにより、生成され得る。既知の自動音楽混合システムは、続いて生じる曲がほんの短時間より長く同時に再生される混合を生成するときに、必ずしもユーザが聞くのに心地良くないという欠点を有する。
第1のコンテンツアイテムと第2のコンテンツアイテムとを混合するパラメータを決定し、ユーザが聞くのにしばしばあまり心地悪くない混合が生成され得るように混合パラメータを決定することができる電子装置を提供することが本発明の第1の目的である。
第1のコンテンツアイテムと第2のコンテンツアイテムとを混合するパラメータを決定し、ユーザが聞くのにしばしばあまり心地悪くない混合が生成され得るように混合パラメータを決定する方法を提供することが本発明の第2の目的である。
第1のコンテンツアイテムと第2のコンテンツアイテムとを混合し、ユーザが聞くのにしばしばあまり心地悪くない混合を生成することができる電子装置を提供することが本発明の第3の目的である。
本発明はまた、第1のコンテンツアイテムと第2のコンテンツアイテムとを混合し、ユーザが聞くのにしばしばあまり心地悪くない混合を生成する方法を提供することが本発明の第4の目的である。
本発明は、第1のコンテンツアイテムと第2のコンテンツアイテムとを混合するパラメータを決定する方法及び/又は第1のコンテンツアイテムと第2のコンテンツアイテムとを混合する方法をプログラム可能装置が実行するように動作可能にするコンピュータプログラムに更に関する。
本発明によれば、第1の目的は、電子装置が、第1のコンテンツアイテムと第2のコンテンツアイテムとの間の潜在的な混合点(mixing point)で音の同時発生を検出する検出手段であり、潜在的な混合点は、第1のコンテンツアイテムの第1の位置と第2のコンテンツアイテムの第2の位置とを有する検出手段と、潜在的な混合点での検出された音の同時発生に応じてパラメータを決定する決定手段とを有することで実現される。
音の衝突は、特に混合/推移の間隔が比較的大きいときに、混合の品質にかなり影響を及ぼすアーチファクト(artifact)を生成することがわかっている。潜在的な音の衝突が発生するか否かを決定し、このような衝突が最小化されるように推移を適切に制御するために、オーディオ分類/区分技術が使用される。潜在的な混合点は、例えば第1のコンテンツアイテムのアウトロと第2のコンテンツアイテムのイントロとで整列した強調ビート音(aligned accented beat)を検索することにより、見つかり得る。
電子装置の実施例では、決定手段は、潜在的な混合点での検出された音の同時発生に応じて推移プロファイルを選択し、選択された推移プロファイルと潜在的な混合点とからパラメータを決定するように動作可能である。遷移プロファイルは、例えば短いフェードイン/フェードアウトが使用されるべきか、通常のフェードイン/フェードアウトが使用されるべきかを有してもよい。
決定手段は、潜在的な混合点での検出された音の同時発生に応じて潜在的な混合点と更なる混合点とのうち1つを選択し、選択された混合点からパラメータを決定するように動作可能でもよい。複数の潜在的な混合点が存在する場合、音の衝突のないものが使用されることが好ましい。音の衝突のない潜在的な混合点が存在しない場合、適切な推移プロファイル(例えば、短いフェードイン/フェードアウト)が選択されることが好ましい。
本発明によれば、第2の目的は、方法が、第1のコンテンツアイテムと第2のコンテンツアイテムとの間の潜在的な混合点で音の同時発生を検出するステップであり、潜在的な混合点は、第1のコンテンツアイテムの第1の位置と第2のコンテンツアイテムの第2の位置とを有するステップと、潜在的な混合点での検出された音の同時発生に応じてパラメータを決定するステップとを有することで実現される。この方法は、例えばコンピュータプログラム又は(例えば混合点のデータベースを提供する)サービスプロバイダにより実行されてもよい。
方法の実施例では、決定するステップは、潜在的な混合点での検出された音の同時発生に応じて推移プロファイルを選択し、選択された推移プロファイルと潜在的な混合点とからパラメータを決定することを有する。
決定するステップは、潜在的な混合点での検出された音の同時発生に応じて潜在的な混合点と更なる混合点とのうち1つを選択し、選択された混合点からパラメータを決定することを有してもよい。
本発明の更なる態様では、データベースは、第1のコンテンツアイテムと第2のコンテンツアイテムとの間の混合点をそれぞれ有する複数の関連付け(association)であり、混合点は、第1のコンテンツアイテムの第1の位置と第2のコンテンツアイテムの第2の位置とを有する複数の関連付けを有する。リアルタイムで混合点を決定する処理の複雑性を回避するために、コンテンツアイテムの間の混合点は、データベースに格納されてもよい。コンテンツアイテム自体もまた、データベースの一部でもよい。
データベースの実施例では、混合点は、潜在的な混合点で音の同時発生を検出するステップと、潜在的な混合点での検出された音の同時発生に応じて潜在的な混合点と更なる混合点とのうち1つを選択するステップとを有する方法を用いて選択される。
少なくとも複数の関連付けは、混合点に関連する推移プロファイルを更に有してもよい。
推移プロファイルは、混合点で音の同時発生を検出するステップと、混合点での検出された音の同時発生に応じて推移プロファイルを選択するステップとを有する方法を用いて選択されてもよい。
本発明によれば、第3の目的は、電子装置が、第1のコンテンツアイテムと第2のコンテンツアイテムとの間の混合点をデータベースから取得する取得手段であり、混合点は、第1のコンテンツアイテムの第1の位置と第2のコンテンツアイテムの第2の位置とを有する取得手段と、混合点で第1のコンテンツアイテムと第2のコンテンツアイテムとを混合する混合手段とを有することで実現される。例えば、電子装置は、移動音楽プレイヤ又はネットワークに接続されたテレビのようなリソース制約のある装置でもよい。
電子装置の実施例では、混合点は、潜在的な混合点で音の同時発生を検出するステップと、潜在的な混合点での検出された音の同時発生に応じて潜在的な混合点と更なる混合点とのうち1つを選択するステップとを有する方法を用いて選択される。
取得手段は、混合点に関連する推移プロファイルを取得するように更に動作可能でもよい。
取得手段は、第1のコンテンツアイテムと複数の更なるコンテンツアイテムのうち1つとの間にそれぞれある複数の混合点を取得し、複数の更なるコンテンツアイテムのうち1つを第2のコンテンツアイテムとして選択するように更に動作可能でもよい。コンテンツアイテムの集合で利用可能な全てのコンテンツアイテムが所望の品質で(例えば、アーチファクトのない通常のフェードイン/フェードアウトで)混合されなくてもよい。第1のコンテンツアイテムが特定の混合点で所望の品質で第2のコンテンツアイテムと混合され得る場合、この特定の混合点及び2つのコンテンツアイテムへの参照がデータベースに格納されてもよい。第2の(次の)コンテンツアイテムが選択される必要がある場合、第2のコンテンツアイテムの選択は、所望の品質で第1のコンテンツアイテムと混合され得る集合からのコンテンツアイテムのみに制限される。
取得手段は、第1のコンテンツアイテムの現在位置と各混合点の第1の位置との間の類似点に応じて、複数の更なるコンテンツアイテムのうち1つを第2のコンテンツアイテムとして選択するように動作可能でもよい。従って、第2のコンテンツアイテムの選択は、第1のコンテンツアイテムの現在位置で又は現在位置の近くで混合され得る更なるコンテンツアイテムのみに制限されてもよい。曲の‘中身(meat)’で適切な混合点を見つけることは困難であるが、この実施例は、ユーザが‘曲をスキップする’ボタンを押下したときに有用である。
本発明によれば、第4の目的は、方法が、第1のコンテンツアイテムと第2のコンテンツアイテムとの間の混合点をデータベースから取得するステップであり、混合点は、第1のコンテンツアイテムの第1の位置と第2のコンテンツアイテムの第2の位置とを有するステップと、混合点で第1のコンテンツアイテムと第2のコンテンツアイテムとを混合するステップとを有することで実現される。
方法の実施例では、混合点は、潜在的な混合点で音の同時発生を検出するステップと、潜在的な混合点での検出された音の同時発生に応じて潜在的な混合点と更なる混合点とのうち1つを選択するステップとを有する方法を用いて選択される。
方法は、混合点に関連する推移プロファイルを取得するステップに更に有してもよい。
取得するステップは、第1のコンテンツアイテムと複数の更なるコンテンツアイテムのうち1つとの間にそれぞれある複数の混合点を取得するステップと、複数の更なるコンテンツアイテムのうち1つを第2のコンテンツアイテムとして選択するステップとを更に有してもよい。
選択するステップは、第1のコンテンツアイテムの現在位置と各混合点の第1の位置との間の類似点に応じて、複数の更なるコンテンツアイテムのうち1つを第2のコンテンツアイテムとして選択することを有してもよい。
本発明の前記及び他の態様は、添付図面を参照して明らかになり、添付図面を参照して一例として更に説明される。
図面において対応する要素は同じ参照符号により示される。
第1のコンテンツアイテムと第2のコンテンツアイテムとを混合するパラメータを決定する方法は、少なくとも2つのステップを有する(図1参照)。ステップ1は、第1のコンテンツアイテムと第2のコンテンツアイテムとの間の潜在的な混合点で音の同時発生を検出することを有する。潜在的な混合点は、第1のコンテンツアイテムの第1の位置と第2のコンテンツアイテムの第2の位置とを有する。ステップ3は、潜在的な混合点での検出された音の同時発生に応じてパラメータを決定することを有する。音の同時発生は、例えばTin Lay New及びYe Wangの‘Automatic detection of vocal segments in popular songs’(ISMIR 2004 Conference Proceedings, 10-14 October 2004, Barcelona, Spainに示唆される方法を使用することにより検出されてもよい。
ステップ3は、潜在的な混合点での検出された音の同時発生に応じて推移プロファイルを選択するステップ6と、選択された推移プロファイルと潜在的な混合点とからパラメータを決定するステップ7とを有してもよい。
代替として又は更に、ステップ3は、潜在的な混合点での検出された音の同時発生に応じて潜在的な混合点と更なる混合点とのうち1つを選択するステップ8と、選択された混合点からパラメータを決定するステップ9とを有してもよい。
図1の方法は、決定されたパラメータを使用して、第1のコンテンツアイテムと第2のコンテンツアイテムとを混合するステップ5を更に有してもよい。
第1のコンテンツアイテムと第2のコンテンツアイテムとを混合する方法は、少なくとも2つのステップを有する(図2参照)。ステップ11は、第1のコンテンツアイテムと第2のコンテンツアイテムとの間の混合点をデータベースから取得することを有する。混合点は、第1のコンテンツアイテムの第1の位置と第2のコンテンツアイテムの第2の位置とを有する。ステップ15は、混合点で第1のコンテンツアイテムと第2のコンテンツアイテムとを混合することを有する。
混合方法は、混合点に関連する推移プロファイルを取得するステップ13を更に有してもよい。
ステップ11は、第1のコンテンツアイテムと複数の更なるコンテンツアイテムのうち1つとの間にそれぞれある複数の混合点を取得するステップ17と、複数の更なるコンテンツアイテムのうち1つを第2のコンテンツアイテムとして選択するステップ19とを更に有してもよい。
ステップ19は、第1のコンテンツアイテムの現在位置と各混合点の第1の位置との間の類似点に応じて、複数の更なるコンテンツアイテムのうち1つを第2のコンテンツアイテムとして選択することを有してもよい。
図3は、本発明の方法を実行する電子装置31を示している。この実施例では、電子装置31は、電子回路33と、記憶手段35と、再生手段37と、入力39と、出力41とを有する。電子装置31は、PC又は他の静止型オーディオ及び/又はビデオプレイヤでもよく、携帯用オーディオ及び/又はビデオプレイヤでもよい。電子装置31は、ローカル又は(例えば音楽を販売する)遠隔の音楽サーバでもよい。電子回路33は、汎用プロセッサ又は特定用途向けプロセッサでもよい。電子回路33は、コンピュータプログラムを実行可能でもよい。電子回路は、ソフトウェア及び/又はハードウェアで、検出手段、決定手段、取得手段及び/又は混合手段を有してもよい。
例えば、記憶手段35は、ハードディスク、固体メモリ、光ディスクリーダ又はホログラフィック記憶手段を有してもよい。記憶手段35はデータベースを有してもよく、データベースは複数の関連付けを有し、複数の関連付けのそれぞれは、第1のコンテンツアイテムと第2のコンテンツアイテムとの間の混合点を有し、混合点は、第1のコンテンツアイテムの第1の位置と第2のコンテンツアイテムの第2の位置とを有する。代替として、このデータベースは、電子装置の外部に(例えば(異なる)サーバに)格納されてもよい。再生手段37は、例えばスピーカを有してもよい。
例えば、入力39及び出力41は、ネットワークコネクタ(例えば、USBコネクタ又はEthernet(登録商標)コネクタ)、アナログオーディオ及び/又はビデオコネクタ(シンチコネクタ又はSCARTコネクタ等)、又はデジタルオーディオ及び/又はビデオコネクタ(HDMI又はSPDIFコネクタ等)を有してもよい。入力39及び出力41は、無線受信機及び/又は送信機を有してもよい。記憶手段35、再生手段37、入力39及び/又は出力41は、所望の機能に応じて提供される。
図4は、第1のコンテンツアイテムX1と第2のコンテンツアイテムX2と(例えば、2つの曲又は音楽ビデオクリップ)を混合するパラメータを決定する方法の実施例を示している。コンテンツアイテムX1は、スプリッタ51において、ミキサ65用の信号と、音検出器55用の信号とに分離される。コンテンツアイテムX2は、スプリッタ53において、ミキサ65用の信号と、音検出器57用の信号とに分離される。コンテンツアイテムX1及びX2の潜在的な混合点での音成分の存在は、音検出器55及び57で決定される。音の衝突の存在は、衝突検出器59で決定される。音が双方の音検出器で検出されたときに、音の衝突が発生すると考えられる。音の衝突が発生したときに、混合パラメータAがセレクタ61で選択される。音の衝突が発生しない場合、混合パラメータBがセレクタ63で選択される。選択されたパラメータは、コンテンツアイテムX1及びX2を混合するためにミキサ65で使用される。例えば、混合パラメータAは、短いフェードイン/フェードアウトを有する推移プロファイルでもよい。例えば、混合パラメータBは、通常のフェードイン/フェードアウトを有する推移プロファイルでもよい。他の例として、セレクタ61は、混合パラメータとして潜在的な混合点を選択してもよく、セレクタ63は、混合パラメータとして更なる混合点を選択してもよい。後者の場合、セレクタ63は、更なる混合点が検索されること(混合が格納されたコンテンツで実行される場合)又は待機されること(混合がリアルタイムに実行される場合)を単に示してもよい。双方の手法が組み合わされてもよい。すなわち、音の衝突のない更なる混合点が見つからない場合、短いフェードイン/フェードアウトが選択されてもよい。そうでない場合、通常のフェードイン/フェードアウトが選択されてもよい。フェードイン及びフェードアウトの代わりに又はこれに加えて、他の混合方法が使用されてもよい(例えば、ビート混合(beat-mixing))。
好ましい実施例に関して本発明を説明したが、前述の原理内で変更が当業者に明らかになり、従って、本発明は好ましい実施例に限定されず、このような変更を含むことを意図することがわかる。本発明は、ありとあらゆる新規な特徴及びありとあらゆる特徴の組み合わせとにある。請求項の参照符号は、これらの保護範囲を限定しない。“有する”という動詞及びその活用形の使用は、請求項に記載のもの以外の要素又はステップの存在を除外しない。単数の要素又はステップの使用は、このような要素又はステップの複数の存在を除外しない。
当業者にわかるように、‘手段’は、単独であれ、他の機能と共にであれ、分離してであれ、他の要素と協調してであれ、指定の機能を実行するように動作する又は指定の機能を実行するように設計された何らかのハードウェア(個別の又は統合された回路又は電子要素等)又はソフトウェア(プログラム又はプログラムの一部等)を含むことを意図する。本発明は、複数の別個の要素を有するハードウェアを用いて、及び適切にプログラムされたコンピュータを用いて実施され得る。複数の手段を列挙した装置の請求項において、これらの手段の複数は、ハードウェアの同一のアイテムに具現されてもよい。‘コンピュータプログラム’は、コンピュータ可読媒体(フロッピー(登録商標)ディスク等)に格納された何らかのソフトウェアプロダクト、ネットワーク(インターネット等)を介してダウンロード可能な何らかのソフトウェアプロダクト、又は他の方法で取引される何らかのソフトウェアプロダクトを意味することがわかる。
混合パラメータを決定する方法のフローチャート 混合方法のフローチャート 本発明の方法を実行する電子装置のブロック図 混合パラメータを決定する方法の実施例のフローチャート

Claims (15)

  1. 第1のコンテンツアイテムと第2のコンテンツアイテムとを混合するパラメータを決定する電子装置であって:
    前記第1のコンテンツアイテムと前記第2のコンテンツアイテムとの間の潜在的な混合点で音の同時発生を検出する検出手段であり、前記潜在的な混合点は、前記第1のコンテンツアイテムの第1の位置と前記第2のコンテンツアイテムの第2の位置とを有する検出手段と;
    前記潜在的な混合点での前記検出された音の同時発生に応じて前記パラメータを決定する決定手段と;
    を有する電子装置。
  2. 前記決定手段は、前記潜在的な混合点での前記検出された音の同時発生に応じて推移プロファイルを選択し;
    前記選択された推移プロファイルと前記潜在的な混合点とから前記パラメータを決定するように動作可能である、請求項1に記載の電子装置。
  3. 前記決定手段は、前記潜在的な混合点での前記検出された音の同時発生に応じて前記潜在的な混合点と更なる混合点とのうち1つを選択し;
    前記選択された混合点から前記パラメータを決定するように動作可能である、請求項1に記載の電子装置。
  4. 第1のコンテンツアイテムと第2のコンテンツアイテムとを混合するパラメータを決定する方法であって:
    前記第1のコンテンツアイテムと前記第2のコンテンツアイテムとの間の潜在的な混合点で音の同時発生を検出するステップであり、前記潜在的な混合点は、前記第1のコンテンツアイテムの第1の位置と前記第2のコンテンツアイテムの第2の位置とを有するステップと;
    前記潜在的な混合点での前記検出された音の同時発生に応じて前記パラメータを決定するステップと;
    を有する方法。
  5. 第1のコンテンツアイテムと第2のコンテンツアイテムとの間の混合点をそれぞれ有する複数の関連付けであり、前記混合点は、前記第1のコンテンツアイテムの第1の位置と前記第2のコンテンツアイテムの第2の位置とを有する複数の関連付けを有するデータベース。
  6. 前記混合点は、
    潜在的な混合点で音の同時発生を検出するステップと;
    前記潜在的な混合点での前記検出された音の同時発生に応じて前記潜在的な混合点と更なる混合点とのうち1つを選択するステップと;
    を有する方法を用いて選択される、請求項5に記載のデータベース。
  7. 少なくとも複数の前記関連付けは、前記混合点に関連する推移プロファイルを更に有する、請求項5に記載のデータベース。
  8. 前記推移プロファイルは、
    前記混合点で音の同時発生を検出するステップと;
    前記混合点での前記検出された音の同時発生に応じて前記推移プロファイルを選択するステップと;
    を有する方法を用いて選択される、請求項7に記載のデータベース。
  9. 第1のコンテンツアイテムと第2のコンテンツアイテムとを混合する電子装置であって:
    前記第1のコンテンツアイテムと前記第2のコンテンツアイテムとの間の混合点をデータベースから取得する取得手段であり、前記混合点は、前記第1のコンテンツアイテムの第1の位置と前記第2のコンテンツアイテムの第2の位置とを有する取得手段と;
    前記混合点で前記第1のコンテンツアイテムと前記第2のコンテンツアイテムとを混合する混合手段と;
    を有する電子装置。
  10. 前記混合点は、
    潜在的な混合点で音の同時発生を検出するステップと;
    前記潜在的な混合点での前記検出された音の同時発生に応じて前記潜在的な混合点と更なる混合点とのうち1つを選択するステップと;
    を有する方法を用いて選択される、請求項9に記載の電子装置。
  11. 前記取得手段は、前記混合点に関連する推移プロファイルを取得するように更に動作可能である、請求項9に記載の電子装置。
  12. 前記取得手段は、前記第1のコンテンツアイテムと複数の更なるコンテンツアイテムのうち1つとの間にそれぞれある複数の混合点を取得し、前記複数の更なるコンテンツアイテムのうち1つを前記第2のコンテンツアイテムとして選択するように更に動作可能である、請求項9に記載の電子装置。
  13. 前記取得手段は、前記第1のコンテンツアイテムの現在位置と各混合点の第1の位置との間の類似点に応じて、前記複数の更なるコンテンツアイテムのうち1つを前記第2のコンテンツアイテムとして選択するように動作可能である、請求項12に記載の電子装置。
  14. 第1のコンテンツアイテムと第2のコンテンツアイテムとを混合する方法であって:
    前記第1のコンテンツアイテムと前記第2のコンテンツアイテムとの間の混合点をデータベースから取得するステップであり、前記混合点は、前記第1のコンテンツアイテムの第1の位置と前記第2のコンテンツアイテムの第2の位置とを有するステップと;
    前記混合点で前記第1のコンテンツアイテムと前記第2のコンテンツアイテムとを混合するステップと;
    を有する方法。
  15. 請求項14又は請求項4に記載の方法をプログラム可能装置が実行するように動作可能にするコンピュータプログラム。
JP2008546760A 2005-12-22 2006-12-14 コンテンツアイテムを混合するときに音の衝突を回避する電子装置及び方法 Pending JP2009521008A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP05112764 2005-12-22
PCT/IB2006/054844 WO2007072350A2 (en) 2005-12-22 2006-12-14 Electronic device and method for determining a mixing parameter

Publications (1)

Publication Number Publication Date
JP2009521008A true JP2009521008A (ja) 2009-05-28

Family

ID=38146140

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008546760A Pending JP2009521008A (ja) 2005-12-22 2006-12-14 コンテンツアイテムを混合するときに音の衝突を回避する電子装置及び方法

Country Status (5)

Country Link
US (1) US20080319756A1 (ja)
EP (1) EP1966790A2 (ja)
JP (1) JP2009521008A (ja)
CN (1) CN101341530A (ja)
WO (1) WO2007072350A2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SE1451583A1 (en) * 2014-12-18 2016-06-19 100 Milligrams Holding Ab Computer program, apparatus and method for generating a mix of music tracks

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049370A (ja) * 2000-05-11 2002-02-15 Hewlett Packard Co <Hp> 歌のコンピレーションの自動製作方法
US20020133357A1 (en) * 2001-03-14 2002-09-19 International Business Machines Corporation Method and system for smart cross-fader for digital audio
US20020157522A1 (en) * 2001-04-28 2002-10-31 Cliff David Trevor Automated compilation of music
US20020172379A1 (en) * 2001-04-28 2002-11-21 Cliff David Trevor Automated compilation of music
JP2003241800A (ja) * 2003-02-10 2003-08-29 Yamaha Corp ディジタル信号の時間軸圧伸方法及び装置
JP2005521979A (ja) * 2002-03-28 2005-07-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ “dj”モードを有するメディアプレーヤ
JP2008532353A (ja) * 2005-02-14 2008-08-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 第1の音声データを第2の音声データと混合するためのシステム及び方法、プログラム要素並びにコンピュータ読取可能な媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040254660A1 (en) * 2003-05-28 2004-12-16 Alan Seefeldt Method and device to process digital media streams
US20060023901A1 (en) * 2004-07-30 2006-02-02 Schott Ronald P Method and system for online dynamic mixing of digital audio data
US20060085265A1 (en) * 2004-09-02 2006-04-20 International Business Machines Corporation System and method for restaurant electronic menu
US7571104B2 (en) * 2005-05-26 2009-08-04 Qnx Software Systems (Wavemakers), Inc. Dynamic real-time cross-fading of voice prompts
KR20080066007A (ko) * 2005-09-30 2008-07-15 코닌클리케 필립스 일렉트로닉스 엔.브이. 재생용 오디오 프로세싱 방법 및 장치
US7525037B2 (en) * 2007-06-25 2009-04-28 Sony Ericsson Mobile Communications Ab System and method for automatically beat mixing a plurality of songs using an electronic equipment
US8173883B2 (en) * 2007-10-24 2012-05-08 Funk Machine Inc. Personalized music remixing

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002049370A (ja) * 2000-05-11 2002-02-15 Hewlett Packard Co <Hp> 歌のコンピレーションの自動製作方法
US20020133357A1 (en) * 2001-03-14 2002-09-19 International Business Machines Corporation Method and system for smart cross-fader for digital audio
US20020157522A1 (en) * 2001-04-28 2002-10-31 Cliff David Trevor Automated compilation of music
US20020172379A1 (en) * 2001-04-28 2002-11-21 Cliff David Trevor Automated compilation of music
JP2005521979A (ja) * 2002-03-28 2005-07-21 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ “dj”モードを有するメディアプレーヤ
JP2003241800A (ja) * 2003-02-10 2003-08-29 Yamaha Corp ディジタル信号の時間軸圧伸方法及び装置
JP2008532353A (ja) * 2005-02-14 2008-08-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 第1の音声データを第2の音声データと混合するためのシステム及び方法、プログラム要素並びにコンピュータ読取可能な媒体

Also Published As

Publication number Publication date
CN101341530A (zh) 2009-01-07
WO2007072350A2 (en) 2007-06-28
EP1966790A2 (en) 2008-09-10
US20080319756A1 (en) 2008-12-25
WO2007072350A3 (en) 2007-10-18

Similar Documents

Publication Publication Date Title
US7774078B2 (en) Method and apparatus for audio data analysis in an audio player
US7786367B2 (en) Music player connection system for enhanced playlist selection
JP4596060B2 (ja) 電子機器、動画像データ区間変更方法及びプログラム
US20110009988A1 (en) Content reproduction apparatus and content reproduction method
KR20180012800A (ko) 오디오 처리 방법, 장치 및 시스템
JP2002044572A (ja) 情報信号処理装置及び情報信号処理方法および情報信号記録装置
JP2006511845A (ja) オーディオ信号の配列
KR20140102656A (ko) 디지털 미디어 콘텐트를 내비게이트하는 방법, 시스템 및 컴퓨터 프로그램 제품
JP2011513872A (ja) 複数のアイテムからのアイテムの選択を可能にする方法及びデバイス
CN106653067B (zh) 一种信息处理方法及终端
US9990911B1 (en) Method for creating preview track and apparatus using the same
JP5311071B2 (ja) 楽曲再生装置及び楽曲再生プログラム
JP4910748B2 (ja) 表示装置、表示方法およびプログラム
JP2009521008A (ja) コンテンツアイテムを混合するときに音の衝突を回避する電子装置及び方法
JP2008304581A (ja) プログラム記録媒体、再生装置、再生制御プログラム及び再生制御方法
JP2010154342A (ja) 電子機器および映像コンテンツ情報表示方法
JP2008016131A (ja) コンテンツ再生制御装置、コンテンツ再生制御方法、コンテンツ再生制御プログラムおよび記録媒体
WO2004081940A1 (en) A method and apparatus for generating an output video sequence
KR100462826B1 (ko) 독립된 둘 이상의 멀티미디어 데이터의 동기화 재생을 위한 휴대용 멀티미디어 데이터 재생 장치 및 그 재생 제어 방법과, 멀티미디어 데이터를 제공하는 시스템
Cremer et al. Machine-assisted editing of user-generated content
WO2019051689A1 (zh) 一种用于智能终端的声音控制方法及声音控制装置
JP2009211093A (ja) プログラム記録媒体、再生装置、再生制御プログラム及び再生制御方法
JP6910737B2 (ja) オーディオ装置
JP2006201655A (ja) 楽曲再生装置及び楽曲再生プログラム
CN117524179A (zh) 歌曲节拍数据的处理方法、装置、设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120117

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120619