JP2019533195A - 分離されたオブジェクトを使用してオーディオ信号を編集する方法および関連装置 - Google Patents

分離されたオブジェクトを使用してオーディオ信号を編集する方法および関連装置 Download PDF

Info

Publication number
JP2019533195A
JP2019533195A JP2019517915A JP2019517915A JP2019533195A JP 2019533195 A JP2019533195 A JP 2019533195A JP 2019517915 A JP2019517915 A JP 2019517915A JP 2019517915 A JP2019517915 A JP 2019517915A JP 2019533195 A JP2019533195 A JP 2019533195A
Authority
JP
Japan
Prior art keywords
limit
individual tracks
metadata
tracks
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019517915A
Other languages
English (en)
Other versions
JP6859431B2 (ja
Inventor
ミッカ ヴィレルモ
ミッカ ヴィレルモ
レフティニエミアルト
アルト レフティニエミ
ラッセ ラークソネン
ラッセ ラークソネン
ミッコ タンミ
ミッコ タンミ
Original Assignee
ノキア テクノロジーズ オーユー
ノキア テクノロジーズ オーユー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ノキア テクノロジーズ オーユー, ノキア テクノロジーズ オーユー filed Critical ノキア テクノロジーズ オーユー
Publication of JP2019533195A publication Critical patent/JP2019533195A/ja
Application granted granted Critical
Publication of JP6859431B2 publication Critical patent/JP6859431B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/46Volume control
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/02Arrangements for generating broadcast information; Arrangements for generating broadcast-related information with a direct linking to broadcast information or to broadcast space-time; Arrangements for simultaneous generation of broadcast information and broadcast-related information
    • H04H60/04Studio equipment; Interconnection of studios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04HBROADCAST COMMUNICATION
    • H04H60/00Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
    • H04H60/68Systems specially adapted for using specific information, e.g. geographical or meteorological information
    • H04H60/73Systems specially adapted for using specific information, e.g. geographical or meteorological information using meta-information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/105Composing aid, e.g. for supporting creation, edition or modification of a piece of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/101Music Composition or musical creation; Tools or processes therefor
    • G10H2210/131Morphing, i.e. transformation of a musical piece into a new different one, e.g. remix
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/091Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith
    • G10H2220/101Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters
    • G10H2220/106Graphical user interface [GUI] specifically adapted for electrophonic musical instruments, e.g. interactive musical displays, musical instrument icons or menus; Details of user interactions therewith for graphical creation, edition or control of musical data or parameters using icons, e.g. selecting, moving or linking icons, on-screen symbols, screen regions or segments representing musical elements or parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/091Info, i.e. juxtaposition of unrelated auxiliary information or commercial messages with or between music files
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Abstract

好適な実施形態の一例は、2つ以上の個別トラックを備えたオーディオファイルを準備することと、2つ以上の個別トラックを分離することと、2つ以上の個別トラックのうちの少なくとも1つが変更されてもよい量に関する限度を設定することと、分離されて限度を設けられた個別トラックを最終ユーザによる使用のためのファイルとして出力することとを含む。【選択図】図1

Description

背景
[技術分野]
本願明細書に記載される例示的且つ非限定的な実施形態は、全般的に、オーディオ技術に関し、特に、混合音の制作物中の別々のオーディオオブジェクトを制御する方法、およびかかる方法のための装置に関する。
従来の開発の簡単な説明
音楽またはその他オーディオの正式な制作物がミックスされた後、最終ユーザは、様々な技術によりオーディオトラックまたはオーディオオブジェクトを分離できる。そのような技術には、DOLBY ATMOS、ブラインド信号分離(BSS:blind signal separation)、およびMPEG空間オーディオオブジェクト符号化(SAOC:Spatial Audio Object Coding)が含まれる。一般に、音楽制作者は、当初制作された音楽の完全性を維持しようとして、最終ユーザがこうした技術を利用する能力を制限したがる。
摘要
以下の摘要は、単に例示として意図される。この摘要に、特許請求の範囲に記載の範囲を制限する意図はない。
例示的な一側面に係る方法は、2つ以上の個別トラックを備えたオーディオファイルを準備することと、2つ以上の個別トラックを分離することと、2つ以上の個別トラックのうちの少なくとも1つが変更されてもよい量に関する限度を設定することと、分離されて限度を設けられた個別トラックを最終ユーザによる使用のためのファイルとして出力することとを含む。
例示的な別の側面に係る方法は、2つ以上の個別トラックを備えたオーディオファイルを受信することと、2つ以上の個別トラックのうちの少なくとも1つについて可能なリミックスに関する設定限度を判断するために2つ以上の個別トラックを分析することと、2つ以上の個別トラックのうちの少なくとも1つを編集することと、2つ以上の個別トラックのうちの少なくとも1つについて可能なリミックスに関して判断された設定限度に基づき2つ以上の個別トラックをリミックスすることとを含む。
例示的な別の側面に係る装置は、少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つの非一時的メモリとを備え、コンピュータプログラムコードは、少なくとも1つのプロセッサとともに、装置に少なくとも、2つ以上の個別トラックを備えたオーディオファイルを受信することと、2つ以上の個別トラックを互いに分離することと、2つ以上の個別トラックのうちの少なくとも1つについて可能なリミックスに関する設定限度を判断するために2つ以上の個別トラックを分析することと、2つ以上の個別トラックのうちの少なくとも1つについて可能なリミックスに関して判断された設定限度に基づき2つ以上の個別トラックをユーザがリミックスできるようにすることとをさせるように構成されている。
前述の側面および他の特徴が、添付図面に関連して理解される以下の記載の中で説明される。
音楽制作者による音楽の最終的なミックスを最終ユーザが変更する能力に関する限度を設定する方法の例示的な一実施形態のフロー図である。 音楽制作者による音楽の最終的なミックスを最終ユーザが変更する能力に関する限度を設定する方法の例示的な別の実施形態のフロー図である。 音楽制作者による音楽の最終的なミックスを最終ユーザが変更する能力に関する限度を自動的に設定する方法の例示的な別の実施形態のフロー図である。 音楽ファイルを受信するユーザインターフェースのブロック図である。 スライダベースのコントロールをそのディスプレイに有するユーザインターフェースの概略図である。 バンドのアーティストの操作可能なイメージの表示を示すユーザインターフェースの概略図である。 操作可能なイメージのうちの1つが拡大されているのを示す、図6のユーザインターフェースの概略図である。 操作可能なイメージのうちの1つに関連する視覚的オブジェクトを示す、図6のユーザインターフェースの概略図である。 データベースと通信しているユーザインターフェースのブロック図である。
実施形態の詳細説明
楽器トラックおよび音声トラックのミックスを、定義済みの限度の中で最終ユーザが変更できるようにする方法の例示的な実施形態が、図面を参照しながら本願明細書で開示される。本願明細書では、かかる方法を実行する装置の例示的な実施形態も開示される。一部の技術(例えばCD、MP3、および同様のもの)では、最終ユーザはトラックのミックスを変更できないが、より最近の技術ではこれができる。そのような変更は、DOLBY ATMOS、ブラインド信号分離(BSS)、およびMPEG空間オーディオオブジェクト符号化(SAOC)などの技術フォーマットを使用することによるかもしれない。例えば、DOLBY ATMOSでは、楽器トラックおよび音声トラックの完全に自由な編集ができる。一方、BSSでは、音源信号またはそれに対して使用されるミキシングプロセスについてユーザが利用できる情報が少ししか、またはまったくないことが理由で、提供される自由編集の能力がわずかに低い。さらに、BSSを使用した編集では、分離によるアーチファクトが生じた成果物がもたらされることもある。同様に、MPEG SAOCを使用する際には自由編集ができるが、オブジェクト分離における、音源トラックに対して極端すぎる変更が原因で、オーディオ品質が損なわれるかもしれない。
いずれの編集技術においても、記録された音楽は、録音を自動識別する任意の適切な方法を使用して認識され得る。一部の音楽ファイルは、任意の適切なアルゴリズム(例えばDUET BSSアルゴリズム)を使用して楽器トラックおよび音声トラックへと分離され得る。さらに、各トラックの楽器が、任意の適切な自動音楽楽器認識アルゴリズムによって認識されてもよい。さらに、楽曲中の主要な楽器を、主要タグについて音楽を分析することにより認識できる。
オーディオトラックを分離するために前述の技術のいずれかを使用する際、最終ユーザには、音楽またはその他オーディオを自分の好みに合わせて過度に改変する傾向があるかもしれない。例えば、ギターを弾く人は、音符またはコードを知るために楽曲の中のギタートラックをよりよく聴きたいかもしれず、ボーカルは、歌詞を理解したいかもしれず、映画を観ている人は、爆発音をより大きな音で聴いたりもしくは登場人物が言っていることが聞こえるように背景雑音を除去したりしたいかもしれず、または或る人は、総音量を最小限に抑えようとして音楽、ラフトラック、もしくはその他背景音を聞かずに単に音声トラックだけを聴きたがるかもしれない。
しかしながら、1つ以上の理由で、オーディオまたは音楽の制作者は一般的には、最終ユーザに完全な制御をさせたがならない。具体的には、著作権に関係する理由で、アーティストおよび制作者は、最終ユーザが楽器を別々のトラックに完全に取り出す能力を制限したがる。なぜなら、そのような分離されたトラックは無許可のプロジェクトに使用されるおそれがあるからである。楽曲に対する極端な変更は、楽曲の響きを悪くする可能性もあり、その楽曲のそうしたバージョンが広く(例えばインターネット上で)広まると、もとのアーティストが否定的な評価を受けたり、且つ/または悪評が立ったりするかもしれない。さらに、コメディ番組からラフトラックを除去すると、多くの場合、笑いを誘う何らかの効果がなくなったり弱まったりするということは、よく知られている。
したがって、一般的に、アーティストおよび制作者はいずれも、最終ユーザにより自らの作業成果物が過度に改変されることを嫌う。制作されるオーディオが過度に改変される問題に対処するために、音楽アーティストおよび音楽制作者は、最終ユーザがオーディオファイルをリミックスできる範囲(例えば結合、パン、反響音の追加、オートチューニング能力の追加、レベル(例えば他のレベルに対して相対的な増幅のレベル)の変更、および同様のもの)に関する限度を(自動または手動のいずれかで)設定することにより、最終ユーザの楽曲(または他の作業成果物)改変の能力を抑制したがるかもしれない。そのような限度には、オーディオ音源の位置(例えば音の伝搬の方向)に基づいてオーディオ音源を分離すること、および分離されたオーディオ音源の再生が含まれ得る。他の限度が、オーディオに関連するメタデータに基づく再生オプションの操作により課され得る。本願明細書で開示される例示的な実施形態は、楽器トラックの分離(音の伝搬の方向に基づく分離とは異なる)に関する限度を課すこと、ならびに再生における分離品質に限度を設けることを対象とする。
本願明細書で開示される例示的な実施形態は、楽器トラックの分離後の、最終ユーザによる楽曲のオーディオミックスの操作(ユーザインターフェース(UI:user interface)を使用する)に、音楽制作者が限度を設けるための方法およびツールを対象とする。操作は、自動の限度、または音楽制作者が設定できる限度のいずれかを有してもよい。本願明細書に記載された例示的な実施形態は、限度を決定するときに、分離システムの品質を考慮に入れる。別の選択肢として、音楽制作者は、分離された楽器トラックの品質を考慮に入れることができる。さらに、最終ユーザは限度を超過してその結果を聴くことができてもよいが、限度を超過したリミックスを保存または公表(ライセンスが与えられる場合)することは禁じられてもよい。さらに、本願明細書で開示される例示的な実施形態は、経験の浅い最終ユーザがBSSを活用して自分の記録コンテンツをリミックスできるようにしつつ過剰なリミックスが原因で記録コンテンツの品質を損なうリスクを制限するために使用されてもよい。
図1を参照する。最終的なミックスを変更する能力に関する限度を設定する方法の例示的な一実施形態が、概して参照番号100により示されており、以降「方法100」と呼ばれる。方法100は、従来のオーディオファイル、例えば制作者による最終的なミックスのみを扱うことができる。方法100において、制作者は、最終ユーザが制作者の最終的なミックスを変更してよい限度を手動で設定する。
方法100は、音楽制作ステップ110、第1の分離ステップ120、および限度設定ステップ130により開始される。音楽制作ステップ110において、音楽制作者は、楽器およびボーカルの個別トラックを使用して(例えばトラックごとに1つの楽器、トラックごとに1つにボーカルなど)、楽曲の好ましいミックスを作成する。次に音楽制作者は、好ましいミックスを特定フォーマット(例えばモノラル、ステレオ、5.1、または同様のもの)で出力および/または保存してもよい。限度は、実際の楽曲オーディオとともにメタデータとして格納される。一部の実施形態において、楽曲オーディオはMPEG SAOCフォーマットで格納され、メタデータはSAOCフォーマットの自由メタデータフィールドに追加される。他の一部の実施形態において、楽曲オーディオはMPEG SAOCフォーマットで格納され、メタデータはMP4コンテナに追加される。他の一部の実施形態において、楽曲オーディオは、AAC(advanced audio coding:アドバンスドオーディオコーディング)として格納され、メタデータはAACフォーマットの自由メタデータフィールドに追加される。MPEG SAOCでは、トラックはフォーマットの中に格納され、格納されたトラックを改変するのは容易である。
第1の分離ステップ120に示されるように、AACでは、好ましいミックスのトラックが、改変前に個別トラックへと分離される必要があるかもしれない。オーディオオブジェクト分離システムは、音楽制作側およびユーザ側の両方で使用される。音楽制作者が決定するメタデータをユーザ側でも適用できるように、分離システムは同じである必要があるかもしれない。一部のフォーマットでは、好ましいミックスが、BSSを使用して楽器トラックに分離されてもよい。ただし、SAOCが使用される場合、分離は組み込まれている。しかしながら、いずれの場合でも、トラックは個別のものと見なされるとはいえ、それらの分離は、制作における制限が原因で完璧ではないかもしれない(例えば特にAACおよびSAOCに関して)。
限度設定ステップ130において、音楽制作者は、分離されたトラックを異なるリミックスで聴いて、ユーザリミックスの許容限度を決定する。このようにして、音楽制作者は、使用される分離品質に対して、決定された限度が適切であることを確実にする。当然、制作者は、分離品質以外の側面も限度を決定するときに考慮することができる。かかる側面には、芸術的な観点および同様のものが含まれてもよい。制作者は、例えば「ボーカルトラックの減衰は不可」(したがって限度はゼロであってもよく、すなわちトラックの変更は一切許されない)、「背景の歌唱トラックは常にリードボーカルトラックより少なくとも3dB小さくなければならない」、および同様のものなどの限度も設定してもよい。一部の例示的な実施形態において、限度はコンピュータプログラムを使用して決定されてもよい。
音楽制作ステップ110、第1の分離ステップ120、および/または限度設定ステップ130の後、分離され/限度を設けられたオーディオおよびメタデータが出力ファイル140として出力される。例示的な様々な実施形態において、出力ファイル140は、音楽制作者による最終ユーザのためのオーディオファイルの完成した制作物であってもよく、楽器トラックおよび/またはボーカルトラックを備えてもよい。
必要であれば、出力ファイル140は暗号化されて、承認されたバージョンのプレーヤプログラムのみがそれを復号できるようにされてもよい。このようにして、最終ユーザが他のプレーヤプログラムを使用して過度に楽曲をリミックスできないようにすることができる。言い換えれば、デジタル著作権管理(DRM:digital rights management)スキームが、コンテンツの保存、コピー、または共有を許可する前に、(編集またはリミックスの許容限度により定義される)変更の度合いを推定し得る。次に出力ファイル140は、送信ステップ150において格納、ストリーミング、および/またはプレーヤプログラムに送信される。
プレーヤプログラムが送信ステップ150から出力ファイル140を受信すると、プレーヤプログラムはメタデータの存在を確認して、それに応じて最終ユーザが楽曲をリミックスできるようにする。第2の分離ステップ160に示されるように、好ましいミックスのオーディオファイルが、BSSを使用して楽器トラックおよび/または音声トラックへと分離されてもよい。他方、第2の分離ステップ160における分離がSAOCによる場合、分離は組み込まれている。第2の分離ステップ160においてDOLBY ATMOSが使用される実施形態では、DOLBY ATMOSは一般に、送信ステップ150中にトラックの分離を維持するので、少なくとも一部のトラックはすでに他のトラックから独立しているかもしれない。リミックスステップ170に示されるとおり、メタデータが受信され、最終ユーザがどの程度トラックをリミックスしてよいかについて限度を確認するためにメタデータの分析が行われ、最終ユーザはオーディオを聴き、許容される範囲で、UIを使用してオーディオをリミックスできる。これを行う際、最終ユーザは、限度設定ステップ130において制作者によりメタデータ内に設定された限度を超過することはできない。
ただし、一部の実施形態において最終ユーザは、設定限度を限度超過ステップ180において超過することを許可されてもよい。限度超過ステップ180において、最終ユーザは設定限度を一時的に超過できるが、結果を格納することはできない。他の一部の実施形態において、最終ユーザは、最終ユーザが絶えずコントロールを操作している(例えばコントロールボタン上に指を保持している)ときにだけ、設定限度を超過できてもよい。
図2を参照する。最終的なミックスを変更する能力に関する限度を設定する方法の例示的な別の実施形態が、概して参照番号200により示されており、以降「方法200」と呼ばれる。方法200では、制作者による最終的な好ましいミックスに加えて、原トラックが供給される。方法200のシステムでは、原トラック情報を用いて、限度が自動的に設定される。
方法200は、音楽制作ステップ210、第1の分離ステップ220、品質推定ステップ225、および限度設定ステップ230により開始される。音楽制作ステップ210では、音楽制作からの原楽器トラックを利用できる。音楽制作者は、楽曲の好ましいミックスを作成して、特定フォーマット(例えばモノラル、ステレオ、5.1、または同様のもの)で出力および/または保存する。
第1の分離ステップ220に示されるように、好ましいミックスが楽器トラックへと分離される。分離は完璧ではないかもしれないので、分離された楽器トラックは、原楽器トラックとわずかに異なる場合もある。分離は、従来の音楽ファイルにはBSSを、SAOCファイルにはSAOCを使用して行うことができる。
品質推定ステップ225では、種々の基準を使用して分離の品質が推定される。一部の実施形態では、ファイルフォーマットのみが品質評価において考慮される。SAOCファイルは高品質を有すると見なされるのに対して、BSSファイルはより低い品質を有すると見なされる。ファイルの様々なメトリクスも計算されてもよい。例えばシステムは、原楽器トラックと、分離されたトラックとの間の相互相関を計算してもよい。一般に、より高い相関関係は、より高い品質に対応する。
限度設定ステップ230では、最終ユーザがどのようにファイルをリミックスできるかについて限度が設定されてもよい。典型的には、ファイルの品質が高いほど大きく編集でき、ファイルの品質が低いほどできる編集は小さい。限度はメタデータ内に書き込まれてもよい。
分離品質に関係する限度に加えて、他の限度があってもよい。プレーヤプログラムは、楽曲のトラックの種々の特性を分析してもよい。分析は、自動楽器認識アルゴリズムを使用して楽器を認識すること、楽曲の主要な楽器を認識すること、楽曲のテンポを認識すること、インパルス、ゼロクロス率、スペクトル傾斜、全体的なスペクトル、過渡性または正弦性など、楽曲の周波数領域特性または時間領域特性を認識すること、および同様のことを含んでもよい。分析は、楽曲全体に対して、または楽曲の一部のみに対して実行することができる。最終ユーザは、UIを使用して楽曲をリミックスしてもよい。プレーヤプログラムソフトウェアは、分析に基づいて最終ユーザのリミックスの限度を設定する。限度は、例えば、「主要楽器の減衰は不可」、「ボーカルトラックの減衰は不可」、「テンポ>180bpmの楽曲の速度を上げることは不可」、および同様のものであってもよい。さらに、音楽分析と組み合わせて限度を使用することができる(例えば「主要楽器を2dBを超えて減衰させることは不可」、「ボーカルトラックの減衰は不可」、および同様のもの)。これらの限度もメタデータ内に書き込まれてもよい。
次に、分離された/推定された/限度を設けられたオーディオおよびメタデータは、楽器トラックとして、出力ファイル240として出力される。次に出力ファイル240は、送信ステップ250において格納、ストリーミング、および/または最終ユーザに送信される。
プレーヤプログラムが出力ファイル240を送信ステップ250から受信するとき、プレーヤプログラムは、編集の限度を記述するメタデータを備えた音楽楽曲ファイルを受信する。第2の分離ステップ260において、プレーヤプログラムは、楽曲をオーディオオブジェクトトラックへと分離する。第2の分離ステップ260において、オーディオファイルはBSSまたはSAOC(分離は組み込まれている)を使用して分離されてもよい。
リミックスステップ270に示されるように、最終ユーザは、UIを使用して楽曲をリミックスしてもよい。最終ユーザは、メタデータ内に設定された限度をリミックスが超過するように楽曲をリミックスすることはできない。限度は例えば、「楽器の音をより大きくまたは小さく設定してもよいが、メタデータの記述を超えてはならない」であってもよい。各トラックに対して、メタデータは、例えばデシベルで限度を含んでもよい。そのような限度は、例えば、分離品質が低ければ「トラック3のレベルはユーザによって−3dBから+3dBまで改変可能」、分離品質が高ければ「トラック3のレベルはユーザによって−12dBから+12dBまで改変可能」とされてもよい。
方法200の一部の実施形態では(方法100と同様に)、最終ユーザは設定限度を、限度超過ステップ280において超過してもよい。限度超過ステップ280において、最終ユーザは設定限度を一時的に超過できるが、結果を格納することはできない。他の一部の実施形態において、最終ユーザは、最終ユーザが絶えずコントロールを操作している(例えばコントロールボタン上に指を保持している)ときにだけ、設定限度を超過できてもよい。
図3を参照する。原楽器トラックに関する情報なしに限度を自動的に設定する方法の、例示的な別の実施形態が、概して参照番号300により示されており、以降「方法300」と呼ばれる。方法300は、従来のオーディオファイル、例えば制作者による最終的なミックスのみで動作する。
方法300は、音楽制作からの原楽器トラックを1つ以上利用できる音楽制作ステップ310を備える。音楽制作者は、楽曲の好ましいミックスを作成して、特定フォーマット(例えばモノラル、ステレオ、5.1、または同様のもの)で出力および/または保存する。音楽制作ステップ310の後、好ましいミックスが楽器トラックの出力ファイル340として出力され、送信ステップ350において格納、ストリーミング、および/または最終ユーザに送信される。
分離ステップ360において、プレーヤプログラムは、メタデータのない音楽楽曲ファイルを受信する。プレーヤプログラムは、好ましいミックスを楽器トラックへと分離する。分離は、従来の音楽ファイルにはBSSを、SAOCファイルにはSAOCを使用して行うことができる。
次に、分離の品質が、最終ユーザ品質推定ステップ365において推定されてもよい。最終ユーザ品質推定ステップ365は、種々の基準を用いてもよい。一部の実施形態では、ファイルフォーマットのみが品質評価において考慮される。SAOCファイルは高品質を有すると見なされるのに対して、BSSファイルはより低い品質を有すると見なされる。ファイルの様々なメトリクスも計算されてもよい。例えばシステムは、分離されたトラック間の相互相関を計算してもよい。トラックの相関関係が低ければ、分離は高い成功率を有すると見なされてもよい。一方、トラックの相関関係が高ければ、分離はより低い成功率を有すると見なされてもよい。
限度設定ステップ367に示されるように、最終ユーザがどのようにファイルをリミックスしてよいかに関して限度が設定される。そのようなステップにおいて、ファイルの品質が高いほど大きく編集でき、ファイルの品質が低いほどできる編集は小さい。そのような限度は、例えば、分離品質が低ければ「トラック3のレベルはユーザによって−3dBから+3dBまで改変可能」、分離品質が高ければ「トラック3のレベルはユーザによって−12dBから+12dBまで改変可能」とされてもよい。
分離品質に関係する限度に加えて、他の限度があってもよい。例えばプレーヤプログラムは、楽曲のトラックの種々の特性を分析してもよい。分析は、自動楽器認識アルゴリズムを使用して楽器を認識すること、楽曲の主要な楽器を認識すること、楽曲のテンポを認識すること、インパルス、ゼロクロス率、スペクトル傾斜、全体的なスペクトル、過渡性または正弦性など、楽曲の周波数領域特性または時間領域特性を認識すること、および同様のことを含んでもよい。分析は、楽曲全体に対して、または楽曲の一部のみに対して実行することができる。ユーザは、UIを使用して楽曲をリミックスしてもよい。プレーヤプログラムソフトウェアは、分析に基づいてユーザのリミックスの限度を設定する。限度は、例えば、「主要楽器の減衰は不可」、「ボーカルトラックの減衰は不可」、「テンポ>180bpmの楽曲の速度を上げることは不可」、および同様のものであってもよい。さらに、音楽分析と組み合わせて限度を使用することができる(例えば「主要楽器を2dBを超えて減衰させることは不可」、「ボーカルトラックの減衰は不可」、および同様のもの)。
リミックスステップ370に示されるように、最終ユーザは、UIを使用して楽曲をリミックスしてもよい。最終ユーザは、設定限度をリミックスが超過するように楽曲をリミックスすることはできない。
限度超過ステップ380において、最終ユーザは、設定限度を超過してもよい。限度超過ステップ380において、最終ユーザは設定限度を一時的に超過できるが、結果を格納することはできない。他の一部の実施形態において、最終ユーザは、最終ユーザが絶えずコントロールを操作している(例えばコントロールボタン上に指を保持している)ときにだけ、設定限度を超過できてもよい。
図4を参照する。前述した例示的な実施形態のいずれかからの楽器トラックが、最終ユーザによる使用のために装置または電子デバイスへと受信されてもよい。装置または電子デバイスは、参照番号400により示されるユーザインターフェース(UI)であってもよく、以降「UI400」と呼ばれる。UI400は、コントローラ410およびディスプレイ420を備える。コントローラ410は、プロセッサ430およびメモリ440を含んでもよく、ソフトウェア450がメモリ440内に位置する。楽器トラックは、音楽ファイル460であってもよい。
図5を参照する。UI400は、ディスプレイ420上の、単純なスライダベースのコントロールを備えてもよく、各スライダ500が楽曲中のトラックを表す。最終ユーザは、各トラックを、それに対応するスライダ500を操作することにより変更してもよい。
図6を参照する。UI400は、バンドのアーティストのイメージ600、610、620を表示して、最終ユーザがイメージ600、610、620を操作して同時にアーティストのオーディオミックスを操作できるようにするグラフィカルユーザインターフェース(GUI:graphical user interface)であってもよい。GUIは、スライダを含むUIと比較してUI400の使用をより直感的にするかもしれない。イメージ600、610、620は、例えばアルバムカバーアートであってもよい。各イメージ600、610、620は、イメージに関連する楽器が編集可能であるか不可能であるかを示すために、異なる色または視覚エフェクトを有してもよい。
特に、UI400がグラフィカルである実施形態では、音楽ファイル460は、視覚的ファイルの視覚的オブジェクトが楽器および/または音声に、つまり音楽ファイル460内の音楽オブジェクトにマッピングされた、視覚的ファイルを含んでもよい。その結果、最終ユーザは、視覚的オブジェクトを操作するとともに、同時に自動で音楽オブジェクトを操作できる。音楽オブジェクトの操作には、バンドメンバーの視覚的オブジェクトをそのトラック音量を上げるために選択すること、および同様のことが含まれるが、これに限定はされない。図7に示されるように、視覚的オブジェクトとしてのバンドメンバーのイメージ600が、そのトラック音量を上げるためにピンチでより大きくされてもよい。操作は、バンドメンバーの視覚的オブジェクトを移動してそのトラックの聴空間的な位置を移動すること、例えばバンドメンバーの関連トラックを左スピーカから右スピーカに移動すること、およびその逆に移動することも含んでもよい。図8に示されるように、オートチューン800、ベース/トレブル810、スピーカ間のバランス820、リバーブ、イコライゼーションなどのようなオーディオエフェクトが視覚的オブジェクトとして出現してもよい。その場合、最終ユーザは、視覚的オブジェクトを操作することによってこれらのエフェクトの量を制御してもよい。各トラックは、それ自体のエフェクトを有してもよい。
図9を参照する。UI400は、音楽ファイル内の楽曲を認識する任意の適切な方法を使用してもよい。例えばUI400は、オンライン(または他の)データベース900にアクセスしてもよく、UI400はデータベース900を使用して音楽ファイルに記録されているアーティストを検索してもよい。UI400はさらに、アーティストおよび/またはその楽器のオンラインイメージを検索してもよい。UI400はさらに、(例えばDUET BSSアルゴリズムを使用して)音楽ファイルを楽器トラック/音声トラックに分割してもよく、(例えば任意の適切な自動音楽楽器認識アルゴリズムを使用して)各トラック中の楽器の認識もしてもよい。UI400は、アーティストの楽器の知識に基づいて、各トラックをアーティストにマッピングしてもよい。アーティストまたはその楽器のイメージが表示されてもよく、最終ユーザはそれらに基づいて個々のトラックを操作してもよい。さらに、同じ楽器を用いる奏者が複数いる場合、UI400は、アーティストのイメージの代わりに、それらのトラックをまとめて、楽器のイメージ、または複数のアーティストのグループもしくは合成イメージを示してもよい。
UI400の他の側面は、奏者が変化するときまたは音を出していないときに、楽曲の種々の部分で、ディスプレイ420上に異なる画像を表示することを含んでもよい。さらに、楽曲に関連するレコードレーベルが、バンドメンバーの視覚的オブジェクトがミックスに合致する、関連画像を備えたいくつかの例示のミックスを提供してもよい。そのようなシステムは、ユーザ設定、または最終ユーザの以前の傾向のいずれかに基づいて、最終ユーザの好むミックスを自動的に選択してもよい。例えば、最終ユーザがいつもベース奏者をより大きな音でミックスする場合、すべての奏者の中でベース奏者の音が最も大きいミックスが選択されてもよい。システムが、ベース奏者の視覚的オブジェクトがほかよりも大きいイメージを最終ユーザに示すので、ミックスの視覚的確認を最終ユーザに与えることができる。
UI400上での最終ユーザによるリミックスは、チャンネルベースともされてもよく、その結果、最終ユーザはマルチチャンネルオーディオの種々のチャンネルで別様に楽器を増幅/減衰させる。このようにして、最終ユーザは楽器の知覚される空間的位置を制御してもよい。例えば、空間的位置に関連するファイルで品質のより高いファイルは、品質のより低いファイルよりも大きく変更できるなど、増幅の変化量も、メタデータ内にまたは自動分析により限度を設けられてもよい。
UI400の任意の実施形態において、最終ユーザは、音楽制作者により設定された限度を超過してもよい。UI400では、これを例えばタッチディスプレイデバイス上で見えるようにし、限度を超過した後はコントロールの移動が遅くなり、コントロールを移動するためには最終ユーザが何度もスワイプしなければならないようにされてもよい。コントロールは、図5に示されるようにスライダであってもよく、またはアイコンであってもよい。最終ユーザは、限度を超過するリミックスで楽曲を聴いてもよいが、リミックス後のバージョンの保存および/または送信は、UI400により拒否されてもよい。
最終ユーザが制作者により設定された限度を超過してもよいUI400の実施形態において、限度の超過は、例えばタッチディスプレイデバイス上で見えるようにすることによりディスプレイ420上で示されて、ユーザがスライダの上に指をかざしてスライダの最大値より上に保持した場合に限りリミックスが限度を超過するようにされてもよい。ユーザが指を離すと、スライダは最大値に戻る。
本願明細書に記載された例示的な実施形態を音楽ファイルに対して使用するのに加えて、本願明細書に記載された実施形態は、オーディオブロードキャスト、遠隔会議、映画のオーディオ、オーディオブック、および同様のものに適用できる。最終ユーザが自分の記録コンテンツをリミックスできるようにするのは有益な機能である(がBSSを用いた従来のリミックスはかなりの専門的技術を必要とする場合もあり、それが最終結果を決して望ましいとはいえない響きにすることもあり、その結果、最終ユーザがその使用をやめる原因になるかもしれない)ので、本願明細書に記載された例示的な実施形態は、さらに、最終ユーザ自身の記録コンテンツとともに使用されてもよい。いずれにしても、本願明細書に記載される例示的な実施形態では、ユーザ自身のコンテンツの全体的な品質を損ねるリスクがそれほど大きくない状態で、経験の浅い最終ユーザによるBSSの使用が可能である。
本願明細書に記載される実施形態に関して、リミックスの限度は各楽器に対して個別に設定されてもよく、アーティストは、オーディオオブジェクト分離およびメタデータを使用して、オーディオがAACまたはMP3など後方互換性のあるオーディオフォーマットを使用して送信される場合でも楽器別の限度を設定でき、一部の実施形態において、リミックスの限度は自動的に設定されてもよく、一部の実施形態において、メタデータなしでも自動の楽器別限度が使用されてもよく、最終ユーザが個人用の音楽ミックスを作成するための直感的な方法が実現される。
以下、本願明細書で説明されるすべての図面を参照する。前述の例示的な実施形態のいずれも、ソフトウェア、ハードウェア、アプリケーション論理、またはソフトウェア、ハードウェア、およびアプリケーション論理の組み合わせにおいて実装され得る。オーディオをリミックスするために、ソフトウェア、アプリケーション論理、および/またはハードウェアがUI400に存在してもよい。必要であれば、ソフトウェア、アプリケーション論理、および/またはハードウェアの全部または一部が、他の任意の適切な位置に存在してもよい。例示の実施形態では、アプリケーション論理、ソフトウェア、または命令セットは、様々なコンピュータ可読媒体のうちの任意のものにおいて維持される。「コンピュータ可読媒体」は、コンピュータなどの命令実行システム、装置、またはデバイスによって、またはそれに関連して使用される命令を含むこと、格納すること、伝達すること、伝搬すること、または搬送することができる任意の媒体または手段であってもよい。コンピュータ可読媒体は、コンピュータなど、命令実行システム、装置、またはデバイスによって、またはそれに関連して使用される命令を含むこと、または格納することができる任意の媒体または手段とされてもよい、コンピュータ可読ストレージ媒体を備えてもよい。
例示的な一実施形態において、方法は、2つ以上の個別トラックを備えたオーディオファイルを準備することと、2つ以上の個別トラックを分離することと、2つ以上の個別トラックのうちの少なくとも1つが変更されてもよい量に関する限度を設定することと、分離されて限度を設けられた個別トラックを最終ユーザによる使用のためのファイルとして出力することとを含む。
本方法において、2つ以上の個別トラックそれぞれが変更されてもよい量に関する限度を設定することは、限度をメタデータとして格納することを含んでもよい。限度をメタデータとして格納することは、限度をメタデータ内に手動で設定することを含んでもよい。限度をメタデータ内に手動で設定することは、許容可能な音の上限および下限を手動で決定することを含んでもよい。限度をメタデータとして格納することは、オーディオファイル内の2つ以上の個別トラックの構成に基づいてメタデータ内に限度を自動的に設定することを含んでもよい。メタデータ内に限度を自動的に設定することは、オーディオファイルの2つ以上の個別トラックと分離後の2つ以上の個別トラックとの間の相関関係に基づいて音質を判断することを含んでもよい。本方法はさらに、出力されたファイルを暗号化することを含んでもよい。限度をメタデータとして格納することは、オーディオを空間オーディオオブジェクト符号化フォーマットで格納することを含んでもよい。限度をメタデータとして格納することは、オーディオを空間オーディオオブジェクト符号化フォーマットで格納して、MP4コンテナにメタデータを格納することを含んでもよい。
例示的な別の実施形態において、方法は、2つ以上の個別トラックを備えたオーディオファイルを受信することと、2つ以上の個別トラックのうちの少なくとも1つについて可能なリミックスに関する設定限度を判断するために2つ以上の個別トラックを分析することと、2つ以上の個別トラックのうちの少なくとも1つを編集することと、2つ以上の個別トラックのうちの少なくとも1つについて可能なリミックスに関して判断された設定限度に基づき2つ以上の個別トラックをリミックスすることとを含む。
本方法はさらに、分析前に、2つ以上の個別トラックを互いに分離することを含んでもよい。2つ以上の個別トラックを互いに分離することは、ブラインド信号分離フォーマットまたは空間オーディオオブジェクト符号化フォーマットに基づいてもよい。本方法はさらに、可能なリミックスに関して判断された設定限度を超過することを含んでもよい。受信されたオーディオファイルは、何らのメタデータも含まなくてもよい。2つ以上の個別トラックを分析することは、分離された2つ以上の個別トラック間の相関関係を計算することと、計算された相関関係に基づいて可能なリミックスの範囲に関する限度を設定することとを含んでもよい。
例示的な別の実施形態において、装置は、少なくとも1つのプロセッサと、コンピュータプログラムコードを含む少なくとも1つの非一時的メモリとを備え、コンピュータプログラムコードは、少なくとも1つのプロセッサとともに、装置に少なくとも、2つ以上の個別トラックを備えたオーディオファイルを受信することと、2つ以上の個別トラックを互いに分離することと、2つ以上の個別トラックのうちの少なくとも1つについて可能なリミックスに関する設定限度を判断するために2つ以上の個別トラックを分析することと、2つ以上の個別トラックのうちの少なくとも1つについて可能なリミックスに関して判断された設定限度に基づき2つ以上の個別トラックをユーザがリミックスできるようにすることとをさせるように構成される。
装置にはさらに、ブラインド信号分離フォーマットに基づいて2つ以上の個別トラックを互いに分離させてもよい。装置にはさらに、空間オーディオオブジェクト符号化フォーマットに基づいて2つ以上の個別トラックを互いに分離させてもよい。装置にはさらに、可能なリミックスに関して判断された設定限度をユーザが超過できるようにさせてもよい。2つ以上の個別トラックを分析することは、装置にさらに、分離された2つ以上の個別トラック間の相関関係を計算することと、計算された相関関係に基づいて可能なリミックスの範囲に関する限度を設定することと、をさせることを含んでもよい。
当然のことながら、前述の説明は例示でしかない。様々な選択肢および変更が当業者により考案され得る。例えば、様々な従属クレームに列挙される特徴は、任意の適切な組み合わせ(単数または複数)で相互に組み合わせ可能であろう。さらに、上述された種々の実施形態からの特徴を、新たな実施形態に選択的に組み合わせることができるであろう。よって、本記載は、添付の特許請求の範囲に記載の範囲内に入るそのような選択肢、変更、および変形物をすべて包含するものとする。
いくつかの例示的な実施形態が以下に列挙される。
[1]2つ以上の個別トラックを備えたオーディオファイルを準備することと、
2つ以上の個別トラックを分離することと、
2つ以上の個別トラックのうちの少なくとも1つが変更される量に関する限度を設定することと、
分離されて限度を設けられた個別トラックを最終ユーザによる使用のためのファイルとして出力することと、
を含む方法。
[2]2つ以上の個別トラックそれぞれが変更される量に関する限度を設定することは、限度をメタデータとして格納することを含む、[1]の方法。
[3]限度をメタデータとして格納することは、メタデータ内に限度を手動で設定することを含む、[2]の方法。
[4]限度をメタデータ内に手動で設定することは、許容可能な音の上限および下限を手動で決定することを含む、[3]の方法。
[5]限度をメタデータとして格納することは、オーディオファイル内の2つ以上の個別トラックの構成に基づいてメタデータ内に限度を自動的に設定することを含む、[2]の方法。
[6]メタデータ内に限度を自動的に設定することは、オーディオファイルの2つ以上の個別トラックと分離後の2つ以上の個別トラックとの間の相関関係に基づいて音質を判断することを含む、[5]の方法。
[7]出力されたファイルを暗号化することをさらに含む、[1]〜[6]のいずれかの方法。
[8]限度をメタデータとして格納することは、オーディオを空間オーディオオブジェクト符号化フォーマットで格納することを含む、[2]〜[7]のいずれかの方法。
[9]限度をメタデータとして格納することは、オーディオを空間オーディオオブジェクト符号化フォーマットで格納することと、メタデータをMP4コンテナに格納することとを含む、[8]の方法。
[10]2つ以上の個別トラックを備えたオーディオファイルを受信することと、
2つ以上の個別トラックのうちの少なくとも1つについて可能なリミックスに関する設定限度を判断するために2つ以上の個別トラックを分析することと、
2つ以上の個別トラックのうちの少なくとも1つを編集することと、
2つ以上の個別トラックのうちの少なくとも1つについて可能なリミックスに関して判断された設定限度に基づいて、2つ以上の個別トラックをリミックスすることと、
を含む方法。
[11]分析前に、2つ以上の個別トラックを互いに分離することをさらに含む、[10]の方法。
[12]2つ以上の個別トラックを互いに分離することは、ブラインド信号分離フォーマットまたは空間オーディオオブジェクト符号化フォーマットに基づく、[11]の方法。
[13]可能なリミックスに関して判断された設定限度を超過することをさらに含む、[10]〜[12]のいずれかの方法。
[14]受信されたオーディオファイルは、何らのメタデータも含まない、[10]〜[13]のいずれかの方法。
[15]2つ以上の個別トラックを分析することは、分離された2つ以上の個別トラック間の相関関係を計算することを含み、判断された設定限度は、計算された相関関係に基づいて可能なリミックスの範囲に基づく、[10]〜[14]のいずれかの方法。
[16]少なくとも1つのプロセッサと、
コンピュータプログラムコードを含む少なくとも1つの非一時的メモリと、
を備えた装置であって、コンピュータプログラムコードは、少なくとも1つのプロセッサとともに、装置に少なくとも
2つ以上の個別トラックを備えたオーディオファイルを受信することと、
2つ以上の個別トラックを互いに分離することと、
2つ以上の個別トラックのうちの少なくとも1つについて可能なリミックスに関する設定限度を判断するために2つ以上の個別トラックを分析することと、
2つ以上の個別トラックのうちの少なくとも1つについて可能なリミックスに関して判断された設定限度に基づいて、2つ以上の個別トラックをユーザがリミックスできるようにすることと、
をさせるように構成されている、装置。
[17]装置にはさらに、ブラインド信号分離フォーマットに基づいて2つ以上の個別トラックを互いに分離させる、[16]の装置。
[18]装置にはさらに、空間オーディオオブジェクト符号化フォーマットに基づいて2つ以上の個別トラックを互いに分離させる、[16]の装置。
[19]装置にはさらに、可能なリミックスに関して判断された設定限度をユーザが超過できるようにさせる、[16]〜[18]のいずれかの装置。
[20]2つ以上の個別トラックを分析することは、装置にさらに、分離された2つ以上の個別トラック間の相関関係を計算させることを含み、判断された設定限度は、計算された相関関係に基づいて可能なリミックスの範囲に関する、[16]〜[19]のいずれかの装置。

Claims (22)

  1. 2つ以上の個別トラックを備えたオーディオファイルを準備することと、
    前記2つ以上の個別トラックを分離することと、
    視覚的オブジェクトを使用してエフェクトの量を変更する能力に関する限度を、前記2つ以上の個別トラックのうちの少なくとも1つに基づいて設定すること、ただし、前記視覚的オブジェクトは、操作されるようにディスプレイ上に提示されるように構成される、前記設定することと、
    前記分離され、前記エフェクトの前記量の変更について限度を設けられた個別トラックを出力することと、
    を含む方法。
  2. 前記エフェクトの前記量を変更する前記能力に関する前記限度を、前記2つ以上の個別トラックのうちの少なくとも1つに基づいて設定することは、限度をメタデータとして格納することを含む、請求項1に記載の方法。
  3. 前記限度をメタデータとして格納することは、前記メタデータ内に前記限度を手動で設定することを含む、請求項2に記載の方法。
  4. 前記メタデータ内に前記限度を手動で設定することは、前記2つ以上の個別トラックのうちの少なくとも1つの許容可能な音の上限および下限を手動で決定することを含む、請求項3に記載の方法。
  5. 前記限度をメタデータとして格納することは、前記オーディオファイルの前記2つ以上の個別トラックの構成に基づいて前記メタデータ内に前記限度を自動的に設定することを含む、請求項2に記載の方法。
  6. 前記メタデータ内に前記限度を自動的に設定することは、分離前の前記オーディオファイルの前記2つ以上の個別トラックと分離後の前記2つ以上の個別トラックとの間の相関関係に基づいてオーディオ品質を判断することを含む、請求項5に記載の方法。
  7. 前記分離されて限度を設けられた個別トラックをファイルとして出力することと、
    前記出力されたファイルを暗号化することと、
    のうちの少なくとも1つをさらに含む、請求項1に記載の方法。
  8. 前記限度をメタデータとして格納することは、オーディオを空間オーディオオブジェクト符号化フォーマットで格納することを含む、請求項2に記載の方法。
  9. 前記限度をメタデータとして格納することは、オーディオを空間オーディオオブジェクト符号化フォーマットで格納することと、前記メタデータをMP4コンテナに格納することとを含む、請求項2に記載の方法。
  10. 2つ以上の個別トラックを備えたオーディオファイルを受信することと、
    ディスプレイ上のイメージの操作に基づき視覚的オブジェクトを使用してエフェクトの量を変更する能力に関して、前記2つ以上の個別トラックのうちの少なくとも1つに基づいて設定限度を判断するために、前記2つ以上の個別トラックを分析することと、
    前記2つ以上の個別トラックのうちの少なくとも1つを編集することと、
    前記2つ以上の個別トラックのうちの前記少なくとも1つに対する前記エフェクトの前記量の変更について前記判断された設定限度に基づいて、前記2つ以上の個別トラックをリミックスすることと、
    を含む方法。
  11. 分析前に、前記2つ以上の個別トラックを互いに分離することをさらに含む、請求項10に記載の方法。
  12. 前記2つ以上の個別トラックを互いに分離することは、ブラインド信号分離フォーマットまたは空間オーディオオブジェクト符号化フォーマットに基づく、請求項11に記載の方法。
  13. 前記エフェクトの前記量の変更について前記判断された設定限度を超過することをさらに含む、請求項10に記載の方法。
  14. 前記受信されたオーディオファイルは、何らのメタデータも含まない、請求項10に記載の方法。
  15. 前記2つ以上の個別トラックを分析することは、前記分離された2つ以上の個別トラック間の相関関係を計算することと、前記計算された相関関係に基づいてリミックスの範囲に関する限度を設定することとを含む、請求項10に記載の方法。
  16. 2つ以上の個別トラックを備えたオーディオファイルを受信することと、
    前記2つ以上の個別トラックを互いに分離することと、
    ディスプレイ上のイメージとして制御可能な視覚的オブジェクトを使用してエフェクトの量を変更する能力に関して、前記2つ以上の個別トラックのうちの少なくとも1つに基づいて設定限度を判断するために、前記2つ以上の個別トラックを分析することと、
    前記2つ以上の個別トラックのうちの前記少なくとも1つに対する前記エフェクトの前記量の変更について前記判断された設定限度に基づいて、前記2つ以上の個別トラックのリミックスをできるようにすることと、
    を含む方法。
  17. ブラインド信号分離フォーマットに基づいて前記2つ以上の個別トラックを互いに分離することを更に含む、請求項16に記載の方法。
  18. 空間オーディオオブジェクト符号化フォーマットに基づいて前記2つ以上の個別トラックを互いに分離することを更に含む、請求項16に記載の方法。
  19. 前記判断された設定限度を前記リミックスが超過できるようすることを更に含む、請求項16に記載の方法。
  20. 前記2つ以上の個別トラックを分析することは、前記装置にさらに、前記分離された2つ以上の個別トラック間の相関関係を計算することと、前記計算された相関関係に基づいてリミックスの範囲に関する限度を設定することと、をさせることを含む、請求項16に記載の方法。
  21. 処理手段及び記憶手段を備える装置であって、前記記憶手段はプログラム命令を格納し、前記プログラム命令は、前記処理手段に実行されると、前記装置に、請求項1から20のいずれかに記載の方法を遂行させるように構成される、装置。
  22. 装置の処理手段に実行されると、前記装置に、請求項1から20のいずれかに記載の方法を遂行させるように構成されるプログラム命令を備える、コンピュータプログラム。
JP2019517915A 2016-10-03 2017-09-27 分離されたオブジェクトを使用してオーディオ信号を編集する方法および関連装置 Active JP6859431B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/283,681 2016-10-03
US15/283,681 US10349196B2 (en) 2016-10-03 2016-10-03 Method of editing audio signals using separated objects and associated apparatus
PCT/FI2017/050679 WO2018065664A1 (en) 2016-10-03 2017-09-27 Method of editing audio signals using separated objects and associated apparatus

Publications (2)

Publication Number Publication Date
JP2019533195A true JP2019533195A (ja) 2019-11-14
JP6859431B2 JP6859431B2 (ja) 2021-04-14

Family

ID=61757183

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019517915A Active JP6859431B2 (ja) 2016-10-03 2017-09-27 分離されたオブジェクトを使用してオーディオ信号を編集する方法および関連装置

Country Status (5)

Country Link
US (2) US10349196B2 (ja)
EP (1) EP3520105A4 (ja)
JP (1) JP6859431B2 (ja)
CN (1) CN109844859B (ja)
WO (1) WO2018065664A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10349196B2 (en) * 2016-10-03 2019-07-09 Nokia Technologies Oy Method of editing audio signals using separated objects and associated apparatus
EP3618464A1 (en) * 2018-08-30 2020-03-04 Nokia Technologies Oy Reproduction of parametric spatial audio using a soundbar
US11625216B2 (en) * 2018-09-17 2023-04-11 Apple Inc. Techniques for analyzing multi-track audio files
JP2020136746A (ja) * 2019-02-14 2020-08-31 紀文 近藤 音響出力装置および方法
GB2594265A (en) * 2020-04-20 2021-10-27 Nokia Technologies Oy Apparatus, methods and computer programs for enabling rendering of spatial audio signals
CN112562712A (zh) * 2020-12-24 2021-03-26 上海明略人工智能(集团)有限公司 一种录音数据处理方法、系统、电子设备及存储介质
CN114267318A (zh) * 2021-12-31 2022-04-01 腾讯音乐娱乐科技(深圳)有限公司 Midi音乐文件的生成方法、存储介质和终端
CN117475360B (zh) * 2023-12-27 2024-03-26 南京纳实医学科技有限公司 基于改进型mlstm-fcn的音视频特点的生物特征提取与分析方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060129842A1 (en) * 2004-11-29 2006-06-15 Magix Ag System and method of creating secure encrypted digital media files from a base media work for additional defined processing
JP2010507927A (ja) * 2006-05-04 2010-03-11 エルジー エレクトロニクス インコーポレイティド リミキシング性能を持つ改善したオーディオ
JP2011071683A (ja) * 2009-09-25 2011-04-07 Nec Corp 映像オブジェクト検出装置、映像オブジェクト検出方法及びプログラム
WO2011087460A1 (en) * 2010-01-15 2011-07-21 Agency For Science, Technology And Research A method and a device for generating at least one audio file, and a method and a device for playing at least one audio file
US20140053711A1 (en) * 2009-06-01 2014-02-27 Music Mastermind, Inc. System and method creating harmonizing tracks for an audio input
US20140355789A1 (en) * 2013-05-30 2014-12-04 Spotify Ab Systems and methods for automatic mixing of media
WO2016133785A1 (en) * 2015-02-16 2016-08-25 Dolby Laboratories Licensing Corporation Separating audio sources
JP2016527558A (ja) * 2013-07-22 2016-09-08 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 3dオーディオコンテンツのsaocダウンミックスを実現する装置及び方法

Family Cites Families (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3797037A (en) * 1972-06-06 1974-03-12 Ibm Sentence oriented dictation system featuring random accessing of information in a preferred sequence under control of stored codes
US6490359B1 (en) * 1992-04-27 2002-12-03 David A. Gibson Method and apparatus for using visual images to mix sound
JP3816572B2 (ja) * 1996-03-15 2006-08-30 パイオニア株式会社 情報記録装置及び情報記録方法並びに情報再生装置及び情報再生方法
US5728960A (en) * 1996-07-10 1998-03-17 Sitrick; David H. Multi-dimensional transformation systems and display communication architecture for musical compositions
US6959220B1 (en) * 1997-11-07 2005-10-25 Microsoft Corporation Digital audio signal filtering mechanism and method
US6311155B1 (en) 2000-02-04 2001-10-30 Hearing Enhancement Company Llc Use of voice-to-remaining audio (VRA) in consumer applications
GB9918611D0 (en) * 1999-08-07 1999-10-13 Sibelius Software Ltd Music database searching
US20010015917A1 (en) * 1999-12-31 2001-08-23 Heo Jung-Kwon Recording medium having data recorded in data structure capable of editing additional data related to audio data, method and apparatus of recording and/or reproducing thereof
US6560577B1 (en) * 2000-03-21 2003-05-06 Intel Corporation Process for encoding audio from an analog medium into a compressed digital format using attribute information and silence detection
JP2002074850A (ja) * 2000-08-29 2002-03-15 Toshiba Corp 音声情報記録装置及び方法、音声情報再生装置及び方法、音声情報記録媒体
US7050376B2 (en) * 2000-09-19 2006-05-23 Lg Electronics Inc. Optical disc player and method for reproducing thereof
US6614729B2 (en) * 2000-09-26 2003-09-02 David D. Griner System and method of creating digital recordings of live performances
JP2002124022A (ja) * 2000-10-18 2002-04-26 Yamaha Corp オーディオデータ記録再生装置
US7103261B2 (en) * 2001-06-04 2006-09-05 William Grecia Consumer friendly error correcting formating method for white book 2.0 video compact disc with CD-DA red book audio tracks
JP2004536348A (ja) 2001-07-20 2004-12-02 グレースノート インコーポレイテッド 録音の自動識別
US20050013583A1 (en) * 2001-11-20 2005-01-20 Masanori Itoh Audio/video information recording/reproducing apparatus and method, and recording medium in which information is recorded by using the audio/video information recording/reproducing apparatus and method
KR100542129B1 (ko) * 2002-10-28 2006-01-11 한국전자통신연구원 객체기반 3차원 오디오 시스템 및 그 제어 방법
JP2004336576A (ja) * 2003-05-09 2004-11-25 Sony Corp コンテンツ配信システム、コンテンツ配信装置、コンテンツ記録再生装置並びにコンテンツ記録再生方法、並びにコンピュータ・プログラム
WO2005003927A2 (en) * 2003-07-02 2005-01-13 James Devito Interactive digital medium and system
US7689394B2 (en) * 2003-08-26 2010-03-30 Siemens Industry, Inc. System and method for remotely analyzing machine performance
US8019449B2 (en) * 2003-11-03 2011-09-13 At&T Intellectual Property Ii, Lp Systems, methods, and devices for processing audio signals
WO2006010951A1 (en) 2004-07-30 2006-02-02 U-Myx Limited Multi-channel audio data distribution format, method and system
US20060028951A1 (en) * 2004-08-03 2006-02-09 Ned Tozun Method of customizing audio tracks
JP2006084749A (ja) * 2004-09-16 2006-03-30 Sony Corp コンテンツ生成装置およびコンテンツ生成方法
KR100754385B1 (ko) * 2004-09-30 2007-08-31 삼성전자주식회사 오디오/비디오 센서를 이용한 위치 파악, 추적 및 분리장치와 그 방법
US20060209652A1 (en) * 2005-03-16 2006-09-21 Toms Mona L Accessing a mixed-mode storage medium
EP1722546B1 (en) * 2005-05-12 2008-12-10 TCL & Alcatel Mobile Phones Ltd Method for synchronizing at least one multimedia peripheral of a portable communication device, and corresponding portable communication device
US7935881B2 (en) * 2005-08-03 2011-05-03 Massachusetts Institute Of Technology User controls for synthetic drum sound generator that convolves recorded drum sounds with drum stick impact sensor output
US7450705B1 (en) * 2005-08-31 2008-11-11 At&T Corp. Method to test and compare voice teleconference systems
US7697947B2 (en) 2005-10-05 2010-04-13 Sony Ericsson Mobile Communications Ab Method of combining audio signals in a wireless communication device
KR100733965B1 (ko) * 2005-11-01 2007-06-29 한국전자통신연구원 객체기반 오디오 전송/수신 시스템 및 그 방법
JP2007156300A (ja) * 2005-12-08 2007-06-21 Kobe Steel Ltd 音源分離装置、音源分離プログラム及び音源分離方法
US8705747B2 (en) * 2005-12-08 2014-04-22 Electronics And Telecommunications Research Institute Object-based 3-dimensional audio service system using preset audio scenes
JP4496186B2 (ja) * 2006-01-23 2010-07-07 株式会社神戸製鋼所 音源分離装置、音源分離プログラム及び音源分離方法
KR100868475B1 (ko) * 2007-02-16 2008-11-12 한국전자통신연구원 객체기반 오디오 서비스를 위한 다중객체 오디오 콘텐츠파일의 생성, 편집 및 재생 방법과, 오디오 프리셋 생성방법
JP4897519B2 (ja) * 2007-03-05 2012-03-14 株式会社神戸製鋼所 音源分離装置,音源分離プログラム及び音源分離方法
JP2009054222A (ja) * 2007-08-24 2009-03-12 Toshiba Corp 光ディスク装置及び光ディスク処理方法
US20090106429A1 (en) * 2007-10-22 2009-04-23 Matthew L Siegal Collaborative music network
US8173883B2 (en) 2007-10-24 2012-05-08 Funk Machine Inc. Personalized music remixing
US9330720B2 (en) * 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
JP4483959B2 (ja) * 2008-03-12 2010-06-16 ソニー株式会社 コンテンツ送信装置、プログラム、視聴制限決定方法、およびコンテンツ送信システム
KR20090110242A (ko) * 2008-04-17 2009-10-21 삼성전자주식회사 오디오 신호를 처리하는 방법 및 장치
EP2146522A1 (en) 2008-07-17 2010-01-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for generating audio output signals using object based metadata
US8085269B1 (en) * 2008-07-18 2011-12-27 Adobe Systems Incorporated Representing and editing audio properties
US8392004B2 (en) * 2009-04-30 2013-03-05 Apple Inc. Automatic audio adjustment
US8338686B2 (en) 2009-06-01 2012-12-25 Music Mastermind, Inc. System and method for producing a harmonious musical accompaniment
JP5182226B2 (ja) 2009-06-01 2013-04-17 ヤマハ株式会社 音響装置
US9310959B2 (en) 2009-06-01 2016-04-12 Zya, Inc. System and method for enhancing audio
KR101473035B1 (ko) * 2009-06-19 2014-12-16 한국전자통신연구원 프리셋을 이용한 객체기반 오디오 시스템, 객체기반 오디오 제공 방법 및 객체기반 오디오 재생 방법
WO2011002933A2 (en) 2009-06-30 2011-01-06 Museami, Inc. Vocal and instrumental audio effects
US9076264B1 (en) 2009-08-06 2015-07-07 iZotope, Inc. Sound sequencing system and method
KR101600354B1 (ko) * 2009-08-18 2016-03-07 삼성전자주식회사 사운드에서 오브젝트 분리 방법 및 장치
US8439752B2 (en) * 2009-11-12 2013-05-14 Wms Gaming Inc. Bonus trigger sounds building into a song
WO2011071336A2 (ko) * 2009-12-11 2011-06-16 한국전자통신연구원 객체 기반 오디오 서비스를 위한 오디오 저작 장치 및 오디오 재생 장치, 이를 이용하는 오디오 저작 방법 및 오디오 재생 방법
CN102696070B (zh) * 2010-01-06 2015-05-20 Lg电子株式会社 处理音频信号的设备及其方法
US8541676B1 (en) * 2010-03-06 2013-09-24 Alexander Waldman Method for extracting individual instrumental parts from an audio recording and optionally outputting sheet music
US9024166B2 (en) * 2010-09-09 2015-05-05 Harmonix Music Systems, Inc. Preventing subtractive track separation
KR101740436B1 (ko) * 2010-12-08 2017-05-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
US8798777B2 (en) * 2011-03-08 2014-08-05 Packetvideo Corporation System and method for using a list of audio media to create a list of audiovisual media
FI20115401A (fi) * 2011-04-26 2012-10-27 Ovelin Oy Järjestelmä ja menetelmä musiikkisoittimen soiton harjoittamiseksi
AU2012279357B2 (en) * 2011-07-01 2016-01-14 Dolby Laboratories Licensing Corporation System and method for adaptive audio signal generation, coding and rendering
CA2841787C (en) 2011-07-14 2019-08-27 Sirius Xm Radio Inc. Systems and methods for implementing dynamic banks of subchannels for broadcast or streamed content services ("featured favorites")
EP3136755B2 (en) * 2011-07-28 2024-04-17 My Tinnitus Has Gone AG Generating an adapted audio file
KR101796580B1 (ko) * 2011-11-28 2017-11-14 한국전자통신연구원 음악 하이라이트 구간 추출 장치 및 방법
EP2795931B1 (en) 2011-12-21 2018-10-31 Nokia Technologies Oy An audio lens
WO2013093565A1 (en) 2011-12-22 2013-06-27 Nokia Corporation Spatial audio processing apparatus
KR101744361B1 (ko) * 2012-01-04 2017-06-09 한국전자통신연구원 다채널 오디오 신호 편집 장치 및 방법
US9319821B2 (en) 2012-03-29 2016-04-19 Nokia Technologies Oy Method, an apparatus and a computer program for modification of a composite audio signal
US8939056B1 (en) * 2012-04-20 2015-01-27 Barron Associates, Inc. Systems, devices, and/or methods for managing targeted payload descent
US20140115468A1 (en) 2012-10-24 2014-04-24 Benjamin Guerrero Graphical user interface for mixing audio using spatial and temporal organization
DK2936480T3 (en) * 2012-12-21 2019-01-07 Jamhub Corp MULTIPORAL ANALOGUE SOUND NUTS WITH DIGITAL VECTOR OUTPUT FOR COLLABORATIVE MUSIC TREATMENT
US9654757B2 (en) 2013-03-01 2017-05-16 Nokia Technologies Oy Method, apparatus, and computer program product for including device playback preferences in multimedia metadata
US9595932B2 (en) 2013-03-05 2017-03-14 Nike, Inc. Adaptive music playback system
IES86526B2 (en) * 2013-04-09 2015-04-08 Score Music Interactive Ltd A system and method for generating an audio file
GB2516056B (en) 2013-07-09 2021-06-30 Nokia Technologies Oy Audio processing apparatus
EP2830046A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for decoding an encoded audio signal to obtain modified output signals
EP2830333A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-channel decorrelator, multi-channel audio decoder, multi-channel audio encoder, methods and computer program using a premix of decorrelator input signals
WO2015027327A1 (en) * 2013-08-28 2015-03-05 Mixgenius Inc. System and method for performing automatic audio production using semantic data
US9619029B2 (en) * 2013-11-14 2017-04-11 Immersion Corporation Haptic trigger control system
CN104683933A (zh) * 2013-11-29 2015-06-03 杜比实验室特许公司 音频对象提取
US9721202B2 (en) * 2014-02-21 2017-08-01 Adobe Systems Incorporated Non-negative matrix factorization regularized by recurrent neural networks for audio processing
US20150243325A1 (en) * 2014-02-24 2015-08-27 Lyve Minds, Inc. Automatic generation of compilation videos
WO2015150066A1 (en) * 2014-03-31 2015-10-08 Sony Corporation Method and apparatus for generating audio content
WO2015154159A1 (en) 2014-04-10 2015-10-15 Vesprini Mark Systems and methods for musical analysis and determining compatibility in audio production
US20150317655A1 (en) * 2014-05-01 2015-11-05 newsbloom, Inc. Crowdsourced news end-to-end system
US9715279B2 (en) * 2014-06-09 2017-07-25 Immersion Corporation Haptic devices and methods for providing haptic effects via audio tracks
EP2960899A1 (en) * 2014-06-25 2015-12-30 Thomson Licensing Method of singing voice separation from an audio mixture and corresponding apparatus
KR102292877B1 (ko) * 2014-08-06 2021-08-25 삼성전자주식회사 콘텐츠 재생 방법 및 그 방법을 처리하는 전자 장치
US10275207B2 (en) * 2014-09-01 2019-04-30 Samsung Electronics Co., Ltd. Method and apparatus for playing audio files
WO2016102737A1 (en) 2014-12-22 2016-06-30 Nokia Technologies Oy Tagging audio data
US10509622B2 (en) * 2015-10-27 2019-12-17 Super Hi-Fi, Llc Audio content production, audio sequencing, and audio blending system and method
US10002596B2 (en) * 2016-06-30 2018-06-19 Nokia Technologies Oy Intelligent crossfade with separated instrument tracks
US10014841B2 (en) * 2016-09-19 2018-07-03 Nokia Technologies Oy Method and apparatus for controlling audio playback based upon the instrument
US10349196B2 (en) * 2016-10-03 2019-07-09 Nokia Technologies Oy Method of editing audio signals using separated objects and associated apparatus

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060129842A1 (en) * 2004-11-29 2006-06-15 Magix Ag System and method of creating secure encrypted digital media files from a base media work for additional defined processing
JP2010507927A (ja) * 2006-05-04 2010-03-11 エルジー エレクトロニクス インコーポレイティド リミキシング性能を持つ改善したオーディオ
US20140053711A1 (en) * 2009-06-01 2014-02-27 Music Mastermind, Inc. System and method creating harmonizing tracks for an audio input
JP2011071683A (ja) * 2009-09-25 2011-04-07 Nec Corp 映像オブジェクト検出装置、映像オブジェクト検出方法及びプログラム
WO2011087460A1 (en) * 2010-01-15 2011-07-21 Agency For Science, Technology And Research A method and a device for generating at least one audio file, and a method and a device for playing at least one audio file
US20140355789A1 (en) * 2013-05-30 2014-12-04 Spotify Ab Systems and methods for automatic mixing of media
JP2016527558A (ja) * 2013-07-22 2016-09-08 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン 3dオーディオコンテンツのsaocダウンミックスを実現する装置及び方法
WO2016133785A1 (en) * 2015-02-16 2016-08-25 Dolby Laboratories Licensing Corporation Separating audio sources

Also Published As

Publication number Publication date
US10349196B2 (en) 2019-07-09
EP3520105A1 (en) 2019-08-07
US20190261121A1 (en) 2019-08-22
CN109844859A (zh) 2019-06-04
EP3520105A4 (en) 2020-05-20
CN109844859B (zh) 2021-07-27
US20180096705A1 (en) 2018-04-05
WO2018065664A1 (en) 2018-04-12
US10623879B2 (en) 2020-04-14
JP6859431B2 (ja) 2021-04-14

Similar Documents

Publication Publication Date Title
JP6859431B2 (ja) 分離されたオブジェクトを使用してオーディオ信号を編集する方法および関連装置
US9530396B2 (en) Visually-assisted mixing of audio using a spectral analyzer
US11132984B2 (en) Automatic multi-channel music mix from multiple audio stems
TWI511489B (zh) 語意音軌混合器
US7343210B2 (en) Interactive digital medium and system
EP2659483B1 (en) Song transition effects for browsing
US8903525B2 (en) Sound processing device, sound data selecting method and sound data selecting program
US10433089B2 (en) Digital audio supplementation
De Man et al. Intelligent Music Production
WO2021190039A1 (zh) 可拆解和再编辑音频信号的处理方法及装置
Kalliris et al. Media management, sound editing and mixing
US9705953B2 (en) Local control of digital signal processing
JP4392040B2 (ja) 音響信号処理装置、音響信号処理方法、音響信号処理プログラムおよびコンピュータに読み取り可能な記録媒体
KR101464797B1 (ko) 객체 기반 오디오 서비스를 위한 오디오 저작 장치 및 오디오 재생 장치, 이를 이용하는 오디오 저작 방법 및 오디오 재생 방법
Reiss An intelligent systems approach to mixing multitrack audio
US20240054158A1 (en) Data processing apparatuses and methods
JP6905411B2 (ja) チャンネル数変換装置及びプログラム
Bedidi An Investigation of Mastering Techniques for Immersive Audio
Exarchos et al. Audio processing
KR20060078350A (ko) 다중채널 음악 파일 제작방법 및 다중채널 음악 파일 제공시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190513

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200424

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201008

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210325

R150 Certificate of patent or registration of utility model

Ref document number: 6859431

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250