JP2012523579A - 混合信号を形成する方法及び装置、信号を分離する方法及び装置、並びに対応する信号 - Google Patents

混合信号を形成する方法及び装置、信号を分離する方法及び装置、並びに対応する信号 Download PDF

Info

Publication number
JP2012523579A
JP2012523579A JP2012504047A JP2012504047A JP2012523579A JP 2012523579 A JP2012523579 A JP 2012523579A JP 2012504047 A JP2012504047 A JP 2012504047A JP 2012504047 A JP2012504047 A JP 2012504047A JP 2012523579 A JP2012523579 A JP 2012523579A
Authority
JP
Japan
Prior art keywords
signal
signals
source
mixed
mixing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012504047A
Other languages
English (en)
Inventor
パーヴェクス、マチュー
ギリン、ローラン
− マルク ブロッシエール、ジャン
マルシャン、シルバン
Original Assignee
アンスティテュ ポリテク二ック ドゥ グルノーブル
ユニヴェルスィテ ボルドー 1
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by アンスティテュ ポリテク二ック ドゥ グルノーブル, ユニヴェルスィテ ボルドー 1 filed Critical アンスティテュ ポリテク二ック ドゥ グルノーブル
Publication of JP2012523579A publication Critical patent/JP2012523579A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/018Audio watermarking, i.e. embedding inaudible data in the audio signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0272Voice signal separating
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

本発明は、少なくとも2つのデジタル・ソース信号(S、S)、特に、オーディオ信号から1つ以上の混合信号(Sout)を形成する方法に関し、ソース信号(S、S)を混合することにより混合信号(Sout)が形成される。具体的には、ソース信号又は混合の特徴の大きさが予め決定され、特徴の大きさの値(W、W)が信号(S、S、Sout)の少なくとも1つに入れ込まれる。本発明は、入れ込まれたソース信号又は混合の特徴の大きさの値を含む1つ以上の混合信号に含まれる少なくとも1つのデジタル・ソース信号を少なくとも部分的に分離する分離方法にも関する。この方法に従って、入れ込まれた値及びソース信号又は混合の特徴の大きさが決定され、次に前記ソース信号を少なくとも部分的に得るために前記値に基づいて1つ以上の混合信号が処理される。本発明は、対応する混合信号(Sout)のほか対応する装置にも関する。

Description

本発明は、グローバル信号を構成するコンポーネント・ソース信号の少なくとも1つを分離するための方法に関する。本発明は、その少なくとも1つのコンポーネント・ソース信号を後で分離できるようにグローバル信号を形成する方法にも関する。最後に、本発明は、これらの方法を実現するための装置にも関する。
信号の混合は、ソース信号と呼ばれるいくつかの信号を加算して、混合信号と呼ばれる1つ以上のコンポジット信号を得ることである。具体的には、オーディオ応用では、混合は、ソース信号を加算する単純なステップにより構成することができ、あるいは、加算前及び/又は後に信号をフィルタリングするステップを含むこともできる。さらに、オーディオ・コンパクト・ディスク等の特定の応用に対して、ソース信号を異なる方法で混合して、ステレオ信号の2つの径路(左及び右)に対応する2つの混合信号を形成してよい。
ソースの分離は、同じソース信号に基づいて形成された一定数の異なる混合信号の観測に基づいてソース信号を推定することである。一般的に、その目的は、1つ以上のターゲット・ソース信号を増強するか、実際に可能ならば完全に抽出することである。混合信号内に存在するソース信号の数よりも少ない数の混合信号が利用可能ないわゆる「未決定(under−determined)」の場合、ソースの分離は特に困難である。この場合、ソース信号内に存在する情報について、これらの混合信号内の利用可能な情報量は僅かであるため、抽出は、非常に困難か実際には不可能である。一般的に、非常に冗長性の高い2つのステレオ径路(すなわち2つの混合信号)だけが多数の潜在的なソース信号に対して利用可能なため、オーディオ・コンパクト・ディスク上の音楽信号は、特にその代表例である。
ブラインド(blind)分離、コンピュータによる聴覚情景分析、及びモデルに基づく分離を含むいくつかのタイプのソース信号分離手法が存在する。ブラインド分離は、最も一般的な形式であり、ソース信号に関する情報又は混合信号の性質に関する情報は、事前に知られていない。その結果、これらのソース信号及び混合信号について一定数の仮定(例えば、ソース信号は統計的に独立)がなされ、これらの仮定に基づく基準を最大化(例えば、分離装置により得られる信号の独立性を最大化)することにより分離システムのパラメータが推定される。しかし、一般的に、この手順は、多数(少なくとも、ソース信号と同じ数)の混合信号を利用可能な場合に使用されるので、混合信号の数がソース信号の数よりも少ない未決定の場合には適用できない。
コンピュータによる聴覚情景分析は、ソース信号を高調波パーシャル(partial)としてモデル化するものであるが、混合信号がはっきりとは分解されない。この手順は、我々の耳が行うのと同様にソース信号を分離する人間の聴覚系の機構に基づく。詳細については、非特許文献1、非特許文献2、非特許文献3を引用する。しかし、一般的に、コンピュータによる聴覚情景分析は、ソース信号の分離について悪い結果をもたらし、特にオーディオ信号の場合にそうである。
分離の別の形式は、適応した関数の基底上でのミクスチュア(mixture)の分解に依存する。時間パーシモニアス分解(temporal parsimonious decomposition)及び周波数によるパーシモニアス分解(parsimonious decomposition by frequency)という2つの大きなカテゴリがある。
前者は、ミクスチュアの波形の分解を伴い、後者は、そのスペクトル表現の「アトム」と呼ばれる初等関数、辞書の要素の和への分解を伴う。多様なアルゴリズムにより辞書のタイプ及び最も可能性の高い対応する分解を選択することができる。時間ドメインの詳細については、非特許文献4又は5を引用する。非特許文献6により提案された手順では、分解アトム(decomposition atoms)を独立サブスペースに分類することによって、高調波パーシャル群を抽出することができるようになる。この手順の制限の1つは、信号に適応していない、例えばガボール(Gabor)・アトム等のアトムの一般的な辞書が良い結果を与えないことである。さらに、これらの分解が有効であるためには、辞書が各タイプの楽器の波形の全ての変形された(translated)形式を含む必要がある。その結果、分解辞書は、投影したがって分離が有効であるためには非常に膨大でなければならない。
時間ケースにみられる変形におけるこの不変性(invriance)の問題を緩和するために、周波数によるパーシモニアス分解手法が存在する。詳細については、独立サブスペース分析(ISA)を紹介した非特許文献7を引用する。この分析は、アトムの基底上で(短時間フーリエ変換(STFT)により計算される)混合信号の短時間振幅スペクトルを分解し、その後独立サブスペースにアトムをグループ分けし、各サブスペースは、あるソースに固有であり、その後ソースを別々に再合成するものである。しかし、一般的に、この手法は、STFTによるスペクトル分析の分解能、このスペクトル・ドメイン内のソースの重ね合わせ、及び振幅へのスペクトル分離の制限(信号の再合成フェーズは混合信号のそれである)といういくつかの要因により制限される。したがって、一般的に、混合信号を独立サブスペースの和として表わすことは、スペクトル・ドメイン内のサウンド・シーンの複雑さ(様々なコンポーネントの強力なインブリケーション:imbrication)や混合信号内の各コンポーネントの寄与の時間の関数としての変化のため、困難である。実際は、良く管理された「単純化された」混合信号(ソース信号が数のかなり少ないMIDI楽器又は比較的よく分離可能な楽器)により手順が評価されることが多い。
様々なソースの統計的モデルを使用する非特許文献8も引用する。しかし、これらのモデル・パラメータは、分離対象の様々な楽器のオーディオ・トラックの例に基づいて調整される。
非特許文献9は、多様な楽器の特性を「学ぶ」のにニューラル・ネットを使用する。これは、聴覚イメージ・モデルによりピアノの音色の聴覚特性を抽出し、次にピアノを分離するためにミクスチュア内のこれらの特性を強調しようとする。
非特許文献10は、ミクスチュアのヒルベルト・スペクトルの独立サブスペースへの分解により、ソースの分離に取り組んでおり、ヒルベルト変換は、様々なソースの判別についてフーリエ変換よりも良い結果を提供する。
非特許文献11は、特定の楽器、及びこの楽器の様々な音符に対して学んだガボール・アトムの基底上でのミクスチュアの分解による分離を提案している。「マッチング追求」技術により、これらアトムの一部は、保持され、次に抽出した音符に適応したサブスペース内に集められる。
最後に、非特許文献12は、ソース信号から生じるソース信号の識別でソース信号をマークすることを提案している。具体的には、マーキングは、混合信号の周波数スペクトル内で各ソース信号から生じる周波数を分離するために行われる。しかし、このようにして分離することができるソースの数は制限される。さらに、ソース信号に含まれる全ての周波数をマークすることは考えられず、あるソース信号のマークされない周波数と他のソース信号のマークされた周波数とが重なることがある。
これら全ての研究に対して、応用される実際のケースについて非常に管理された条件下でかなり非現実的な人工的ミクスチュアについてテストが行われている。
さらに、混合信号自体により提供されるもの以外の利用可能な情報を欠くため、未決定ミクスチュアに基づく分離手順は限られた有効性を示す。
P.Bourcet,D.Masse and B.Jahan:Systeme de diffusion de donnees[Data broadcasting system],1995.Patent of Invention 95 06727,Telediffusion de France
D.P.W.Ellis,Using knowledge to organize sound: The prediction−driven approach to computational auditory scene analysis,and its application to speech/non−speech mixture (Speech Communication,27(3),pp.281−298,1999) D.Godsmark and G.J.Brown,A blackboard architecture for comutational auditory scene analysis(Speech Communication,27(3),pp.351−366,1999) T.Kinoshita,S.Sakai and H.Tanaka,Musical sound source identification based on frequency component adaptation(In Proc.IJCAI Workshop on CASA,pp.18−24,1999) L.Benaroya,Representations parcimonieuses pour la separation de sources avec un seul capteur [Parsimonious representations for the separation of sources with a single sensor](Proc.GRETSI,2001) P.J.Wolfe and S.J.Godsill,A Gabor regression scheme for audio signal analysis(Proc.IEEE Workshop on Applications of Signal Processing to Audio and Acoustics,pp.103−106,2003) R.Gribonval and E.Bacry,Harmonic Decomposition of Audio Signals With Matching Pursuit,IEEE Trans.Signal Proc.,51(1),pp.101−112,2003 M.A.Casey and A.Westner,Separation of mixed audio sources by independent subspace analysis,Proc.Int.Computer Music Conf.,2000 L.Benaroya,F.Bimbot and R.Grivonval Audio sources separation with a single sensor(IEEE Trans.Audio,Speech,& Language Proc.,14(1),2006) S.D.Teddy and E.Lai,Model−based approach to separating instrumental music from single track recordings(Int.Conf.Control,Automation,Robotics and Vision,Kunming,China,2004) K.I.Molla and K.Hirose,Single−Mixture audio source separation by subspace decomposition of Hilbert spectrum(IEEE Trans.Audio,Speech,& Language Proc.,15(3),2007) N.Cho,Y.Shiu and C.−C.J.Kuo,Audio source separation with matching pursuit and content−adaptive dictionaries(IEEE Workshop on Applications of Signal Processig to Audio and Acoustics,2007) Y.−W.Liu,Sound source segregation assisted by audio watermarking(IEEE,Int.Conf.Multimedia and Expo.,pages 200−203,2007) R.Garcia:Digital watermarking of audio signals using psychoacoustic auditory model and spread spectrum theory,107th Convention of Audio Engineering Society(AES),1999 Cox,I.J.,Kilian,J.,Leighton,F.T.,Shamoon,T.:Secure spread spectrum watermarking for multimedia,IEEE Transactions on Image Processing,6(12),pp.1673−1687,1997 I.J.Cox,M.L.Miller and A.L.McKellips,Watermarking as communications with side information,IEEE Proc.,87(7),pp.1127−1141,1999 Ryuki Tachibana:Audio watermarking for live performance,SPIE Electronic Imaging:Security and Watermarking of Multimedia Content V,volume 5020,pp.32−43,2003 T.Nakamura,R.Tachibana & S.Kobayashi,Automatic music monitoring and boundary detection for broadcast using audio watermarking,SPIE Electronic Imaging:Security and Watermarking of Multimedia Content IV,vol.4675,pp.170−180,2002 B.Chen and C.−E.W.Sundberg:Digital audio broadcasting in the fm band by means of contiguous band insertion and precanceling techniques,IEEE Transactions on Communications,48(10),pp.1634−1637,2000 B.Chen & G.Wornell,Quantization index modulation:a class of provably good methods for digital watermarking and information embedding.IEEE Trans.Information Theory,47,pp.1423−1443,2001 M.Costa,Writing on dirty paper,IEEE Trans.Information Theory,29,pp.439−441,1983
したがって、本発明の目的は、より有効なやり方によって、混合信号に含まれるソース信号を分離できるようにする方法を提案することである。特に、本発明の目的は、混合信号の数がソース信号の数よりも小さい、いわゆる「未決定」の場合にソース信号を分離する方法を提供することである。
そのために、一実施例では、少なくとも2つのデジタル・ソース信号、特にオーディオ信号に基づく1つ以上の混合信号の形成方法が提案され、混合信号は、ソース信号を混合することにより形成される。特に、ソース信号又は混合の特徴を示す量が決定され、信号の少なくとも1つに前記特徴量(characteristic quantity)の値が透かしとして入れられる。
また、ソース信号を混合することにより得られ、ソース信号又は混合の特徴を示す量の透かし値(watermarked value)を含む1つ以上の混合信号に含まれる少なくとも1つのデジタル・ソース信号を少なくとも部分的に分離するための分離方法も提案される。この方法に従って、ソース信号又は混合の特徴を示す量の透かし値が決定され、次に前記ソース信号を少なくとも部分的に得るために混合信号が前記値の関数として処理される。
一般的に、透かしは、二値情報をデジタル信号に加えることである。特に、透かしは、信号により表わされるコンテンツに関する情報を挿入するのに使用される。したがって、信号が写真や歌を表わす場合、透かし情報は、例えば、写真や歌の作者でよい。
以後、オーディオ透かしの技術について考える。ここでは、信号の透かしとして、好ましくは人間の知覚システムの欠陥を利用して知覚できない、すなわち不可聴情報をオーディオ信号である信号に挿入する。典型的に採用される技術は、スペクトル拡散タイプである(非特許文献13、非特許文献14)。一般的に、オーディオ透かしは、デジタル媒体上の作品に対する著作権の保護及び管理(「デジタル権利管理」)のフレームワーク、より一般的には、このタイプの媒体上の情報のトレーサビリティのフレームワークで使用される。このように、歌にその作者又は所有者を識別できるようにする情報を透かしとして入れることができる。この場合、その目的は、非常にロバストな(robust)やり方(すなわち起こり得る多少とも合法的な信号の操作に抵抗力のある方法)で、比較的少量の情報を信号の広い時間−周波数スパンに亘って拡散し次に歌に付加して挿入することにより、それを分離・削除することを非常に困難にすることである。
(透かしが形成される)エミッタにおいてホスト信号が既知であれば、「情報に基づく透かし」(「サイド情報を入れた透かし」)について論じてよい。この場合の目的は、それが挿入される信号に適応した最適透かしを選択することである(非特許文献15)。満足させるべき制約は、可能な限り高い伝送スループットが得られるが透かしが可聴でないこと、さらに伝送の可能な限りの信頼性(伝送の過程で発生するエラーが僅か)を確保することである。したがって、データ伝送に対する透かしは、特に、例えばデータベースのインデクスを作成する目的の文書の注釈(非特許文献16)又はこの文書のブロードキャストに関する統計をまとめる目的の文書識別(非特許文献17)のために使用される。データ伝送に対する透かしのフレームワークで、ホスト信号の特性が透かしのそれと置換される置換透かし技術を引用することもできる。置換透かしの例は、Chen(非特許文献18)又はBourcet(特許文献1)に記述されている。
この場合、Chen及びWornellの研究により触発された透かし方式を使用することができる(非特許文献19)。これらの研究において、透かしは、量子化により導入される。簡略化された方法では、透かしは、ホスト信号の表現の1つ(時間、スペクトル、又はスペクトル−時間表現)における量子化レベルの変更によって入れる。この技術の理論的性能は、Costaのモデルに匹敵し(非特許文献20)、エミッタにおいて信号が事前に知られていれば、Costaのモデルが伝送チェーンの伝送容量の理論的限界を定める。
この場合、透かしは、信号自体に関する情報を挿入するのに使用され、混合信号に基づいてソース信号の分離を可能にする。ここでは、挿入される情報は、ソース信号自体(例えば、時間上、周波数内、又は時間−周波数平面内のエネルギ分布)、ソース信号及び混合信号(例えば、時間−周波数平面内における多少ローカルな規模での混合信号内の各ソース信号の寄与)、又は混合方法自体(混合信号をもたらす混合ステップのパラメータ)に関連している。したがって、それは、ソース信号及び/又は混合の特徴を示す量、すなわちソース信号及び/又は信号処理という意味の混合の特徴を示す記述子を伴い、これらの記述子が信号の分離を助けることができるようにしなければならない。したがって、ここでは、これは、比較的多量であると同時にオプションとして時間−周波数平面内においてよくローカライズされよく管理された方法で分布された情報を伴う。一方、透かしは、特に、信号が受けるかもしれない不正操作について、特定のロバストネス(robustness)を示す必要はない。このように、非セキュアタイプの手順、すなわち信号の操作に対して非常にロバストではないが大量の情報を透かしとして入れることができるようにする手順を透かし手順としてよい。
透かし方法とソースを分離する方法の結合は、分離の瞬間に、混合前の少なくとも1つのソース信号又は混合方法自体のパラメータに関する情報が知られているような情報に基づく分離を伴う限り、混合信号に基づくソース信号の分離の有効性を改善することができる。特に、いわゆる「未決定」の場合、単一の混合信号であっても、ソース信号自体に関する情報を混合信号内に透かしとして入れて、分離を可能にできる。言い換えると、たとえソース信号の数が多くても、透かしは、有効な分離を得るのに必要な情報を提供する。
特徴量は、信号をほとんど変更せずそのフォーマットを変更しないように、信号内に透かしとして入れられる。特に、オーディオ信号の場合、透かしをいれた混合信号は、コンパクト・ディスクの従来のリーダと互換性を保ったまま、透かし値がほとんど可聴ではないように挿入される。この結果、信号分離は、たとえ既知の方法により処理されないにしても、混合信号は、既知の方法により読み取ることができる。
好ましくは、特徴量は、少なくとも1つのソース信号の時間、スペクトル、又はスペクトル−時間エネルギ分布を表わす。この場合、この量は、少なくとも1つのソース信号の特徴を示す。それは、混合信号に透かしとして入れられる情報の量を制限しながら有効な分離ができるように選択される。したがって、同じような分離を得るのに、特徴量は、ソース信号の特徴に従って多少正確になり多量になる。
その代わりに、特徴量は、混合信号内のソース信号の少なくとも1つの、少なくとも1つの決定した瞬間における、振幅又はエネルギ・スペクトルの寄与を表すことができる。この場合、それは、ソース信号と混合信号との間の相対量を伴い、この量は、混合信号に関するソース信号の特徴を示す。
最後に、特徴量は、混合信号を得るためのソース信号混合用パラメータを表すことができる。それは、例えば重み付けパラメータ及び適切であれば混合ステップの間に各ソース信号と関連付けられたフィルタリング・パラメータのセットを含んでよい。この場合、この量は、このように得られた混合信号を決定する混合中にソース信号を重み付け又はフィルタリングするための様々なパラメータを表し、この量は、混合の特徴を示す。特に、ステレオ信号に対しては、分離問題の未決定文字があったとしても、混合方法の知識を利用してソース信号を少なくとも部分的に分離できる場合がある。
前記特徴量の値は、混合前にソース信号に及び/又は混合後に混合信号に、透かしとして入れてよい。いずれの場合も、この特徴量の決定及び透かしには、ソース信号及び/又は混合信号及び/又は混合方法の知識が必要である。
別の特徴に従って、少なくとも2つのデジタル・ソース信号、特にオーディオ信号に基づいて1つ以上の混合信号を形成する装置であって、混合信号を形成するために前記ソース信号を混合する手段を備える装置が提案される。この装置は、ソース信号又は混合の特徴を示す量を決定する手段、及び前記特徴量の値を信号の少なくとも1つに透かしとして入れる手段も備える。
また、ソース信号を混合することにより得られ、ソース信号又は混合の特徴を示す量の透かし値を含む1つ以上の混合信号に含まれる少なくとも1つのデジタル・ソース信号を少なくとも部分的に分離するための分離装置も提案される。この装置は、ソース信号又は混合の特徴を示す量の透かし値を決定する手段と、混合信号を前記値の関数として処理する手段とを備え、前記ソース信号を少なくとも部分的に得ることができる。
形成装置の一実施例により、透かし手段は、混合手段の上流に備えられ、特徴量の値をソース信号に透かしとして入れることができる。
形成装置の別の実施例により、透かし手段は、混合手段の下流に備えられ、特徴量の値を混合信号に透かしとして入れることができる。
形成装置は、信号の表現を量子化する手段も備え、透かし手段は、信号の表現の量子化のオーバーレベルを使用して特徴量の値をマークすることができる。信号の表現は、信号のスペクトル又はスペクトル−時間表現でよい。
特に、量子化手段は、信号の表現内に導入してよい変更の大きさを、従来の読取装置又は本発明に従った分離装置により信号が復元される時にこれらの変更が信号の知覚量を変えないように、また、これらの変更を本発明に従った分離装置により検出できるように、決定することを可能にする。
このように、この透かし信号により表されるサウンド・コンテンツの品質が、初期信号により表されるサウンド・コンテンツの品質に対してほとんど劣化しないように、特徴量を透かしとして入れた信号を得ることができる。既知の装置による透かし信号の復元により、ほとんど変更されないサウンド・コンテンツ品質を得ることができ、透かしを入れた信号の本発明に従った装置による処理により、信号に入れた透かし値を決定することができる。
別の特徴に従って、少なくとも2つのソース信号を混合することにより得られ、ソース信号又は混合の特徴を示す量の透かし値を含む混合信号、特にオーディオ信号が提案される。
前記混合信号を含む情報媒体、特にオーディオ・コンパクト・ディスクも提案される。
本発明に従った混合信号を形成する装置の第1実施例の略図である。 本発明に従った分離装置の第1実施例の略図である。 本発明に従った混合信号を形成する装置の第2実施例の略図である。 本発明に従った分離装置の第2実施例の略図である。 本発明に従った混合信号を形成する方法のフロー・チャートである。 透かしを入れる方法のフロー・チャートである。 本発明に従った分離方法のフロー・チャートである。
完全に非制約的例として添付図に例示された特定の実施例を検討すれば、本発明はより良く理解される。図1は、混合信号を形成する装置1の第1実施例の略図である。形成装置1は、入力としてソース信号S及びSを受信し、混合信号Soutを送出する。ここでは、簡単にするために、ソース信号の数は2に制限されている。しかし、当然、ソース信号の数は遥かに多くてよい。さらに、後の説明では、信号は、オーディオ信号とする。形成装置1の目的は、ソース信号S及びSに基づいて形成され、ソース信号の少なくとも1つの特徴を示す量の透かし値を含む混合信号Soutを送出することである。
この装置は、混合手段2を備える。また、混合手段は、入力としてソース信号S及びSを受信し、出力としてソース信号の結合の結果得られる初期混合信号Smixを送出する。具体的には、混合は、単純な和でできる。また、それは、各ソース信号に割り当てられたその和の係数が時間の経過とともに変化する和、又は1つ以上のフィルタに関連づけられた和でもできる。
この実施例では、混合信号Soutは、ソース信号S、Sの少なくとも1つの特徴を示す量の透かし値を含む。後の説明では、混合信号Soutは、各ソース信号の特徴を示す量の透かし値を含むものとする。
このように、形成装置1は、信号特徴量を決定する手段3を含む。決定手段3は、入力として、特徴量の値を決定したいソース信号、この場合2つの信号S1及びS2を受信する。
後の説明では、特徴量として当該信号のスペクトル−時間エネルギ分布を決定することができる決定手段3が選択される。したがって、決定手段3は、信号の時間−周波数平面内での表現を得るためにソース信号を変換する手段4を備える。信号の時間−周波数変換は、1組のMDCT(「修正離散コサイン変換」)係数への分解、又は短時間フーリエ変換により行ってよい。後の説明では、ソース信号を1組のMDCT係数に分解する手段は、変換手段4とする。その結果、ソース信号の表現は、マトリクス形式で得られる。この時間−周波数表現に基づいて、ソース信号の特徴を示す量の値が決定される。具体的には、決定手段3は、検出手段5及び評価手段6を備え、得られたマトリクスを量Wで特徴付けることができるようにする。
検出手段5は、例えば、各ソース信号S、Sに対して、マトリクス時間−周波数表現のMDCT係数を、以下、分子という隣接係数のグループにグループ分けすることができる。手段5により検出された一組の分子によって、ソース信号のマトリクス表現が検索できるようになる。
評価手段6によって、各ソース信号に対して特徴量W、Wをその一組の分子に基づいて決定できるようになる。特に、この量の値は、各ソース信号の各分子に対して決定してよい。その結果、この値は、分子によりカバーされる時間−周波数ゾーン内のソース信号のエネルギを特徴付ける。
このように、ソース信号Sの特徴を示す量の値W及びソース信号Sの特徴を示す量の値Wが、評価手段6、したがって決定手段3の出力として得られる。値W及びWは、最初に混合信号Soutを形成するために初期混合信号Smixに透かしとして入れられ、後で混合信号Soutのソース信号S、Sを分離するのに使用される。
形成手段1は、透かし手段7も備える。透かし手段7は、入力として、混合信号Smix及びソース信号S、Sの特徴を示す量の値W、Wを受信する。透かし及び透かし値の回復を改善するために、透かし手段7は、ソース信号S及びSを分解するのに使用されるのと同じMDCT時間−周波数表現に従って初期混合信号Smixを分解できるようにする変換手段8を備えることができる。
分解された初期混合信号は、次に、第1量子化手段9へ送信される。第1量子化手段9は、所望品質の信号を復元するために、MDCT係数、すなわち初期混合信号のマトリクス時間−周波数表現を選択された第1ソリューションで量子化可能にする。第1ソリューションは、初期混合信号のMDCT係数を2つの値間の最小間隔で量子化するものである。最小間隔は、量子化の知覚の関数として選択される。オーディオ信号の場合、2つの値間の最小不一致が大きすぎれば、量子化された混合信号は、人間の耳では初期混合信号とは違って知覚される。一方、2つの値間の最小不一致が十分小さければ、人間の耳は、量子化された混合信号と初期混合信号との間の違いを識別することができない。
一方、第1量子化の間隔内に透かしが挿入されるので、これらの間隔は、最大量の透かし情報がそこに挿入できるように十分広く選択しなければならない。
その後、量子化されたMDCT係数は、検出手段10により分子にグループ分けされる。ここで、MDCT係数を分子にグループ分けすることによって、単一のMDCT係数上よりも非常に多量の情報をその上に符号化可能な透かしのための基本サポート媒体(elementary supporting medium)を得ることができる。したがって、量子化された混合信号の分子に、ソース信号の分子の特徴を示す量の値W、Wが透かしとして入れられる。
特に、ソース信号のMDCT係数のグループ分けに類似している初期混合信号のMDCT係数の分子へのグループ分けを選択することができる、すなわち検出手段5及び10は類似してよい。この場合、値W、Wが各ソース信号の特定分子のエネルギを表わせば、初期混合信号の対応する分子(すなわち時間−周波数平面の同じゾーンをカバーするもの)にこれらの値を透かしとして入れることができる。さらに、この場合、値W、Wは、対応する混合信号の分子に関するソース信号の分子の各々の相対エネルギ、すなわちエネルギ比を表すことができる。次に、混合信号分子のエネルギの値は、検出手段10により評価手段6へ送信されるので、後者がエネルギ比を計算できる。分離に有用な他の情報は、利用可能な場所(room)、例えば、ソース信号の分子の「形式」、すなわち分子内のMDCT係数の値の多少正確な配置に従って符号化してもよい。
次に、透かし手段7は、混合信号の分子にグループ分けされ、量子化されたMDCT係数及び値W、Wを受信する第2量子化手段11を備える。第2量子化手段11によって、ソース信号の分離中に検出できるように選択された第2ソリューションで混合信号のマトリクス表現を量子化できるようになる。第2ソリューションは、第1量子化の最小間隔を第2最小間隔で量子化するもの、すなわち第1量子化のレベルにオーバレベルを導入するものである。第2最小間隔は、ソース分離中に検出の関数として選択される。第2最小間隔が小さすぎると、第2量子化中に入れた透かし値は、正しく検出できない。
一方、透かしは、第2量子化のオーバレベルにより符号化されるので、これらのオーバレベル間の間隔も十分小さく選択して可能な限り多量の情報を透かしとして入れることができるようにしなければならない。したがって、透かしに入れることができる情報量は、第1及び第2量子化に依存する。
したがって、透かしの原理は、混合信号分子を構成するMDCT係数の量子化レベルの変更である。量子化レベルの変更は、第1量子化の決定された間隔内で行われるため不可聴又はほとんど可聴ではないが、第2量子化の決定された間隔で行われるためソースの分離のためには検出可能なままである。
最後に、透かし手段7は、逆変換手段12を備える。逆変換手段12は、変換手段4により行われるものとは逆の変換を行う。この場合、手段12は、逆MDCT分解(IMDCT)により変換を行う。次に、透かしを入れた混合信号の時間表現が得られ、それは混合信号Soutを構成する。したがって、初期混合信号Smixと同じ時間表現を有するが、ほとんど可聴できず、ソース分離のためには検出可能な透かしを含む混合信号出力Soutが形成手段1の出力において得られる。その後、混合信号Soutを記録媒体に送信又は加えることができる。例えば、コンパクト・ディスクの場合、混合信号Soutは、最初に16ビット(オーディオCDフォーマットに対応)で一様スカラ量子化を受け、次に、コンパクト・ディスクに加えられる。16ビットでの一様スカラ量子化は、透かし手段により行われる第2量子化の検出を制限する典型的な処理である。
このように、少なくとも2つのソース信号を混合することにより得られ、ソース信号の少なくとも1つの特徴を示す量の透かし値を含む混合信号Soutが、形成手段1の出力において得られる。混合信号Soutは、初期混合信号Smixと同じ時間表現を示し、特徴量の値は、ほとんど可聴ではないように透かしとして入れられるので、従来の装置では、混合信号Soutを任意の混合信号と同様に処理することができ、後で説明するような本発明に従った分離装置では、補助的に、ソース信号の1つを混合信号Soutから少なくとも部分的に分離することができる。
図2は、前の段落で定義したような混合信号Soutに含まれるソース信号を分離する装置の第1実施例の略図である。分離装置13は、入力として混合信号Soutを受信し、この場合、2つの少なくとも部分的に分離されたソース信号S’及びS’を送出する。分離装置13の目的は、特徴量の透かし値を含む混合信号Soutに含まれる1つ以上のソース信号を少なくとも部分的に送出することである。
分離装置13は、分離対象信号の特徴を示す量の透かし値W、Wを決定する手段14を備える。手段14は、入力として混合信号Soutを受信し、出力として透かし値W、Wを送出する。この場合、手段14は、混合信号SoutのMDCT係数も送出する。
決定手段14は、図1で説明した手段4に類似した変換手段15を備える。変換手段15によって、混合信号SoutをMDCT係数のマトリクスに分解できるようになる。
その後、MDCT係数は、図1で説明した手段9に類似した第1量子化手段16へ送信される。量子化手段16によって、混合信号SoutのMDCT係数を第1ソリューションで量子化できるようになる。
その後、量子化された係数は、図1で説明した手段10に類似した検出手段17へ送信される。検出手段17は、量子化されたMDCT係数を分子にグループ分けし、具体的には、前に説明した手段10により作り出されたのと同じ分子に係数をグループ分けする。
次に、前記分子上の透かし値を検出し決定することができる。このように、手段17により形成された分子は、これらの分子を構成する係数の量子化をより高い第2分解能で行う第2量子化手段18へ送信される。具体的には、第2分解能によって、係数の第2量子化のレベルを読み取りこれらのレベルに関連する値を復号化することにより、透かし値W、Wを決定できるようになる。
したがって、決定手段14は、出力として特徴量の値W、Wを送出し、これらの値はソースの分離に使用してよい。
分離装置13は、決定手段14から生じる量の特徴量の値の他に手段14により決定された分子にグループ分けされた係数も受信する処理手段19も備える。
処理手段19は、少なくとも部分的に混合信号のソース信号を分離することができる第1分離手段20を備える。具体的には、分子にグループ分けされたMDCT係数に特徴量の値を使用して、分離手段20により行われるソース信号の分離を改善する。特徴量がソース信号のMDCT係数に基づいて決定されている限り、混合信号SoutのMDCT係数に基づいて、ソース信号のMDCT係数を検索することができ、したがってソース信号の分離が行われる。例えば、分離対象の各ソース信号の各分子は、透かし値の検出中に決定される当該ソース信号の分子の相対エネルギ・レベル(特徴量の値)を割り当てられた混合信号の分子により推定される。特に、ソース信号の分子の形式を特徴付ける情報も符号化されていれば、オプションとして他の透かし情報が介在してソース信号の分子の推定を改良することができる。
次に、分離手段20により分離されたMDCT係数は、図1で説明した手段12に類似した逆変換手段21へ送信される。手段21によって、分離されたMDCT係数を少なくとも部分的にソース信号S、Sに対応する時間信号S’、S’に変換できるようになる。
図3には、本発明に従った形成装置22の第2実施例が示されている。この実施例では、第1実施例の要素と同じものは同じ参照番号で識別されている。形成装置22は、入力として少なくとも2つのソース信号S、Sを受信し、出力として、ステレオ信号に対応する2つの異なる混合信号Sout1、Sout2を提供する。
装置22は、2つのソース信号S、Sを受信し、第1初期混合信号Smix1及び第2初期混合信号Smix2を提供する混合手段23を備える。特に、混合手段23は、音響空間効果を付与する2つのステレオ径路を得るために異なる混合操作を行って2つの信号Smix1及びSmix2を形成する。この空間効果は、特に、2つの径路上で異なる乗法因子及び遅延の導入を伴う。その結果、2つのソース信号への混合操作は、信号の周波数変換を適用後の周波数ドメイン内の混合マトリクスの形で表すことができる。混合操作は、ソース信号ベクトル(成分として2つのソース信号を含む)に混合マトリクスを乗じて初期混合信号ベクトル(成分として2つの初期混合信号を含む)を得ることを含む。当該ケースでは、混合マトリクスは、各々が周波数の各値に対して、初期混合信号の内の1つのソース信号の1つの寄与を表す4つの成分を含む。これらのコンポーネントは、時間とともに変化できる。
装置22は、第1決定手段24を備える。ここで、第1決定手段24は、混合信号Smix1に対応する混合マトリクスの成分を決定する。これらの成分は、ソース信号S、Sに基づいて初期混合信号Smix1を得ることができるようにする混合パラメータである。したがって、これらの成分は、混合信号Sout1をもたらす混合の特徴を示す量の値W、すなわち混合信号Sout1を得ることができるようにする混合パラメータを表す。
装置22は、第2決定手段25を備える。ここで、第2決定手段25は、混合信号Smix2に対応する混合マトリクスの成分を決定する。これらの成分は、ソース信号S、Sに基づいて初期混合信号Smix2を得ることができるようにする混合パラメータである。したがって、これらの成分は、混合信号Sout2をもたらす混合の特徴を示す量の値W、すなわち混合信号Sout2を得ることができるようにする混合パラメータを表す。
形成装置22は、透かし手段26も備える。透かし手段26は、入力として初期混合信号Smix1及びSmix2、及び値W及びWを受信し、出力として混合信号Sout1及びSout2を提供する。
透かし手段26は、一連の変換手段8、第1量子化手段9及び検出手段10を備える。初期混合信号は、2つの信号Smix1及びSmix2の各々に対して、分子にグループ分けされたMDCT係数を得るためにこれらの一連の手段により処理される。
透かし手段22は、分子にグループ分けされたMDCT係数及び値W、Wを受信する第2量子化手段11を備える。透かし手段22によって、値W及びWを信号Smix1のMDCT係数及び信号Smix2のMDCT係数に挿入できるようになる。このように、混合信号Sout1、Sout2にそれらに対応する特徴量の値を透かしとして入れる。その結果、2つの混合信号は異なるので、この違いや、W及びWにより運ばれる混合パラメータの知識を利用して、ソース信号をSout1及びSout2に基づいて少なくとも部分的に分離することができる。
このように、少なくとも2つのソース信号を混合することにより得られ、各々が前記混合信号の特徴を示す量の透かし値を含む混合信号Sout1、Sout2、すなわち前記混合信号を形成するのに使用される混合マトリクスの成分が形成装置22の出力において得られる。混合信号Sout1、Sout2が初期混合信号Smix1、Smix2と同じ時間表現を示し、特徴量の値がほとんど可聴ではないように透かしとして入れられるので、従来の装置では、任意の混合信号、特にステレオ信号のように混合信号Sout1、Sout2を処理することができ、後で説明するような本発明に従った分離装置では、補助的に、ソース信号の1つを混合信号Sout1、Sout2に基づいて少なくとも部分的に分離することができる。
図4には、本発明に従った分離装置27の第2実施例が示されている。この実施例では、第1実施例の要素と同じものは同じ番号で識別されている。分離装置27は、入力として2つの混合信号Sout1、Sout2を受信し、出力として、少なくとも部分的にソース信号S、Sに対応する2つの信号S’、S’を提供する。
分離装置27は、透かし値を決定する手段28を備える。手段28は、入力として信号Sout1及びSout2を受信し、出力として透かし値W、Wを提供する。手段28は、一連の変換手段15、第1量子化手段16及び検出手段17を備える。混合信号Sout1、Sout2は、その各々についてグループ分けされたMDCT係数を得るために手段15、16及び17により別々に処理される。
最後に、手段28は、第2量子化手段29を備える。第2量子化手段29によって、混合信号Sout1内の透かし値W、及び混合信号Sout2内の透かし値Wを決定できるようになる。値W、W及び混合信号Sout1及びSout2は、分離手段32を備える処理手段31へ送信される。
分離手段32によって、値W、W及び混合信号Sout1及びSout2に基づいてソース信号を少なくとも部分的に検索できるようになる。実際は、3つ以上のソース信号がある時にたとえ混合マトリクスが可逆的でなくても、一定の条件下で、混合手段23により使用される混合マトリクスの知識を利用して、ソース信号ベクトルの推定を混合信号ベクトルに基づいて得ることができる。特に、分離手段32は、値W及びWにより混合マトリクスを決定することができ、この混合マトリクスの知識により分離手段32は、混合マトリクスの知識の無い同じタスクについて、ソース信号をたとえ部分的ではあってもより良く分離することができる。
図5には、本発明に従った混合信号を形成する方法の様々なステップを表すフロー・チャートが示されている。
この方法は、その間に特徴量の値Wが決定される第1ステップ33を含む。次に、ステップ34の間に、初期混合信号を得るためにソース信号の混合が行われる。最後に、ステップ34において、混合信号を得るために特徴量の値Wが初期混合信号に透かしとして入れられる。
混合ステップ34の前に透かしステップ35を行うこともできる。この場合、特徴量の値Wがソース信号の少なくとも1つに透かしとして入れられ、混合ステップによって、混合信号を得ることができるようになる。
図6には、透かしステップ35の実行モードの様々なステップのフロー・チャートが示されている。
透かしは、ステップ36で開始され、その間に初期混合信号がMDCT係数に分解される。次に、MDCT係数は、ステップ37の間に第1量子化を受け、ステップ38の間に分子にグループ分けされる。しかし、ステップ37及び38は逆であってもよい。
その後、グループ分けされた係数は、ステップ39の間に第2量子化を受け、その間に特徴量の値Wは、混合信号内に挿入される。
最後に、透かし値Wを含むMDCT係数は、出力として混合信号の時間表現を得るために逆分解IMDCTを受ける。
図7には、本発明に従った分離方法の様々なステップを表すフロー・チャートが示されている。
この方法は、その間に混合信号がMDCT係数に分解される第1ステップ41を含む。次に、MDCT係数は、ステップ42の間に初めて量子化され、ステップ43の間に分子にグループ分けされる。
次に、グループ分けされたMDCT係数が第2量子化を受けることによって、混合信号の透かし値Wを決定できるようになる。最後に、ステップ44において決定された値Wに基づいて、少なくとも部分的なソース信号の分離がステップ45において行われる。
このように、オーディオ信号の場合、サウンド・シーンの様々な要素(分離装置により得られる楽器及び音声)に独立に、オーディオ・リスニング中の一定数の主要なコントロール(音量、音質、効果)を行うことができる。さらに、提案した技術の重要な利点の1つは、オーディオCDフォーマットと完全に互換性があること、すなわち不可聴又は準不可聴透かしにより、提案した方法で透かしを入れたCDは従来のCDとの区別なく任意の従来のリーダ上でも使用することができる(分離機能の利益は無いが)。その代わりに、もちろん、本発明に従った分離方法において、オーディオ・リスニング中にコントロールを行えるようにするために、特定のリーダ・ビルディング(reader building)が必要である。
通信システムにおける音声の抽出及び増強に関する他の応用も想定できる。例えば、音声を劣化させる(又は他の信号と混合する)かもしれないチャネルで伝送する前に、エミッタ段階で音声信号に透かしを入れて(それが良い条件下で生成される場合)、レシーバ段階でこの音声信号をその劣化又は混合した形式に基づいて回復することができる。

Claims (12)

  1. 少なくとも2つのデジタル・ソース信号(S、S)、特に、オーディオ信号に基づく1つ以上の混合信号(Sout)の形成方法であって、前記混合信号が前記ソース信号を混合することにより形成され、ソース信号(S、S)又は前記混合の特徴を示す量が決定され、前記信号(S、S、Sout)の少なくとも1つに前記特徴量の値(W、W)が透かしとして入れられることを特徴とする方法。
  2. 請求項1記載の形成方法であって、前記特徴量は、少なくとも1つのソース信号(S、S)の時間、スペクトル、又はスペクトル−時間エネルギ分布を表す方法。
  3. 請求項1記載の形成方法であって、前記特徴量は、前記混合信号(Sout)内の前記ソース信号(S、S)の少なくとも1つの、少なくとも1つの決められた瞬間における振幅又はエネルギ・スペクトルの寄与を表す方法。
  4. 請求項1記載の形成方法であって、前記特徴量は、前記混合信号を得るための前記ソース信号(S、S)の前記混合用パラメータを表す方法。
  5. 請求項1−4のいずれかに記載の形成方法であって、混合前に前記ソース信号に及び/又は混合後に前記混合信号に、前記特徴量の前記値(W、W)が透かしとして入れられる方法。
  6. 請求項1−5のいずれかに従って得られた1つ以上の混合信号に含まれる少なくとも1つのデジタル・ソース信号を少なくとも部分的に分離するための分離方法であって、前記ソース信号又は前記混合の特徴を示す量の前記透かし値(W、W)が決定され、次に前記ソース信号(S’、S’)を少なくとも部分的に得るために前記混合信号(Sout)が前記値の関数として処理される方法。
  7. 少なくとも2つのデジタル・ソース信号、特に、オーディオ信号に基づいて1つ以上の混合信号を形成する装置であって、前記混合信号を形成するために前記ソース信号を混合する手段(2)を備える装置において、前記装置は、ソース信号又は前記混合の特徴を示す量を決定する手段(3)、及び前記信号の少なくとも1つに前記特徴量の前記値を透かしとして入れる手段(7)をさらに備えることを特徴とする装置。
  8. 請求項7記載の形成装置であって、前記透かし手段(7)は、前記混合手段(2)の上流に備えられ、前記ソース信号に前記特徴量の前記値を透かしとして入れることができる装置。
  9. 請求項7記載の形成装置であって、前記透かし手段は、前記混合手段の下流に備えられ、前記混合信号に前記特徴量の前記値を透かしとして入れることができる装置。
  10. 請求項7−9のいずれかに記載の装置から出力される一つ以上の混合信号に含まれる少なくとも1つのデジタル・ソース信号を少なくとも部分的に分離するための分離装置であって、前記ソース信号又は前記混合の特徴を示す前記量の前記透かし値を決定する手段(14)と、前記値の関数として前記混合信号を処理する手段(19)とを備え、前記ソース信号を少なくとも部分的に得ることができる分離装置。
  11. 少なくとも2つのソース信号を混合することにより得られ、ソース信号又は前記混合の特徴を示す量の透かし値を含む混合信号、特に、オーディオ信号。
  12. 請求項1−11のいずれかに記載の前記混合信号(Sout)を含む情報媒体、特に、オーディオ・コンパクト・ディスク。
JP2012504047A 2009-04-10 2010-03-30 混合信号を形成する方法及び装置、信号を分離する方法及び装置、並びに対応する信号 Pending JP2012523579A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR0952397A FR2944403B1 (fr) 2009-04-10 2009-04-10 Procede et dispositif de formation d'un signal mixe, procede et dispositif de separation de signaux, et signal correspondant
FR0952397 2009-04-10
PCT/FR2010/050583 WO2010116068A1 (fr) 2009-04-10 2010-03-30 Procede et dispositif de formation d'un signal mixe, procede et dispositif de separation de signaux, et signal correspondant

Publications (1)

Publication Number Publication Date
JP2012523579A true JP2012523579A (ja) 2012-10-04

Family

ID=41319715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012504047A Pending JP2012523579A (ja) 2009-04-10 2010-03-30 混合信号を形成する方法及び装置、信号を分離する方法及び装置、並びに対応する信号

Country Status (6)

Country Link
US (1) US20120203362A1 (ja)
EP (1) EP2417597A1 (ja)
JP (1) JP2012523579A (ja)
KR (1) KR20120006050A (ja)
FR (1) FR2944403B1 (ja)
WO (1) WO2010116068A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023243454A1 (ja) * 2022-06-16 2023-12-21 ヤマハ株式会社 パラメータ推定方法、音処理装置、および音処理プログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9191516B2 (en) * 2013-02-20 2015-11-17 Qualcomm Incorporated Teleconferencing using steganographically-embedded audio data
KR101627661B1 (ko) 2013-12-23 2016-06-07 주식회사 윌러스표준기술연구소 오디오 신호 처리 방법, 이를 위한 파라메터화 장치 및 오디오 신호 처리 장치
KR101856540B1 (ko) 2014-04-02 2018-05-11 주식회사 윌러스표준기술연구소 오디오 신호 처리 방법 및 장치
FR3050277B1 (fr) 2016-04-14 2018-04-13 Commissariat A L'energie Atomique Et Aux Energies Alternatives Systeme et procede de detection d'un arc electrique
CN110087098B (zh) 2018-01-26 2021-12-03 阿里巴巴(中国)有限公司 水印处理方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030035553A1 (en) * 2001-08-10 2003-02-20 Frank Baumgarte Backwards-compatible perceptual coding of spatial cues
JP5461835B2 (ja) * 2005-05-26 2014-04-02 エルジー エレクトロニクス インコーポレイティド オーディオ信号の符号化/復号化方法及び符号化/復号化装置
ATE542216T1 (de) * 2006-07-07 2012-02-15 Fraunhofer Ges Forschung Vorrichtung und verfahren zum kombinieren mehrerer parametrisch kodierter audioquellen

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023243454A1 (ja) * 2022-06-16 2023-12-21 ヤマハ株式会社 パラメータ推定方法、音処理装置、および音処理プログラム

Also Published As

Publication number Publication date
US20120203362A1 (en) 2012-08-09
WO2010116068A1 (fr) 2010-10-14
KR20120006050A (ko) 2012-01-17
FR2944403A1 (fr) 2010-10-15
EP2417597A1 (fr) 2012-02-15
FR2944403B1 (fr) 2017-02-03

Similar Documents

Publication Publication Date Title
CN101124624B (zh) 在有用信号中嵌入数字水印的方法
JP5253564B2 (ja) 合成されたスペクトル成分に適合するようにデコードされた信号の特性を使用するオーディオコーディングシステム
Lemma et al. A temporal domain audio watermarking technique
JP2012523579A (ja) 混合信号を形成する方法及び装置、信号を分離する方法及び装置、並びに対応する信号
Umapathy et al. Audio signal processing using time-frequency approaches: coding, classification, fingerprinting, and watermarking
Charfeddine et al. A new DCT audio watermarking scheme based on preliminary MP3 study
Wang et al. EMD and psychoacoustic model based watermarking for audio
Kumsawat A genetic algorithm optimization technique for multiwavelet-based digital audio watermarking
Dhar et al. Advances in audio watermarking based on singular value decomposition
Mosleh et al. A robust intelligent audio watermarking scheme using support vector machine
JP2014521112A (ja) 入力信号に透かし入れするための量子化インデックス変調の方法および装置
CN113506580B (zh) 抗任意剪切和翻录的音频水印方法及系统
CN1647186A (zh) 多媒体信号的时域加水印
Dittman et al. Advanced audio watermarking benchmarking
US20140037110A1 (en) Method and device for forming a digital audio mixed signal, method and device for separating signals, and corresponding signal
Singh et al. Enhancement of LSB based steganography for hiding image in audio
Ko et al. Robust watermarking based on time-spread echo method with subband decomposition
Hu et al. The use of spectral shaping to extend the capacity for dwt-based blind audio watermarking
JP2000209097A (ja) 信号処理装置とその方法、信号記録装置、信号再生装置および記録媒体
Ketcham et al. An algorithm for intelligent audio watermaking using genetic algorithm
US6359849B1 (en) Signal processing apparatus, recording medium, and signal processing method
WO2002067257A1 (en) Apparatus and method for controlling the copy and play of a digital audio contents
WO2011160966A1 (en) Audio watermarking
KR20180058611A (ko) 오디오 워터마크 삽입 방법 및 장치, 그리고 오디오 워터마크 검출 방법 및 장치
Parvaix et al. Hybrid coding/indexing strategy for informed source separation of linear instantaneous under-determined audio mixtures