JP2008529078A - 音響的特徴の同期化された修正のための方法及び装置 - Google Patents
音響的特徴の同期化された修正のための方法及び装置 Download PDFInfo
- Publication number
- JP2008529078A JP2008529078A JP2007552713A JP2007552713A JP2008529078A JP 2008529078 A JP2008529078 A JP 2008529078A JP 2007552713 A JP2007552713 A JP 2007552713A JP 2007552713 A JP2007552713 A JP 2007552713A JP 2008529078 A JP2008529078 A JP 2008529078A
- Authority
- JP
- Japan
- Prior art keywords
- signal
- feature
- pitch
- time
- aligned
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 87
- 230000004048 modification Effects 0.000 title claims description 33
- 238000012986 modification Methods 0.000 title claims description 33
- 230000001360 synchronised effect Effects 0.000 title description 7
- 238000012937 correction Methods 0.000 claims abstract description 101
- 238000005259 measurement Methods 0.000 claims abstract description 75
- 230000005236 sound signal Effects 0.000 claims abstract description 48
- 230000008859 change Effects 0.000 claims abstract description 10
- 230000006870 function Effects 0.000 claims description 70
- 238000012545 processing Methods 0.000 claims description 55
- 230000036962 time dependent Effects 0.000 claims description 11
- 230000003595 spectral effect Effects 0.000 claims description 4
- 230000001419 dependent effect Effects 0.000 claims description 3
- 230000009131 signaling function Effects 0.000 claims description 3
- 239000003607 modifier Substances 0.000 claims 3
- 239000011295 pitch Substances 0.000 description 257
- 238000004458 analytical method Methods 0.000 description 29
- 238000004422 calculation algorithm Methods 0.000 description 28
- 230000008569 process Effects 0.000 description 21
- 238000013507 mapping Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 9
- 238000005070 sampling Methods 0.000 description 8
- 230000001755 vocal effect Effects 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 239000002131 composite material Substances 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 239000000654 additive Substances 0.000 description 2
- 230000000996 additive effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 239000011306 natural pitch Substances 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- GNFTZDOKVXKIBK-UHFFFAOYSA-N 3-(2-methoxyethoxy)benzohydrazide Chemical compound COCCOC1=CC=CC(C(=O)NN)=C1 GNFTZDOKVXKIBK-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- FGUUSXIOTUKUDN-IBGZPJMESA-N C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 Chemical compound C1(=CC=CC=C1)N1C2=C(NC([C@H](C1)NC=1OC(=NN=1)C1=CC=CC=C1)=O)C=CC=C2 FGUUSXIOTUKUDN-IBGZPJMESA-N 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 239000003637 basic solution Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002955 isolation Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000007620 mathematical function Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 230000001020 rhythmical effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
- G10H1/366—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems with means for modifying or correcting the external signal, e.g. pitch correction, reverberation, changing a singer's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/066—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/076—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/375—Tempo or beat alterations; Music timing control
- G10H2210/391—Automatic tempo adjustment, correction or control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/325—Synchronizing two or more audio tracks or files according to musical features or musical timings
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
- G10L21/007—Changing voice quality, e.g. pitch or formants characterised by the process used
- G10L21/013—Adapting to target pitch
- G10L2021/0135—Voice conversion or morphing
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
Description
(a)帯域制限され、及び/又は、ダイナミック・レンジが制限された場合(例えば、電話システムを介する入力)、
(b)一定のタイプのノイズ又は歪を含む場合、
(c)ガイディング(ターゲット)発生音(voice)とは、異なったアクセント、性別、又は、年齢を持つ人からのものである場合、又は、言葉及び音素(それらが、ガイディング(ターゲット)信号と同じかまたは異なった場合のいずれでも、更には、異なった入力言語の場合でも)の伝達(delivery)の非常に異なったタイミングを持つ人からのものである場合、
に作動する、発声音修正ための方法を提供することである。
(a)ガイド信号及び新しい信号の時間に従属する特徴シーケンスは、最適時間整列パス関数(optimal Time Alignment path function)を、データ・シーケンスとして決定し、出力する、パターン・マッチング・アルゴリズムで処理される。このパスは、新しい信号のフレームを、ガイド信号のフレームに最適にマップする。
(b)時間整列パスからのデータは、新しい信号を編集し、ガイド信号に時間整列された(time-aligned)新しい信号を生成するために用いられる。
(c)ガイド信号は、離散的で連続的なフレームにセグメント化され、各フレームのピッチが測定される。ピッチ測定シーケンス値は、ガイド信号ピッチ・コンターを提供するために円滑化される。
(d)ステップ(c)における処理ステップは、整列された(編集された)新しい信号が、そのピッチ・コンターを生成するために反復される。
(e)ガイド信号の各ピッチ・コンター値は、整列された新しい信号に対する、対応するピッチ・コンター値によって分割され、オクターブ・シフトして、整列された新しい信号の各フレームに適用するための訂正ファクターを与える値の組である訂正コンターを生成するために調整される。この訂正コンターは、何らかの酷い(gross)エラーを除去するために円滑化される。
(f)ピッチ・シフト・アルゴリズムが用いられて、整列された新しい信号のピッチを、ステップ(e)からの円滑化された訂正コンターに従った値にシフトすることによって、時間及びピッチにおける、所定のガイド信号への、新しい信号マッチング(matching)を生成する、
である。
そのようなエラーのリスクを低減するために、他の実施例は、上述のステップ(b)と(f)を組み合わせて、単一の編集段階を生成する。また、新しい信号(本例ではピッチ)の如何なる特性も、時間整列された(編集された)バージョンからではなく、修正されていない新しい信号から測定され得る。これは、時間整列パスの逆(inverse)を計算することによって実現される。逆パスは、編集されていない新しい信号の各フレームを、その、対応するガイド信号のフレームにマップする。このマッピングから、時間において、ガイド信号に整列された、新しい信号に対するピッチ訂正コンターが計算される。ピッチ訂正コンターが計算される前に、実際上、ガイド信号は、時間において、新しい信号に整列されている。
(a)ガイド信号及び新しい信号の時間に従属する特徴のシーケンスが、最適時間整列パス特徴を、新しい信号フレームをガイド信号のフレームに最適にマップするデータ・シーケンスとして決定して出力する、パターン・マッチング・アルゴリズムで処理され、
(b)時間整列パスからのデータが用いられて、ガイド信号のフレームを対応する新しい信号のフレームにマッピングする逆パス関数を生成し、
(c)ガイド信号が、離散フレームにセグメント化され、各フレームのピッチが測定される。ピッチ測定シーケンス値が円滑化されて、ガイド信号ピッチ・コンターを与え、
(d)ステップ(c)での処理が、新しい信号(未編集)に対して反復されて、そのピッチ・コンターを生成し、
(e)逆パス関数を用いて、ガイド信号ピッチ・コンターを、新しい信号ピッチ・コンターに整列し、マップされたガイド信号の各ピッチ・コンター値が、新しい信号に対する対応するピッチ・コンター値によって分割され、オクターブ・シフトのために調整されて、新しい信号の各フレームに訂正ファクターを与える値の組である整列された訂正コンターを生成する。この整列された訂正コンターは円滑化されて、如何なる酷い(gross)エラーをも除去する。
(f)時間整列されたパス関数及び円滑化された整列された訂正コンターを用いて、時間において、及び、ピッチにおいて、ガイド信号に整列された出力信号を生成するために要求される、新しい信号のピッチをシフトし且つ時間圧縮も行うか、又は、新しい信号を時間伸長する、処理アルゴリズムを用いて、新しい信号が編集される。
(g)又は、ステップ(f)の代替として、円滑化され、整列された訂正コンターが、新しい信号からガイド信号への時間整列無しに適用され得る。これによって、新しい信号のオリジナルのタイミングを維持し得るが、新しい信号が、時間において、ガイド信号に整列されていない場合であっても、ピッチ訂正を、新しい信号の正しいフレームに適用することになろう。
方法2は、新しい信号を1回だけ編集するが、それは、同時にピッチ及び時間整列を修正する処理技術を利用する。ステップのシーケンスを僅かに変化させることによって、方法1を用いること無しに、ピッチシフティングと時間修正を別個に処理することが可能となる。これによって、編集の2つの段階が導入されるが、最も適切な特定化された(specialized)処理アルゴリズムが、各段階に対して別個に選択され得る。
(a)ガイド信号及び新しい信号の時間従属関数(function)シーケンスが、最適時間整列パス関数を、新しい信号フレームをガイド信号のフレームに最適にマップするデータ・シーケンスとして決定して出力するパターン・マッチング・アルゴリズムで処理され、
(b)ガイド信号が、離散的なフレームにセグメント化され、各フレームのピッチが測定される。ピッチ測定シーケンス値は円滑化されて、ガイド信号ピッチ・コンターを提供する。
(c)新しい信号(未編集)に対して処理ステップ(b)が反復されて、そのピッチ・コンターを生成する。
(d)時間整列パス関数を用いて、新しい信号のピッチ・コンターが、有効に、ガイド信号ピッチ・コンターに時間整列される。
(e)各ガイド信号ピッチ・コンター値が、対応する時間整列された新しい信号のピッチ・コンター値によって分割され、オクターブ・シフトのために結果が調整される。これは、時間整列された新しい信号の各フレームに適用するための訂正ファクターを含む、整列された訂正コンターを生成する。この整列された訂正コンターは、円滑化されて、如何なる酷いエラーをも除去する。
(f)時間整列パスからのデータは、新しい信号を編集し、ガイド信号に時間整列された新しい信号を生成するために用いられる。
(g)ピッチ・シフティング・アルゴリズムを用いて、時間整列された新しい信号のピッチが、ステップ(e)で生成された、円滑化され、整列された、訂正コンターによってシフトされる。これは、時間において、及び、ピッチにおいて、所定のガイド信号に整列された編集された新しい信号を与える。
処理無しに、新しい信号及びガイド信号が適切に時間整列されていることは、きわめて少ない。米国特許第4591928号(Bloom他)は、時間整列されていないが類似の複数のスピーチ信号のエネルギー・パターンの間の差異、及び、時間整列工程への入力としてのフィルタバンク出力のようなエネルギーに関連する測定の使用を説明する。
図3において、データ記憶部310から読み取られた、サンプルされた新しい信号波形s(n)は先ず、米国特許第4,591,928号に説明されるような技術を用いて、時間において、データ記憶部312から読み取られたガイド信号、g(n)に整列されて、中間音声信号、つまり、時間整列された新しい信号、s’(n)(これは、例えば、ディスク330に記憶される)を生成する。これは、s’(n)におけるエネルギー・パターンの詳細(detail)が、ガイド信号におけるそれと同じ相対的時間において発生することを保証する。これは、更に、如何なる、リップ同期(lip-synching)も有効であり、如何なる、ガイド信号から、新しい信号への特徴(feaures)の転写(transfer)も、更なる時間マッピングを必要としないことをも保証する。本例における新しい信号、s(n)及びガイド信号g(n)の生成において使用されるサンプリング周波数は、44.1kHzである。
整列された新しい信号、s’(n)、の生のピッチ・コンター、Ps’(M)は、連続的離散ピッチ測定フレームにおける移動分析のHaanウィンドウを用いて取られたs’(n)の測定から生成される(ここで、Mは、フレーム番号であり、M=1,2,3,・・・である)。正確なピッチ測定を得るために、分析ウィンドウの長さが、測定される、最も低い周期の長さの2.5から3.0倍であることが推奨される。それ故、本実施例において、約0.0139sの周期をもち、72Hz程度の低いピッチを測定するために、1536サンプル(4401kHzサンプリング周波数において)の分析ウィンドウ(又は約35ms)が用いられる。ピッチ測定フレームのサンプリング・インターバルは、10msである。ピッチ・エスティメータ(estimator)・モジュール340の分析ウィンドウは、サンプルの各ピッチ測定フレーム内に中心を置かれる(centered)。各ピッチ測定フレームに対して、ピッチ予測のための周知の方法(例えば、自動相関、櫛形フィルタリング等)の1つを用いたピッチの予測(estimate)が為される。これらの技術の詳細な記述は、Wolfgang Hess(1983) "Pitch Determination of Speech Signals, Algorithms and Devices", Springer-Verlag; R.J.McAulay and T.F.Quatieri, (1990); "Pitch estimation and voicing detection based on a sinusoidal model," Proc. Int Conf.on Acoustics, Speech and Signal Processing, Albuquerque, NM, pp. 249-252; 及びT.F.Quatieri (2002) "Discrete-Time Speech Signal Processing; Principles and Practice," Prentice Hallのような参考文献に発見できる。
同様に、ピッチ・エスティメータ・モジュール345において、ピッチ・コンターPs’(M)の生成のために説明されたものと同じ方法とパラメータを用いて、ガイド信号g(n)のピッチ・コンターPg(M)が生成され、フィルタ・モジュール355において円滑化されて、ガイド信号に対する円滑化されたピッチ・コンターP’g(M)を生成する。
次の工程は、時間整列された新しい信号の各フレームに対するピッチ調整又は訂正ファクターの計算である。これは、ピッチ調整モジュール370によって為され、ガイド信号ピッチと時間整列された新しい信号ピッチの比率、及び、何らかの所望のオクターブのシフトを考慮する。この計算は、同じフレーム番号Mを有するピッチ測定フレームの各組に対して為される。モジュール370内のローパス・フィルタは、次に、訂正ファクターを円滑化する。2つのステップが存在する:それらは、オクターブの決定、及び、新しい信号のピッチのシフティングである。ピッチの調整を考慮した上での2つのメインのオプションが存在する:それらは、(a)ガイド信号のピッチと同じとなるように出力ピッチを調整すること、又は、(b)調整された声が最も自然に聞こえるように、入力された新しい信号のピッチ範囲を維持すること、である。この後者の効果を実現するためのオクターブ調整について、これから説明する。オクターブ調整モジュール358は、オクターブ乗数Q(これは、信号の期間において一定に維持される)を計算する。このことは、この値を設定することが可能となる前に、新しい信号の全て又は少なくとも実質的な量を分析することが必要となることを強調する。
CL(M)=Pg(M)/Ps'(M) (1)
によって表される。
C(M)=P'g(M)/(Q*P's'(M)) (2)
ここで、C(M)は、信号のフレームMにおけるピッチ訂正ファクターであり、
P's'(M)及びP’g(M)は、それぞれ、時間整列された新しい信号の、及び、ガイド信号の、フレームMにおける円滑化された予測されたピッチである。
ピッチ訂正信号における各値C(M)は、時間整列された新しい信号s'(n)のサンプルの、対応するフレームMのために必要とされる訂正乗算値を与える。この例において、C(M)のフレーム・レートは、時間整列アルゴリズムによって使用されるもの(これは、毎秒100フレーム(即ち100fps)である)と同じであるように選択される。換言すれば、C(M)は、毎秒のs'(n)ごとに、100個のサンプルを持つことになる。
Lc=新しい信号s(n)のサンプリング・レート/C(M)のフレーム・レート
(3)
Nc(Fps)=Nc(Fps−1)+Ls(Fps, T0(Fps−1)) (4)
である。ここで、
Fpsは、ピッチ・シフティング分析フレーム番号、Fps=0,1,2,・・・であり、
Ls(Fps, T0(Fps−1))=(新しい信号のサンプリング・レート)/(ピッチ・シフティング・アルゴリズムのフレーム・レート)
である。
Fc(Fps)=Nc(Fps)/Lc (5)
である。ここで、
/ は、整数の割り算を意味し、
Fc(Fps)は、ピッチ・シフティング・アルゴリズム・フレームFpsの丁度前(just before)に、又は、その中央で、発生するC(M)のフレームであり、
Lcは、上において定義されたものである。
Cs(Fps)=C(Fc(Fps))*(1−α)+α*C(Fc(Fps)+1) (6)
ここで、
α=(Nc(Fps)−Lc*Fc(Fps))/Lc
であり、ここで、
/ は、整数の割り算を意味し、
他のシンボルは、上述のものである。
s'(u,n)=h(n)*s'(n−ta(u)) (7)
が得られる。ここで、
h(p)は、Pサンプルの長さのピッチ・シフティング分析ウィンドウであり、時間における当該Pサンプルの長さは、フレームFpsの測定されたピッチ周期の2倍、すなわち、2*(Fps)と等しい。本実施例において、h(p)は、PサンプルのHannウィンドウである。
T0'(Fps)=T0(Fps)/C's(Fps) (8)
である。
ts(v)−ts(v−1)=T0'(Fps) (9)
のようになる。ここで、ts(v)は、出力フレームにおけるv番目の合成インスタンスである。
ビブラート及び抑揚曲線を含むピッチに加えて、音声信号の多くの他の特徴(features)が、測定可能であり、修正され得る。これらの例は、瞬時ラウドネス、声門音特性、スピーチ・フォーマット又は共鳴パターン、等化、反響、及び、エコー特性である。更に、新しい及びガイド信号は、必ずしも、韻律的、リズミック、又は、音響的な類似性を持つことに制限されない。
Fag(Fs)=W(Fs) (10)
であり、ここで、Fagは、時間整列されたガイドの対応するフレーム番号である。
例として、ピッチ訂正での応用に戻って、式(1)に基づいて、ピッチ訂正関数のワープされたバージョンが、
C(Fs)=Pg(Fag(Fs))/Ps(Fs) (11)
として計算される。
(10)及び(11)から、
C(Fs)=Pg(W(Fs))/Ps(Fs) (12)
ここで、C(Fs)は、新しい信号のフレームFsの訂正ファクターである。
Ps(Fs)は、新しい信号のフレームFsの予測されたピッチである。W(Fs)は、ワーピング関数からの、ガイドにおける対応するフレームである。(必要であれば)オクターブ修正を含む、以前説明された、C(Fs)の更なる処理が、調整モジュール960において行われる。この調整モジュール960は次に、式(2)に基づいて、
C(Fs)=P’g(W(Fs))/(Q*P’s(Fs)) (13)
で与えられる修正関数を提供する。
C(M)=P'g(M)/Q*P's(w(M)) (14)
(ここで、w(M)は、モジュール920によって生成された時間ワーピング・パスである)が実行されて、特徴修正コンターC(M)を生成する。この修正コンターは、モジュール972で、時間整列された新しい信号に適用されて、時間整列された、そして、特徴が修正された、新しい信号s*(n)を、出力記憶モジュール987で生成する。
(a) 「トラック(track)」(例えば、(モジュール1180に記憶される)歌の一部)を選択することを選択する、
(b) ユーザが、それ(選択されたトラック)を聞いて、それに対してリハーサルするために、選択されたトラックを、コンバータ1150及びネットワーク1140を介して、電話ハンドセット1110または1120に送信する、
(c) 選択されたトラックが電話ハンドセット1110又は1120を通じて再生(replaying)し、そして、ユーザが、ハンドセット・マイクロホンに向かって歌う間に、ユーザの声を記録する、
(d) 適切な背景トラック(例えば、オリジナルの歌手の声が無いトラックのバージョン)と混合されたユーザの声の処理された記録を再生する、
ように指令できる。
Claims (45)
- 音声信号(audio signal)の少なくとも1つの音響的特徴(acousticfeature)を修正するための方法であって、
第1の及び第2のサンプルされた音声信号を比較して、当該第2の信号における時間に依存する特徴の発生の時間と、当該第1の信号における時間に依存する特徴の発生の時間の間のタイミング差から時間整列データを決定し、
前記第1の信号に沿った選択された位置において、前記第1の信号の少なくとも1つの音響的特徴を測定して、そこから、第1の信号特徴測定のシーケンスを生成し、
第1の信号特徴測定の前記シーケンスを処理して、特徴修正データのシーケンスを生成し、そして、
特徴修正データの前記シーケンスを、前記第2の信号に適用して、前記時間整列データによって、前記第2の信号の選択された部分の少なくとも1つの音響的特徴を修正する、
ステップを含む方法。 - 前記方法が、
前記第2の信号に沿った選択された位置において、前記第2の信号の前記少なくとも1つの音響的特徴を測定して、そこから、第2の信号特徴測定のシーケンスを生成するステップを含み、
第1の信号測定の前記シーケンスを処理するステップが、前記第1の信号特徴測定を、前記第2の信号特徴測定と比較し、そのような比較から前記特徴修正データを決定することを含む、
請求項1に記載の方法。 - 前記特徴修正データを適用する前記ステップが、前記時間整列データを用いて、前記第2のサンプルされた信号から、時間整列された第2の信号を生成し、前記特徴修正データを、当該時間整列された第2の信号に適用するステップを含む、請求項1又は2に記載の方法。
- 前記処理ステップが、前記第1の信号特徴測定で、前記時間整列されたデータを用いて、前記第2の信号特徴測定との時間整列において前記特徴修正データを生成するステップを含む、請求項2又は3に記載の方法。
- 前記特徴修正データを適用するステップが、所定の関数に従って、前記特徴修正データを変更(modulating)して、前記特徴修正データと前記所定の関数との共同(jointly)によって、前記第2の信号の前記選択された部分の前記少なくとも1つの音響的特徴を修正することを含む、以上のいずれかの請求項に記載の方法。
- 前記第1の信号の前記少なくとも1つの音響的特徴がピッチである、以上のいずれかの請求項に記載の方法。
- 前記第2の信号の前記少なくとも1つの音響的特徴がピッチである、以上のいずれかの請求項に記載の方法。
- 前記第1の及び第2の信号の前記時間に従属する特徴が、サンプルされたスペクトラル・エネルギー測定である、以上のいずれかの請求項に記載の方法。
- 前記第1の信号の前記少なくとも1つの音響的特徴がピッチであり、前記第2の信号の前記少なくとも1つの音響的特徴がピッチであり、
前記処理ステップが、前記第1の信号のピッチ測定と、前記第2の信号の時間整列されたピッチ測定の比率の値から、乗算ファクターを決定して、当該ファクターを、前記特徴修正データを適用する前記ステップに含ませて、前記修正され選択された信号部分内の前記第2の信号においてピッチ変化の周波数範囲をシフトする、ステップを含む、
請求項1に記載の方法。 - 2のべき乗(a power of two)だけ前記乗算ファクターをスケーリングして、前記2のべき乗の選択に従って、前記修正され選択された信号部分におけるピッチを変更するステップを更に含む、
請求項9に記載の方法。 - 前記第2の信号に沿った、選択された位置で測定する前記ステップが、
前記時間整列データを用いて、前記第2のサンプルされた信号から、時間整列された第2の信号であって、当該第2の信号内に、前記第2のサンプルされた信号の前記時間に依存する特徴の発生の時間(times)が、前記第1のサンプルされた信号における前記時間に依存する特徴の発生の時間と実質的に一致する、当該第2の信号を生成するステップを含み、
前記時間整列された第2の信号に沿った位置での前記時間整列された第2の信号における前記少なくとも1つの音響的特徴の測定が、前記第1のサンプルされた信号に沿った前記選択された位置と、タイミングにおいて関連するように選択される、
請求項2に記載の方法。 - 前記第1のサンプルされた信号の前記少なくとも1つの音響的特徴がピッチであり、
前記第2のサンプルされた信号の前記少なくとも1つの音響的特徴がピッチであり、
前記特徴修正データを適用する前記ステップが、
前記時間整列されたデータを用いて、前記第2のサンプルされた信号から、時間整列された第2の信号を生成して、前記特徴修正データを、前記時間整列された第2の信号に適用して、ピッチ修正され時間整列された第2の信号を生成するステップを含む、
請求項2に記載の方法。 - 前記特徴修正データを適用する前記ステップが、
所定の関数に従って、前記特徴修正データを変更して、前記特徴修正データと前記所定の関数の共同によって、前記第2の信号の前記選択された部分におけるピッチを修正することを含む、
請求項12に記載の方法。 - 前記所定の関数が、前記第1のサンプルされた信号におけるピッチ測定と、前記第2のサンプルされた信号に沿った前記第2のサンプルされた信号における対応するピッチ測定の比率の前記値の関数である、請求項13に記載の方法。
- 第1の及び第2のサンプルされた音声信号を比較して、前記第2の信号における時間に従属する特徴の発生の時間と、前記第1の信号における時間に依存する特徴の発生の時間の間のタイミング差から、時間整列データを決定するための手段、
前記第1の信号に沿った、選択された位置において、前記第1の信号の少なくとも1つの音響的特徴を測定して、そこから、第1の信号特徴測定のシーケンスを生成するための手段、
第1の信号特徴測定の前記シーケンスを処理して、特徴修正データのシーケンスを生成するための手段、及び、
特徴修正データの前記シーケンスを、前記第2の信号に適用して、前記時間整列されたデータに従って、前記第2の信号の選択された位置の少なくとも1つの音響的特徴を修正するための手段、
を備える、音声信号の少なくとも1つの音響的特徴を修正するための装置。 - 前記第2の信号に沿った、選択された位置において、前記第2の信号の前記少なくとも1つの音響的特徴を測定して、そこから、第2の信号特徴測定のシーケンスを生成するための手段を更に備え、
第1の信号測定の前記シーケンスを処理するための手段が、前記第1の信号特徴測定を、前記第2の信号特徴測定と比較して、そのような比較から、前記特徴修正データを決定するための手段を含む、請求項15に記載の装置。 - 前記特徴修正データを適用するための前記手段が、前記時間整列データを使用して、前記第2のサンプルされた信号から、時間整列された第2の信号を生成し、前記特徴修正データを、前記時間整列された第2の信号に適用するための手段を含む、
請求項15又は16に記載の装置。 - 前記処理手段が、前記第1の信号特徴測定について前記時間整列データを使用して、前記第2の信号特徴測定と時間整列した前記特徴修正データを生成するための手段を含み、
請求項16又は17に記載の装置。 - 前記特徴修正データを適用するための前記手段が、所定の関数に従って、前記特徴修正データを変更(modulating)して、前記特徴修正データと前記所定の関数の共同によって、前記第2の信号の前記選択された部分の前記少なくとも1つの音響的特徴を修正するための手段を含む、請求項15に記載の装置。
- 前記第1の信号の前記少なくとも1つの音響的特徴がピッチである、請求項15に記載の装置。
- 前記第2の信号の前記少なくとも1つの音響的特徴がピッチである、請求項15に記載の装置。
- 前記第1の及び第2の信号の前記時間に従属する特徴が、サンプルされたスペクトラル・エネルギー測定である、請求項15に記載の装置。
- 前記第1の信号の前記少なくとも1つの音響的特徴がピッチであり、
前記第2の信号の前記少なくとも1つの音響的特徴がピッチであり、
前記処理手段が、前記第1の信号のピッチ測定と、前記第2の信号の時間整列されたピッチ測定の比率の値から、乗算ファクターを決定して、前記特徴修正データの適用に前記ファクターを含ませて、前記修正され選択された信号部分の前記第2の信号におけるピッチ変化の周波数範囲をシフトさせるための手段を含む、
請求項15に記載の装置。 - 2のべき乗によって前記乗算ファクターをスケーリングして、当該2のべき乗の選択に従って、前記第2の修正され、選択された信号部分におけるピッチを変更するための手段を更に含む、請求項23に記載の装置。
- 前記第2の信号に沿った選択された部分において測定するための前記手段が、
前記時間整列データを使用して、前記第2のサンプルされた信号から、時間整列された第2の信号であって、当該第2の信号内で、前記第2のサンプルされた信号の前記時間に従属する特徴の発生の時間が、実質的に、前記第1のサンプルされた信号における前記時間に従属する特徴の発生の時間と一致する、当該第2の信号を生成するための手段を含み、
前記時間整列された第2の信号に沿った位置での、前記時間整列された第2の信号における前記少なくとも1つの音響的特徴を測定するための手段が、タイミング的に、前記第1のサンプルされた信号に沿った、前記選択された位置と関連するように選択される、
請求項16に記載の装置。 - タイミング的に関連するように選択された前記位置が、実質的に、タイミング的に、前記第1のサンプルされた信号に沿った、前記選択された位置と一致する、請求項25に記載の装置。
- 前記第1のサンプルされた信号の前記少なくとも1つの音響的特徴がピッチであり、
前記第2のサンプルされた信号の前記少なくとも1つの音響的特徴がピッチであり、
前記特徴修正データを適用するための前記手段が、
前記時間整列データを使用して、前記第2のサンプルされた信号から、時間整列された第2の信号を生成して、前記特徴修正データを、前記時間整列された第2の信号に適用して、ピッチ修正され時間整列された第2の信号を生成するための手段を含む、
請求項16に記載の装置。 - 前記特徴修正データを適用するための手段が、
前記特徴修正データと、前記所定の関数の共同によって、前記第2の信号の前記選択された部分におけるピッチを修正するように、所定の関数に従って、前記特徴修正データを変更するための手段を含む、請求項27に記載の装置。 - 前記所定の関数が、前記第1のサンプルされた信号におけるピッチ測定と、前記第2のサンプルされた信号に沿った前記第2のサンプルされた信号における対応するピッチ測定の、前記比率の前記値の関数である、請求項28に記載の装置。
- 新しい信号及びガイド音声信号を受信し、それらから、時間整列された新しい信号を生成するようにされた時間整列モジュール、
前記時間整列モジュールにカップルされ、前記時間整列された新しい信号においてピッチを測定するようにされた第1のピッチ測定モジュール、
前記ガイド音声信号を受信し、前記ガイド音声信号におけるピッチを測定するようにされた第2のピッチ測定モジュール、
前記第1の及び第2のピッチ測定モジュールにカップルされ、ピッチ訂正ファクターを計算するようにされたピッチ調整計算機、及び、
前記時間整列された新しい信号を受信するために前記時間整列モジュールにカップルされ、前記ピッチ訂正ファクターを受信するために前記ピッチ調整計算機にカップルされ、前記ピッチ訂正ファクターに従って、前記時間整列された新しい信号におけるピッチを修正するようにされたピッチ変更器、
を備える音声信号修正装置。 - 新しい信号及びガイド音声信号を受信して、それらから、時間整列された新しい信号を生成するようにされた時間整列モジュール、
前記ガイド音声信号を受信し、前記ガイド音声信号の少なくとも1つの音響的特徴を測定するようにされた第1の音響的特徴測定モジュール、
前記第1の音響的特徴測定モジュールにカップルされ、音響的特徴修正ファクターを計算するようにされた音響的特徴調整計算機、及び、
前記時間整列された新しい信号を受信するために前記時間整列モジュールにカップルされ、前記音響的特徴修正ファクターを受信するために前記音響的特徴調整計算機にカップルされ、前記音響的特徴修正ファクターに従って、前記時間整列された新しい信号の前記少なくとも1つの音響的特徴を修正するようにされた音響的特徴変更器、
を備える音声信号修正装置。 - 処理関数モジュールが、前記特徴調整計算機にカップルされて、そこに、信号関数を供給し、
前記特徴調整計算機が、前記信号関数とは独立して、前記音響的特徴修正ファクターを計算するようにされる、
請求項31に記載の音声信号修正装置。 - 第2の音響的特徴測定モジュールが、前記時間整列モジュールにカップルされ、
前記時間整列された新しい信号の少なくとも1つの音響的特徴を測定するようにされ、そして、
前記音響的特徴調整計算機が、前記第2の音響的特徴測定モジュールにカップルされた、
請求項31又は32に記載の音声信号修正装置。 - 第2の音響的特徴測定モジュールが、前記新しい音声信号を受信し、前記新しい音声信号の前記少なくとも1つの音響的特徴を測定するようにされ、
前記音響的特徴調整計算機が、前記第2の音響的特徴測定モジュール及び前記時間整列モジュールにカップルされ、前記新しい音声信号の前記測定された音響的特徴を、前記ガイド音声信号の前記測定された音響的特徴に整列するようにされている、
請求項31に記載の音声信号修正装置。 - 新しい音声信号及びガイド音声信号を受信し、それらから、時間整列データを生成するようにされた時間整列モジュール、
前記ガイド音声信号を受信し、前記ガイド音声信号の少なくとも1つの音響的特徴を測定するようにされた第1の音響的特徴測定モジュール、
前記時間整列モジュール及び前記第1の音響的特徴測定モジュールにカップルされ、音響的特徴修正ファクターの時間整列された値を計算するようにされた音響的特徴調整計算機、および、
新しい音声信号を受信するためにカップルされ、前記音響的特徴修正ファクターの前記時間整列された値を受信するために前記音響的特徴調整計算機にカップルされ、修正された新しい音声信号を生成するように、前記音響的特徴修正ファクターの前記時間整列された値に従って、前記新しい音声信号の前記少なくとも1つの音響的特徴を修正するようにされた音響的特徴変更器、
を備える音声信号修正装置。 - 時間整列器が、前記修正された新しい音声信号を受信するために前記音響的特徴変更器にカップルされ、前記時間整列データを受信するために前記時間整列モジュールにカップルされ、前記修正された新しい音声信号及び時間整列データに従って、時間整列された新しい信号を生成するようにされた、請求項35に記載の音声信号修正装置。
- 第2の音響的特徴測定モジュールが、前記新しい音声信号を受信し、前記新しい音声信号の少なくとも1つの音響的特徴を測定するようにされ、そして、
前記音響的特徴調整計算機が、前記第2の音響的特徴測定モジュールにカップルされた、
請求項35又は36に記載の音声信号修正装置。 - 前記適用するステップが、それによって、修正された第2の信号を表すデータを生成することを含む、請求項1に記載の方法。
- 前記修正された第2の信号を表すデータを電気通信装置に提供するステップを更に含む、請求項38に記載の方法。
- 前記提供するステップが、前記修正された第2の信号を表すデータを、リングトーン配送システムを通じて送信することを含む、請求項39に記載の方法。
- 前記比較手段、前記測定手段、前記処理手段、及び、前記適用手段が、電気通信装置内に取り込まれている、請求項16に記載の装置。
- 前記電気通信装置が、電気通信ネットワークにカップルされるようにされたサーバ・コンピュータを備える、請求項41に記載の装置。
- 前記電気通信装置が移動電話を備える、請求項41に記載の装置。
- 前記電気通信装置が、修正された第2の信号を表すデータを、リングトーン・システムに供給するようにされる、請求項41に記載の装置。
- 前記移動電話が、修正された第2の信号を表すデータを、リングトーン・システムに供給するようにされる、請求項43に記載の装置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US64755505P | 2005-01-27 | 2005-01-27 | |
GB0501744A GB2422755A (en) | 2005-01-27 | 2005-01-27 | Audio signal processing |
GB0501744.7 | 2005-01-27 | ||
US60/647,555 | 2005-01-27 | ||
PCT/GB2006/000262 WO2006079813A1 (en) | 2005-01-27 | 2006-01-26 | Methods and apparatus for use in sound modification |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2008529078A true JP2008529078A (ja) | 2008-07-31 |
JP2008529078A5 JP2008529078A5 (ja) | 2010-07-22 |
JP5143569B2 JP5143569B2 (ja) | 2013-02-13 |
Family
ID=36120266
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007552713A Active JP5143569B2 (ja) | 2005-01-27 | 2006-01-26 | 音響的特徴の同期化された修正のための方法及び装置 |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP1849154B1 (ja) |
JP (1) | JP5143569B2 (ja) |
PL (1) | PL1849154T3 (ja) |
WO (1) | WO2006079813A1 (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011521303A (ja) * | 2008-07-11 | 2011-07-21 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 時間軸圧縮曲線計算機、音声信号符号器、符号化された音声信号表現、復号化された音声信号表現の提供方法、符号化された音声信号表現の提供方法、およびコンピュータプログラム |
WO2012046447A1 (ja) * | 2010-10-06 | 2012-04-12 | パナソニック株式会社 | 符号化装置、復号装置、符号化方法及び復号方法 |
US9015041B2 (en) | 2008-07-11 | 2015-04-21 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Time warp activation signal provider, audio signal encoder, method for providing a time warp activation signal, method for encoding an audio signal and computer programs |
JP2015534095A (ja) * | 2012-08-07 | 2015-11-26 | スミュール, インク.Smule, Inc. | 選択的に適用可能な(複数の)ボーカルエフェクトスケジュールに基づいて、その後で再演奏するために、ボーカル演奏の連続的リアルタイムピッチ補正およびドライボーカル取込を用いるソーシャル音楽システムおよび方法 |
US10229662B2 (en) | 2010-04-12 | 2019-03-12 | Smule, Inc. | Social music system and method with continuous, real-time pitch correction of vocal performance and dry vocal capture for subsequent re-rendering based on selectively applicable vocal effect(s) schedule(s) |
US10930256B2 (en) | 2010-04-12 | 2021-02-23 | Smule, Inc. | Social music system and method with continuous, real-time pitch correction of vocal performance and dry vocal capture for subsequent re-rendering based on selectively applicable vocal effect(s) schedule(s) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4322283B2 (ja) * | 2007-02-26 | 2009-08-26 | 独立行政法人産業技術総合研究所 | 演奏判定装置およびプログラム |
JP5135931B2 (ja) | 2007-07-17 | 2013-02-06 | ヤマハ株式会社 | 楽曲加工装置およびプログラム |
US9159325B2 (en) * | 2007-12-31 | 2015-10-13 | Adobe Systems Incorporated | Pitch shifting frequencies |
JP5141397B2 (ja) | 2008-06-24 | 2013-02-13 | ヤマハ株式会社 | 音声処理装置およびプログラム |
JP6003083B2 (ja) * | 2012-02-27 | 2016-10-05 | ソニー株式会社 | 信号処理装置、信号処理方法、およびプログラム、電子機器、並びに、信号処理システムおよび信号処理システムの信号処理方法 |
CN104080024B (zh) * | 2013-03-26 | 2019-02-19 | 杜比实验室特许公司 | 音量校平器控制器和控制方法以及音频分类器 |
KR20150072597A (ko) | 2013-12-20 | 2015-06-30 | 삼성전자주식회사 | 멀티미디어 장치 및 이의 음악 작곡 방법, 그리고 노래 보정 방법 |
CN105869621B (zh) * | 2016-05-20 | 2019-10-25 | 广州华多网络科技有限公司 | 音频合成装置及其音频合成的方法 |
US11176957B2 (en) | 2017-08-17 | 2021-11-16 | Cerence Operating Company | Low complexity detection of voiced speech and pitch estimation |
CN109841225B (zh) * | 2019-01-28 | 2021-04-30 | 北京易捷胜科技有限公司 | 声音替换方法、电子设备和存储介质 |
CN110769309B (zh) * | 2019-11-04 | 2023-03-31 | 北京字节跳动网络技术有限公司 | 用于展示音乐点的方法、装置、电子设备和介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0772881A (ja) * | 1993-09-06 | 1995-03-17 | Matsushita Electric Ind Co Ltd | カラオケ装置 |
JPH08234772A (ja) * | 1995-02-27 | 1996-09-13 | Yamaha Corp | カラオケ装置 |
JPH09198091A (ja) * | 1996-01-18 | 1997-07-31 | Yamaha Corp | フォルマント変換装置およびカラオケ装置 |
JP2001117599A (ja) * | 1999-10-21 | 2001-04-27 | Yamaha Corp | 音声処理装置およびカラオケ装置 |
JP2003044066A (ja) * | 2001-07-31 | 2003-02-14 | Daiichikosho Co Ltd | ピッチシフター付きカラオケ装置 |
JP2004133409A (ja) * | 2002-08-07 | 2004-04-30 | Speedlingua Sa | 音声イントネーション較正方法 |
JP2004287350A (ja) * | 2003-03-25 | 2004-10-14 | Casio Comput Co Ltd | 音声変換装置、音声効果付与装置、及びプログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA1204855A (en) * | 1982-03-23 | 1986-05-20 | Phillip J. Bloom | Method and apparatus for use in processing signals |
GB9711339D0 (en) * | 1997-06-02 | 1997-07-30 | Isis Innovation | Method and apparatus for reproducing a recorded voice with alternative performance attributes and temporal properties |
US6836761B1 (en) * | 1999-10-21 | 2004-12-28 | Yamaha Corporation | Voice converter for assimilation by frame synthesis with temporal alignment |
-
2006
- 2006-01-26 PL PL06709573T patent/PL1849154T3/pl unknown
- 2006-01-26 JP JP2007552713A patent/JP5143569B2/ja active Active
- 2006-01-26 WO PCT/GB2006/000262 patent/WO2006079813A1/en active Application Filing
- 2006-01-26 EP EP06709573A patent/EP1849154B1/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0772881A (ja) * | 1993-09-06 | 1995-03-17 | Matsushita Electric Ind Co Ltd | カラオケ装置 |
JPH08234772A (ja) * | 1995-02-27 | 1996-09-13 | Yamaha Corp | カラオケ装置 |
JPH09198091A (ja) * | 1996-01-18 | 1997-07-31 | Yamaha Corp | フォルマント変換装置およびカラオケ装置 |
JP2001117599A (ja) * | 1999-10-21 | 2001-04-27 | Yamaha Corp | 音声処理装置およびカラオケ装置 |
JP2003044066A (ja) * | 2001-07-31 | 2003-02-14 | Daiichikosho Co Ltd | ピッチシフター付きカラオケ装置 |
JP2004133409A (ja) * | 2002-08-07 | 2004-04-30 | Speedlingua Sa | 音声イントネーション較正方法 |
JP2004287350A (ja) * | 2003-03-25 | 2004-10-14 | Casio Comput Co Ltd | 音声変換装置、音声効果付与装置、及びプログラム |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9431026B2 (en) | 2008-07-11 | 2016-08-30 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Time warp activation signal provider, audio signal encoder, method for providing a time warp activation signal, method for encoding an audio signal and computer programs |
US9466313B2 (en) | 2008-07-11 | 2016-10-11 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Time warp activation signal provider, audio signal encoder, method for providing a time warp activation signal, method for encoding an audio signal and computer programs |
US9263057B2 (en) | 2008-07-11 | 2016-02-16 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Time warp activation signal provider, audio signal encoder, method for providing a time warp activation signal, method for encoding an audio signal and computer programs |
US9293149B2 (en) | 2008-07-11 | 2016-03-22 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Time warp activation signal provider, audio signal encoder, method for providing a time warp activation signal, method for encoding an audio signal and computer programs |
US9015041B2 (en) | 2008-07-11 | 2015-04-21 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Time warp activation signal provider, audio signal encoder, method for providing a time warp activation signal, method for encoding an audio signal and computer programs |
US9025777B2 (en) | 2008-07-11 | 2015-05-05 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio signal decoder, audio signal encoder, encoded multi-channel audio signal representation, methods and computer program |
US9043216B2 (en) | 2008-07-11 | 2015-05-26 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio signal decoder, time warp contour data provider, method and computer program |
US9646632B2 (en) | 2008-07-11 | 2017-05-09 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Time warp activation signal provider, audio signal encoder, method for providing a time warp activation signal, method for encoding an audio signal and computer programs |
US9502049B2 (en) | 2008-07-11 | 2016-11-22 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Time warp activation signal provider, audio signal encoder, method for providing a time warp activation signal, method for encoding an audio signal and computer programs |
JP2011521304A (ja) * | 2008-07-11 | 2011-07-21 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 音声信号復号器、時間軸圧縮曲線データ提供装置、復号化された音声信号の提供方法、およびコンピュータプログラム |
JP2011521303A (ja) * | 2008-07-11 | 2011-07-21 | フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ | 時間軸圧縮曲線計算機、音声信号符号器、符号化された音声信号表現、復号化された音声信号表現の提供方法、符号化された音声信号表現の提供方法、およびコンピュータプログラム |
US9299363B2 (en) | 2008-07-11 | 2016-03-29 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Time warp contour calculator, audio signal encoder, encoded audio signal representation, methods and computer program |
US10930256B2 (en) | 2010-04-12 | 2021-02-23 | Smule, Inc. | Social music system and method with continuous, real-time pitch correction of vocal performance and dry vocal capture for subsequent re-rendering based on selectively applicable vocal effect(s) schedule(s) |
US10229662B2 (en) | 2010-04-12 | 2019-03-12 | Smule, Inc. | Social music system and method with continuous, real-time pitch correction of vocal performance and dry vocal capture for subsequent re-rendering based on selectively applicable vocal effect(s) schedule(s) |
JPWO2012046447A1 (ja) * | 2010-10-06 | 2014-02-24 | パナソニック株式会社 | 符号化装置、復号装置、符号化方法及び復号方法 |
WO2012046447A1 (ja) * | 2010-10-06 | 2012-04-12 | パナソニック株式会社 | 符号化装置、復号装置、符号化方法及び復号方法 |
US9117461B2 (en) | 2010-10-06 | 2015-08-25 | Panasonic Corporation | Coding device, decoding device, coding method, and decoding method for audio signals |
JP2015534095A (ja) * | 2012-08-07 | 2015-11-26 | スミュール, インク.Smule, Inc. | 選択的に適用可能な(複数の)ボーカルエフェクトスケジュールに基づいて、その後で再演奏するために、ボーカル演奏の連続的リアルタイムピッチ補正およびドライボーカル取込を用いるソーシャル音楽システムおよび方法 |
Also Published As
Publication number | Publication date |
---|---|
PL1849154T3 (pl) | 2011-05-31 |
EP1849154A1 (en) | 2007-10-31 |
EP1849154B1 (en) | 2010-12-15 |
JP5143569B2 (ja) | 2013-02-13 |
WO2006079813A1 (en) | 2006-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7825321B2 (en) | Methods and apparatus for use in sound modification comparing time alignment data from sampled audio signals | |
JP5143569B2 (ja) | 音響的特徴の同期化された修正のための方法及び装置 | |
US9847078B2 (en) | Music performance system and method thereof | |
ES2356476T3 (es) | Procedimiento y aparato para su uso en la modificación de sonido. | |
US10008193B1 (en) | Method and system for speech-to-singing voice conversion | |
US9595256B2 (en) | System and method for singing synthesis | |
Umbert et al. | Expression control in singing voice synthesis: Features, approaches, evaluation, and challenges | |
CN111418005B (zh) | 声音合成方法、声音合成装置及存储介质 | |
JP2016161919A (ja) | 音声合成装置 | |
JP2010014913A (ja) | 声質変換音声生成装置および声質変換音声生成システム | |
JP2014048472A (ja) | カラオケ用音声合成システム,及びパラメータ抽出装置 | |
JP6737320B2 (ja) | 音響処理方法、音響処理システムおよびプログラム | |
JP6171393B2 (ja) | 音響合成装置および音響合成方法 | |
JPH11259066A (ja) | 音楽音響信号分離方法、その装置およびそのプログラム記録媒体 | |
JP2009157220A (ja) | 音声編集合成システム、音声編集合成プログラム及び音声編集合成方法 | |
WO2020158891A1 (ja) | 音信号合成方法およびニューラルネットワークの訓練方法 | |
JP2022065554A (ja) | 音声合成方法およびプログラム | |
JP2022065566A (ja) | 音声合成方法およびプログラム | |
JP5106437B2 (ja) | カラオケ装置及びその制御方法並びにその制御プログラム | |
JP2000010597A (ja) | 音声変換装置及び音声変換方法 | |
JP2004061753A (ja) | 歌唱音声を合成する方法および装置 | |
EP0986807A1 (en) | Method and apparatus for reproducing a recorded voice with alternative performance attributes and temporal properties | |
KR101966587B1 (ko) | 가창 표현 이식 시스템 | |
Alexandraki | Real-time machine listening and segmental re-synthesis for networked music performance | |
Bonada et al. | Improvements to a sample-concatenation based singing voice synthesizer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090126 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090126 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100423 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110801 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20111101 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20111109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120326 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20120626 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20120703 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120926 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121022 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121121 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151130 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5143569 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |