JP6371283B2 - 選択的に適用可能な(複数の)ボーカルエフェクトスケジュールに基づいて、その後で再演奏するために、ボーカル演奏の連続的リアルタイムピッチ補正およびドライボーカル取込を用いるソーシャル音楽システムおよび方法 - Google Patents
選択的に適用可能な(複数の)ボーカルエフェクトスケジュールに基づいて、その後で再演奏するために、ボーカル演奏の連続的リアルタイムピッチ補正およびドライボーカル取込を用いるソーシャル音楽システムおよび方法 Download PDFInfo
- Publication number
- JP6371283B2 JP6371283B2 JP2015526650A JP2015526650A JP6371283B2 JP 6371283 B2 JP6371283 B2 JP 6371283B2 JP 2015526650 A JP2015526650 A JP 2015526650A JP 2015526650 A JP2015526650 A JP 2015526650A JP 6371283 B2 JP6371283 B2 JP 6371283B2
- Authority
- JP
- Japan
- Prior art keywords
- vocal
- user
- performance
- captured
- pitch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001755 vocal effect Effects 0.000 title claims description 504
- 238000000034 method Methods 0.000 title claims description 100
- 238000012937 correction Methods 0.000 title claims description 74
- 238000012545 processing Methods 0.000 claims description 39
- 238000004891 communication Methods 0.000 claims description 35
- 238000002156 mixing Methods 0.000 claims description 30
- 230000004044 response Effects 0.000 claims description 29
- 230000000694 effects Effects 0.000 claims description 23
- 238000010586 diagram Methods 0.000 claims description 19
- 230000006835 compression Effects 0.000 claims description 16
- 238000007906 compression Methods 0.000 claims description 16
- 230000005236 sound signal Effects 0.000 claims description 15
- 230000003595 spectral effect Effects 0.000 claims description 10
- 230000005540 biological transmission Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000009877 rendering Methods 0.000 claims description 8
- 230000001360 synchronised effect Effects 0.000 claims description 8
- 230000000977 initiatory effect Effects 0.000 claims description 7
- 238000011156 evaluation Methods 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 claims description 2
- 238000005311 autocorrelation function Methods 0.000 claims description 2
- 239000011295 pitch Substances 0.000 description 146
- 230000006870 function Effects 0.000 description 21
- 238000005516 engineering process Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 13
- HAORKNGNJCEJBX-UHFFFAOYSA-N cyprodinil Chemical compound N=1C(C)=CC(C2CC2)=NC=1NC1=CC=CC=C1 HAORKNGNJCEJBX-UHFFFAOYSA-N 0.000 description 10
- 241001342895 Chorus Species 0.000 description 8
- 238000007580 dry-mixing Methods 0.000 description 8
- 230000003993 interaction Effects 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000007792 addition Methods 0.000 description 5
- 230000001404 mediated effect Effects 0.000 description 5
- 230000000295 complement effect Effects 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 238000005070 sampling Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 210000003811 finger Anatomy 0.000 description 3
- 230000010354 integration Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000000737 periodic effect Effects 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 208000019901 Anxiety disease Diseases 0.000 description 2
- 230000036506 anxiety Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000003997 social interaction Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- WURBVZBTWMNKQT-UHFFFAOYSA-N 1-(4-chlorophenoxy)-3,3-dimethyl-1-(1,2,4-triazol-1-yl)butan-2-one Chemical compound C1=NC=NN1C(C(=O)C(C)(C)C)OC1=CC=C(Cl)C=C1 WURBVZBTWMNKQT-UHFFFAOYSA-N 0.000 description 1
- 241000555745 Sciuridae Species 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000001035 drying Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000003032 molecular docking Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/36—Accompaniment arrangements
- G10H1/361—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
- G10H1/366—Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems with means for modifying or correcting the external signal, e.g. pitch correction, reverberation, changing a singer's voice
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/02—Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/003—Changing voice quality, e.g. pitch or formants
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/031—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
- G10H2210/091—Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/265—Acoustic effect simulation, i.e. volume, spatial, resonance or reverberation effects added to a musical sound, usually by appropriate filtering or delays
- G10H2210/281—Reverberation or echo
- G10H2210/291—Reverberator using both direct, i.e. dry, and indirect, i.e. wet, signals or waveforms, indirect signals having sustained one or more virtual reflections
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/155—Musical effects
- G10H2210/315—Dynamic effects for musical purposes, i.e. musical sound effects controlled by the amplitude of the time domain audio envelope, e.g. loudness-dependent tone colour or musically desired dynamic range compression or expansion
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2210/00—Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
- G10H2210/325—Musical pitch modification
- G10H2210/331—Note pitch correction, i.e. modifying a note pitch or replacing it by the closest one in a given scale
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2220/00—Input/output interfacing specifically adapted for electrophonic musical tools or instruments
- G10H2220/005—Non-interactive screen display of musical or status data
- G10H2220/011—Lyrics displays, e.g. for karaoke applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2230/00—General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
- G10H2230/005—Device type or category
- G10H2230/015—PDA [personal digital assistant] or palmtop computing devices used for musical purposes, e.g. portable music players, tablet computers, e-readers or smart phones in which mobile telephony functions need not be used
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/281—Protocol or standard connector for transmission of analog or digital data to or from an electrophonic musical instrument
- G10H2240/295—Packet switched network, e.g. token ring
- G10H2240/305—Internet or TCP/IP protocol use for any electrophonic musical instrument data or musical parameter transmission purposes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Quality & Reliability (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Telephonic Communication Services (AREA)
- Telephone Function (AREA)
- Auxiliary Devices For Music (AREA)
Description
本発明の実施形態においては、携帯電話にホストされ、ピッチ補正された、カラオケスタイルのボーカル取込みが有用な説明を提供するが、必ずしもそれに限定されることはない。例えば、図1に示されるような幾つかの実施形態においては、Apple Inc.から入手可能なiPhone(商標)ハンドヘルド(より一般的にはハンドヘルド101)は、ボーカル取込み、ならびに取込まれたボーカルの連続的リアルタイム、スコア符号化されたピッチ補正およびハーモナイゼーションを提供するために、コンテンツサーバと連携して実行するソフトウェアをホストする。カラオケスタイルアプリケーション(2009年9月に元々リリースされたiPhone用“I am T−Pain”アプリケーションもしくは最新の“Glee”アプリケーション、双方ともSmule,Inc.から入手可能)では典型的なように、インストルメンタルおよび/もしくはボーカルのバッキングトラックは、歌唱するユーザ/ボーカリストに対して演奏することができる。この場合には、歌詞は、ユーザによるカラオケスタイルボーカル演奏を容易にするために、演奏に対応して、表示されてもよい(102)。幾つかの場合もしくは状況においては、バッキングオーディオは、ローカルストア(ハンドヘルド上に存在するiTunes(商標)ライブラリのコンテンツなど)から、演奏されてもよい。
・非圧縮ステレオwavフォーマットバッキングトラック
・非圧縮モノラルwavフォーマットバッキングトラック
・圧縮モノラルm4aフォーマットバッキングトラック
図2は、本発明の幾つかの実施形態に従う、取込まれたボーカル演奏用の連続的リアルタイムスコア符号化されたピッチ補正および/もしくはハーモニー生成を示すフロー図である。示された構成と同様に前述されたように、ユーザ/ボーカリストは、バッキングトラックカラオケスタイルに従って、歌唱する。マイクロフォン入力201から取込まれたボーカル(251)は、メインボーカルピッチキューに対して、もしくは、幾つかの場合においては、一つ以上のアコースティックトランスデューサ(音響変換器)202で演奏されたバッキングトラックとミキシング(253)するためのリアルタイムの対応するハーモニーキューのいずれかに対して、連続的にピッチ補正される(252)。幾つかの場合もしくは実施形態においては、“メイン”メロディに対してピッチ補正された取込まれたボーカルの演奏は、スコア符号化されたオフセットに従って、取込まれたボーカルから合成されたハーモニー(HARMONY1、HARMONY2)と任意でミキシングされてもよい(254)。
・制御トラック:キー変化、ゲイン変化、ピッチ補正制御、ハーモニー制御など。
・一つ以上の歌詞トラック:ディスプレイカスタマイズでの歌詞イベント。
・ピッチトラック:(従来通り符号化された)メインメロディ
・一つ以上のハーモニートラック:ハーモニー音声1、2・・・制御トラックイベントに依存して、所定のハーモニートラックにおいて特定されるノートは、絶対的にスコア化されたピッチとして、もしくはユーザの現在のピッチに呼応して解釈され、(現在の設定に依存して)補正されるかもしくは補正されなくてもよい。
・コードトラック:所望のハーモニーは、ハーモニートラック内に設定されるが、ユーザのピッチがスコア化されたピッチと異なる場合、相対的オフセットが、現在のコードのノートセット近くで維持されてもよい。
・Key:<string>:聞こえるノートが補正されるキー(例えば、Gシャープメジャー(嬰ト長調)、g#M、Eマイナー(ホ短調)、Em、Bフラットメジャー(変ロ長調)、MbMなど)を注釈する。デフォルトはCである。
・PitchCorrection:{ON,OFF}:ユーザ/ボーカリストのピッチを補正するか否かを符号化する。デフォルトはONである。ボーカル演奏内の時間的同期点でONおよびOFFされることがある。
・SwapHarmony:{ON,OFF}:ユーザ/ボーカリストによって出される音のピッチがハーモニーの最も近くに対応する場合、メロディではなく、ハーモニーに対してピッチ補正しても大丈夫か否かを符号化する。デフォルトはONである。
・Relative:{ON,OFF}:ONのとき、ハーモニートラックはユーザの現在のピッチ(他のピッチ補正設定に従って補正される)からの相対的オフセットとして解釈される。ハーモニートラックからのオフセットは、そのスコア化されたピッチトラックに関連するオフセットである。OFFのとき、ハーモニートラックは、ハーモニーシフトに対する絶対的ピッチターゲットとして解釈される。
・Relative:{OFF,<+/−N>...<+/−N>}:OFFでない限り、ハーモニーオフセット(望まれるだけ多く)は、任意のオペラントキーもしくはノートセットに従ってスコア化されたピッチトラックに関連する。
・RealTimeHarmonyMix:{value}:ボーカル演奏内の時間的同期点で、演奏されたハーモニー/メインボーカルミキシングにおけるメイン音声とハーモニーのミキシング比において符号が変化する。1.0は全てハーモニー音声である。0.0は全てメイン音声である。
・RecordedHarmonyMix:{value}:アップロードされたハーモニー/メインボーカルミキシングにおけるメイン音声とハーモニーのミキシング比において、ボーカル演奏内の時間的同期点で、符号が変化する。1.0は全てハーモニー音声である。0.0は全てメイン音声である。
本記述の利益を得る当業者によって理解されるように、ピッチ検出および補正技術は、取込まれたボーカル信号のピッチシフトされた変形としてのハーモニー生成用、ならびに、ターゲットピッチもしくはノートに対する取込まれたボーカル信号の補正用の双方のために使用されてもよい。図2および図3は、演奏用にピッチ補正されかつ、任意でハーモナイズされたボーカルを(ローカルにおよび/もしくは遠隔対象デバイスで)作成するために、例えば、モバイルデバイス101として示されるiPhone(商標)ハンドヘルドに適したある実装に従う、基本的な信号処理フロー(250、350)を示す。
1) サンプリングされたユーザボーカルを含む音声データのバッファを得る。
2) (典型的にはスコア符号化されたメロディノートターゲットに対して、メイン音声として、サンプリングされたボーカルのピッチ検出および補正で使用するための)22k、ならびに(サンプリングされたボーカルのハーモニー変形のピッチ検出およびシフト用の)11kに、ローパスフィルタ処理かつデシメーションによって、44.1kHzサンプルレートからダウンサンプリングする。
3) ピッチディテクタを呼び出し(PitchDetector::CalculatePitch())、サンプリングされた音声信号が十分な振幅でを持つか否か、ならびに、サンプリングされた音声が続行するのに音量が大きすぎないか(過度のゼロクロシング)をまず確認する。サンプリングされた音声が受け入れ可能である場合、CalculatePitch()法が平均振幅差関数(AMDF)を計算し、ピッチ期間の評価に対応するピークを採取するための論理を実行する。さらなる処理はその評価を改良する。例えば、幾つかの実施形態においては、ピークおよび隣接するサンプルの放物線補間(parabolic interpolation)が使用されてもよい。幾つかの実施形態および所定の適切な計算帯域幅において、さらなるAMDFは、より良好な周波数分解能を得るために、ピークサンプル周囲のより高いサンプリングレートで実行されてもよい。
4) (より高品質および高い重複精度のために)22kHzサンプリングレートでピッチ同期重畳加算(PSOLA)技術を利用することによって、スコア符号化されたターゲットピッチにメイン音声をシフトする。PSOLA実装(Smola::PitchShiftVoice())は、所望の補正を識別するために必要な情報(検出されたピッチ、ピッチターゲットなど)を含むデータ構造およびクラス変数でよばれる。一般的に、ターゲットピッチは、(メロディノートトラックと対応して周波数を変化する)スコア符号化されたターゲットに基づいて、かつ、現在のスケール/モード設定に従って選択される。スケール/モード設定は、特定のボーカル演奏中にアップデートされてもよいが、通常は、スコア符号化された情報に基づいてそれほど頻繁ではなくアップデートされるか、または、ユーザ選択に基づいて、アカペラもしくはフリースタイルモードにおいてアップデートされてもよい。
PSOLA技術は、接合部(splice)の非周期的影響を低減しつつピッチシフトされた変形を作成するために、波形の再サンプリングを容易にし、本技術分野ではよく知られている。PSOLA技術は、重複断片中でクロスフェードする場合により滑らかな結果を得るように、(例えば、ゼロクロシングに正方向に動くとき、理想的には略同一の傾きで)周期的振動内の類似点で二つの周期的波形を接合することが可能だという観察に基づいている。例えば、我々が以下のような準周期的シーケンスを有し、
a b c d e d c b a b c d.1 e.2 d.2 c.1
b.1 a b.1 c.2
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14
15 16 17 18
サンプル{a,b,c・・・}およびインデックス0,1,2,・・・(.1という記号は、周期性からの逸脱を表現する)のいずれかの場所で前後にジャンプすることを望まれる場合、我々は、単にジャンプや直線的変化ではなく、インデックス2と10で正方向のc−d遷移を選択する。:
(1*c+0*c),(d*7/8+(d.1)/8),(e*6/8+(e.2)*2/8)・・・
我々がインデックス10/18で(0*c+1*c.1)に到達するまで、期間の(8インデックス)前にジャンプし、編集時点で非周期性をはっきりしないものにする。我々は8サンプル(我々が検出可能な期間に最も近い期間)にそれを行ったため、それは、ピッチ同期である。クロスフェードは、線形/三角形重畳加算であるが、所望の場合には、(より一般的に)コンプリメンタリ(相補)コサイン、1−コサインもしくは他の関数を利用してもよいことに留意されたい。
5) PSOLAおよび線形予測符号(LPC)技術の双方を利用する方法を利用してハーモニー音声を生成する。ハーモニーノートは、現在の設定に基づいて選択され、現在の設定は、スコア符号化されたハーモニーターゲットに従ってしばしば変化するか、または、ユーザによってフリースタイルで変化させることができる。これらは上述されたようなターゲットピッチであるが、ハーモニー用の概して大きいピッチシフトを仮定すると、異なる技術が利用されてもよい。メイン音声(ここでは22k、もしくは任意で44k)は、上述されたようなPSOLA技術を利用して、ターゲットに対してピッチ補正される。其々のハーモニーに対するピッチシフトは、PSOLA技術を利用して同様に実施される。その後、線形予測符号(LPC)は、各ハーモニーに対する残余信号を生成するために各々に適用される。LPCは、ピッチシフトされた残余部に適用するためのスペクトルテンプレートを得るために、11k(もしくは任意で22k)でピッチ補正されていないメイン音声に適用される。これによって(上方シフトに対しては、シマリス(chipmunk)もしくは噛み砕く音(munchkinification)のように聞こえ、または、下方シフトに対してはDarth Vaderのように聞こえさせる)、ヘッドサイズモジュレーション(head−size modulation)問題を回避できる傾向にある。
6) 最後に、残余部は、ミキシングされて、ピッチ補正されていないメイン音声信号用に得られたLPC係数によって定義されるフィルタを利用して、其々ピッチシフトされたハーモニーを再合成するために使用される。ピッチシフトされたハーモニーのミキシング結果は、その後、ピッチ補正されたメイン音声とミキシングされる。
7) 結果として生じたミキシングは、44.1kHzへとアップサンプリングされ、バッキングトラック(フリースタイルモードを除く)もしくは、再生用オーディオサブシステムに受け渡すためにバッファされた、より良い忠実度を有するバッキングトラックの変形とミキシングされる。
ボーカル演奏がハンドヘルドデバイスで取込まれると、取込まれたボーカル演奏音声(典型的にはドライボーカルだが、任意でピッチ補正されている)は、オーディオコーデック(例えば、Advanced Audio Coding(AAC)もしくはogg/vorbis コーデック)を利用して圧縮されて、コンテンツサーバにアップロードされる。図1、図2および図3は、各々当該アップロードを示す。一般的には、コンテンツサーバ(例えば、コンテンツサーバ110、310)は、その後、選択されたボーカルエフェクト(EFX)スケジュールおよび適用可能なスコア符号化されたピッチ補正セットに従って、アップロードされたドライボーカルを処理する(112、312)。コンテンツサーバは、その後、この取込まれ、ピッチ補正され、EFX適用されたボーカル演奏エンコーディングを他のコンテンツとリミックスする(111,211)。例えば、コンテンツサーバは、ミキシングされた演奏の高い忠実度のマスターオーディオを作成するために、高品質もしくは高い忠実度のインストルメンタル(および/もしくは背景ボーカル)トラックと、当該ボーカルをミキシングしてもよい。他の取込まれたボーカル演奏が、図1に示され、本明細書で記述されるようにミキシングされてもよい。
本明細書の記述の大部分は、ユーザ自身のボーカル演奏を取込んでミキシングすることに関連して、ボーカル演奏取込み、ピッチ補正およびバッキングトラックの第一および第二エンコーディング其々の利用に焦点を当てているが、遠隔で取込まれる他者の演奏の演奏用の機能実装が、幾つかの状況もしくは実施形態で提供されてもよいことを理解されたい。そのような状況もしくは実施形態において、ボーカル演奏取込みが他のデバイスで起こり、取込まれた(そして、典型的にはピッチ補正された)ボーカル演奏の対応するエンコーディングが現在のデバイスで受信された後に、取込まれた演奏は別のデバイスで起こり、地球上の特定の位置から発生するボーカル演奏を示唆する可視ディスプレイアニメーションと関連して演奏される。図1は、ハンドヘルド120における当該可視ディスプレイアニメーションのスナップショットを例示するものであり、(スナップショットで示されるように)ハンドヘルド120が、上記に詳細に記述された取込みおよびピッチ補正モードではなく、再生(もしくはリスナー)モードで動作することを除いて、ハンドヘルドデバイス例101および301(図3参照)を参照して記述されて示されるような、プログラムされた携帯電話(もしくは他の可搬コンピューティングデバイス)の別の例として理解される。
図4は、本発明の幾つかの実施形態に従う、ソフトウェア実装の実行用プラットフォームとして機能しうるモバイルデバイスの特徴を示す。より詳細には、図4は、iPhone(商標)モバイルデジタルデバイスの市販バージョンとほぼ一致するモバイルデバイス400のブロック図である。本発明の実施形態は、iPhone展開もしくはアプリケーション(もしくはiPhone型デバイス)におそらくは限定されないが、そのセンサ、マルチメディア機能実装、アプリケーションプログラマインターフェイス、ワイヤレスアプリケーションデリバリ(受け渡し)モデルの補足とともに、iPhoneデバイスは、ある実装を配置するための高度に有能なプラットフォームを提供する。本明細書の記述に基づいて、当業者は、本明細書で記述された本発明の技術の所定の(現在もしくはその後の)実装もしくは利用に適する広範囲のさらなるモバイルデバイスプラットフォームを理解するであろう。
(複数の)発明が種々の実施形態を参照して記述されてきたが、これらの実施形態は単に例示的なものにすぎず、(複数の)本発明の範囲はそれらに限定されることはないことを理解されたい。多くの変形、改変、追加および改良が可能である。例えば、カラオケスタイルインターフェイスに従って取込まれたピッチ補正ボーカル演奏が記述されてきたが、他の変形も理解されるであろう。さらに、ある例示的な信号処理術が、ある例示的なアプリケーションに関連して記述されてきたが、当業者は、他の適切な信号処理技術および効果に適応させるために、記述された技術を改変することが簡単であることを認めるであろう。
Claims (48)
- タッチスクリーン、マイクロフォンインターフェイスおよび通信インターフェイスを有するボーカル演奏取込み用の可搬コンピューティングデバイスを利用することと、
前記タッチスクリーン上のユーザ選択に応じて、対応するバッキングトラックおよび歌詞と時間的に同期されたボーカルスコアを、前記通信インターフェイスを介して検索することであって、前記ボーカルスコアは、前記バッキングトラックに対して、ボーカル演奏の少なくとも一部に対する一連のターゲットノートをエンコードする、ことと、
前記可搬コンピューティングデバイスで、前記バッキングトラックを演奏し、それと時間的に対応して、ディスプレイ上に前記歌詞の対応する部分を同時に表示することと、
前記マイクロフォンインターフェイスを介して、前記バッキングトラックと時間的に対応して、前記ユーザのボーカル演奏を取込むことと、
前記ユーザから取込まれたボーカル演奏のドライボーカルバージョンを前記可搬コンピューティングデバイス上で格納し、前記ボーカルスコアに従って、前記可搬コンピューティングデバイスは、前記ユーザから取込まれたボーカル演奏の少なくとも幾つかの部分の連続的リアルタイムピッチシフトを実施し、ならびに、結果として生じるピッチシフトされた前記ユーザのボーカル演奏を前記バッキングトラックの前記演奏とミキシングする、ことと、
前記ユーザから取込まれたボーカル演奏と少なくとも一つのボーカルエフェクトスケジュールを適用することであって、前記ボーカルエフェクトスケジュールは、前記ユーザのボーカル演奏の其々一つ以上の部分に適用するための、スペクトルイコライゼーション、音声圧縮、ステレオディレイおよびリバーブエフェクトの一つ以上に対する複数の設定および/もしくはパラメータのコンピュータ可読エンコーディングを含む、ことと、
を含む、
ことを特徴とする方法。 - 前記ボーカルエフェクトスケジュールは、前記バッキングトラックもしくは歌詞と時間的に対応して、前記ユーザのボーカル演奏の其々の部分へ適用するための異なる複数のエフェクトを符号化する、
ことを特徴とする請求項1に記載の方法。 - 前記ボーカルエフェクトスケジュールは、特定の音楽様式に特徴的である、
ことを特徴とする請求項1もしくは2のいずれか一項に記載の方法。 - 前記ボーカルエフェクトスケジュールは、特定のアーティスト、曲もしくは演奏に特徴的である、
ことを特徴とする請求項1もしくは2のいずれか一項に記載の方法。 - 前記ボーカルエフェクトスケジュールの少なくとも一部の購入もしくはライセンスを前記可搬コンピューティングデバイスから取引することをさらに含む、
ことを特徴とする請求項1から4のいずれか一項に記載の方法。 - 前記取引の促進において、前記ボーカルエフェクトスケジュールのコンピュータ可読エンコーディングを、前記通信インターフェイスを介して検索するか、または、前記ボーカルエフェクトスケジュールのコンピュータ可読エンコーディングの既存の格納されたインスタンスをロック解除することをさらに含む、
ことを特徴とする請求項5に記載の方法。 - 前記ボーカルスコアと、前記ユーザから取込まれたボーカル演奏の少なくとも一部との対応をコンピュータ処理で評価することと、メリットの閾値図に基づいて、前記ボーカルエフェクトスケジュールの少なくとも一部に対するライセンスもしくはアクセスを前記ユーザに与えることと、をさらに含む、
ことを特徴とする請求項1から6のいずれか一項に記載の方法。 - 前記ボーカルエフェクトスケジュールは、前記ユーザから取込まれたボーカル演奏の前記ドライボーカルバージョンに対して、その後適用される、
ことを特徴とする請求項1から7のいずれか一項に記載の方法。 - 前記ドライボーカルに対するその後の適用は、前記可搬デバイスで行われ、前記方法は、 ピッチシフトおよびボーカルエフェクトが適用された、前記ユーザから取込まれたボーカル演奏を、前記可搬デバイスで再演奏することをさらに含む、
ことを特徴とする請求項8に記載の方法。 - 遠隔サービスもしくはサーバにおける前記ボーカルエフェクトスケジュールの前記その後の適用のために、前記ユーザから取込まれたボーカル演奏の前記ドライボーカルバージョンの音声信号エンコーディングを、前記通信インターフェイスを介して、前記遠隔サービスもしくはサーバへ伝送することをさらに含む、
ことを特徴とする請求項8に記載の方法。 - 前記遠隔サービスもしくはサーバで組み合わせるべき複数のボーカル演奏のうちの一つを前記ユーザの取込まれたボーカル演奏が構成するオープンコールの指示を、前記伝送された前記ドライボーカルの音声信号エンコーディングに関連付けて、もしくは関連付けるために伝送することをさらに含む、
ことを特徴とする請求項10に記載の方法。 - 前記オープンコールの指示は、前記ユーザのボーカル演奏と演奏するためにミキシングされるべき、さらなる一つ以上のボーカル演奏の、一人以上の他のボーカリストへの請求を行うように前記遠隔サービスもしくはサーバに指示する、
ことを特徴とする請求項11に記載の方法。 - 前記請求は、
前記ユーザによって特定される他の潜在的ボーカリストの列挙型セットと、
前記遠隔サービスもしくはサーバによって定義されるか認識されるアフィニティグループのメンバーと、
前記ユーザのソーシャルネットワーク関係のセットと、
のうちの一つ以上に対して行われる、
ことを特徴とする請求項12に記載の方法。 - 前記オープンコールの指示は、応答するさらなるボーカリストに対する提供のために、一つのさらなるボーカリストの位置、第二のボーカルスコアおよび第二の歌詞のうちの少なくとも一つを特定する、
ことを特徴とする請求項11に記載の方法。 - 前記オープンコール指示は、さらなるボーカリスト位置、前記応答するさらなるボーカリストの前記ボーカル演奏に適用するための第二のボーカルエフェクトスケジュールの少なくとも一つをさらに特定する、
ことを特徴とする請求項14に記載の方法。 - 前記ボーカルエフェクトスケジュールに従って処理された、前記ユーザから取込まれたボーカル演奏のバージョンを前記遠隔サービスもしくはサーバから受信することと、
適用されるボーカルエフェクトとともに、前記ユーザから取込まれたボーカル演奏を前記可搬デバイスで再演奏することと、
をさらに含む、
ことを特徴とする請求項10に記載の方法。 - 前記ボーカルエフェクトスケジュールは、前記演奏が前記ボーカルエフェクトスケジュールを含むように、前記連続的リアルタイムピッチシフトを含む、レンダリングパイプライン内で、前記可搬コンピューティングデバイスで適用される、
ことを特徴とする請求項1から16のいずれか一項に記載の方法。 - 前記ユーザから取込まれたボーカル演奏のユーザ選択された部分のボーカル再取込みを開始するための権利を前記可搬コンピューティングデバイスから取引することをさらに含む、
ことを特徴とする請求項1から17のいずれか一項に記載の方法。 - 前記ボーカルスコアと、前記ユーザから取込まれたボーカル演奏の少なくとも一部との対応をコンピュータ処理で評価することと、
メリットの閾値図に基づいて、前記ユーザから取込まれたボーカル演奏のユーザ選択された部分のボーカル再取り込みを開始するための権利を前記ユーザに与えることと、
をさらに含む、
ことを特徴とする請求項1から18のいずれか一項に記載の方法。 - 前記ピッチシフトは、前記ユーザから取込まれたボーカル演奏に対するピッチの連続的時間ドメイン計算に基づく、
ことを特徴とする請求項1から19のいずれか一項に記載の方法。 - 前記連続的時間ドメインピッチ計算は、前記ユーザの取込まれたボーカル演奏に対応してサンプリングされた信号の現在のブロックに対して計算することを含み、ラグドメインピリオドグラム計算は、前記サンプリングされた信号の解析ウインドウに対する、ある範囲のラグに対する平均振幅差関数(AMDF)もしくは自己相関関数の評価を含む、
ことを特徴とする請求項20に記載の方法。 - 前記ユーザ選択に応じて、前記通信インターフェイスを介して、前記バッキングトラックを検索することもさらに含む、
ことを特徴とする請求項1から21のいずれか一項に記載の方法。 - 前記バッキングトラックは、前記可搬コンピューティングデバイスに対してローカルな記憶装置内に存在し、
前記検索することは、前記ローカルに格納されたバッキングトラックから確認可能な識別子を利用して、前記対応するバッキングトラックおよび歌詞と時間的に同期可能な前記ボーカルスコアを識別する、
ことを特徴とする請求項1から22のいずれか一項に記載の方法。 - 前記バッキングトラックは、インストルメンタルおよびバッキングボーカルのうちの何れかまたはその双方を含み、複数バージョンで演奏され、
前記歌詞に対応して演奏される前記バッキングトラックのバージョンは、モノラルスクラッチバージョンであり、前記ユーザのボーカル演奏の前記連続的リアルタイムピッチシフトによりピッチシフトされた前記ユーザのボーカル演奏とミキシングされる前記バッキングトラックのバージョンは、前記スクラッチバージョンよりも品質もしくは忠実度の高いポリフォニックバージョンである、
ことを特徴とする請求項1から23のいずれか一項に記載の方法。 - 前記可搬コンピューティングデバイスは、
携帯電話と、
パーソナルデジタルアシスタントと、
メディアプレイヤーもしくはゲームデバイスと、
ラップトップコンピュータ、ノートブックコンピュータ、タブレットコンピュータもしくはネットブックの群から選択される、
ことを特徴とする請求項1から24のいずれか一項に記載の方法。 - 前記ディスプレイは、前記タッチスクリーンを含む、
ことを特徴とする請求項1から25のいずれか一項に記載の方法。 - 前記ディスプレイは、前記可搬コンピューティングデバイスにワイヤレスで結合される、
ことを特徴とする請求項1から26のいずれか一項に記載の方法。 - 前記ドライボーカルの前記伝送された音声信号エンコーディングをジオコード化することをさらに含む、
ことを特徴とする請求項11に記載の方法。 - 遠隔デバイスで取込まれた第二のボーカル演奏を含む音声信号エンコーディングを、前記通信インターフェイスを介して、前記遠隔サービスもしくはサーバから受信することと、
前記第二のボーカル演奏を含む演奏に対応して、前記第二のボーカル演奏に対する地理的起源を表示することと、
をさらに含む、
ことを特徴とする請求項28に記載の方法。 - 前記地理的起源を表示することは、地球上の特定の位置から発する演奏を示唆するディスプレイアニメーションによって行われる、
ことを特徴とする請求項29に記載の方法。 - タッチスクリーン、マイクロフォンインターフェイスおよび通信インターフェイスを有する可搬コンピューティングデバイスをボーカル演奏取込み用に利用することと、
前記タッチスクリーン上のユーザ選択に応じて、前記通信インターフェイスを介して、対応するバッキングトラックおよび歌詞と時間的に同期したボーカルスコアを検索することであって、前記ボーカルスコアは、前記バッキングトラックに対して、ボーカル演奏の少なくとも一部に対する一連のターゲットノートをエンコードする、ことと、
前記可搬コンピューティングデバイスで、前記バッキングトラックを演奏すること、ならびにそれと時間的に対応して、ディスプレイ上に前記歌詞の対応する部分を同時に表示することと、
前記マイクロフォンインターフェイスを介して前記バッキングトラックと時間的に対応して、前記ユーザのボーカル演奏を取込むことと、
前記通信インターフェイスを介して、前記ユーザから取込まれたボーカル演奏に適用されるべき少なくとも一つのボーカルエフェクトスケジュールの選択とともに、前記ユーザから取込まれたボーカル演奏のドライボーカルバージョンの音声信号エンコーディングを、遠隔サービスもしくはサーバに伝送することと、
を含む、
ことを特徴とする方法。 - 前記選択されたボーカルエフェクトスケジュールを前記遠隔サービスもしくはサーバで適用することをさらに含む、
ことを特徴とする請求項31に記載の方法。 - 前記可搬コンピューティングデバイスで前記ボーカルスコアに従って、
前記ユーザから取込まれたボーカル演奏の少なくとも幾らかの部分の連続的、リアルタイムピッチシフトを実施することと、前記バッキングトラックの前記演奏へ、結果として生じるピッチシフトされた前記ユーザのボーカル演奏をミキシングすることと、
をさらに含む、
ことを特徴とする請求項31もしくは32のいずれか一項に記載の方法。 - 前記選択されたボーカルエフェクトスケジュールは、前記ユーザのボーカル演奏の其々一つ以上の部分へと適用するための、スペクトルイコライゼーション、音声圧縮、ピッチ補正、ステレオディレイ、およびリバーブエフェクトのうちの一つ以上に対する設定および/もしくはパラメータのコンピュータ可読エンコーディングを含む、
ことを特徴とする請求項31から33のうちのいずれか一項に記載の方法。 - 前記ボーカルエフェクトスケジュールは、特定のアーティスト、曲もしくは演奏に特徴的である、
ことを特徴とする請求項31から34のいずれか一項に記載の方法。 - 前記ボーカルエフェクトスケジュールは、特定の音楽様式に特徴的である、
ことを特徴とする請求項31から35のいずれか一項に記載の方法。 - 前記ボーカルエフェクトスケジュールの少なくとも一部の購入もしくはライセンスを、前記可搬コンピューティングデバイスから取引することをさらに含む、
ことを特徴とする請求項31から36のいずれか一項に記載の方法。 - 前記ボーカルスコアと、前記ユーザから取込まれたボーカル演奏の少なくとも一部との対応をコンピュータ処理で評価することと、メリットの閾値図に基づいて、前記ボーカルエフェクトスケジュールの少なくとも一部に対するライセンスもしくはアクセスを前記ユーザに与えることと、
をさらに含む、
ことを特徴とする請求項31から37のいずれか一項に記載の方法。 - 前記ボーカル演奏の選択された部分を再取込みするための権利を前記可搬コンピューティングデバイスから取引することをさらに含む、
ことを特徴とする請求項31から38のいずれか一項に記載の方法。 - 前記ボーカルスコアと、前記ユーザから取込まれたボーカル演奏の少なくとも一部との対応をコンピュータ処理で評価することと、メリットの閾値図に基づいて、前記ボーカル演奏の選択された部分を再取り込みするための権利を前記ユーザに与えることと、
をさらに含む、
ことを特徴とする請求項31から38のいずれか一項に記載の方法。 - マイクロフォンインターフェイスと、音声トランスデューサインターフェイスと、データ通信インターフェイスと、
バッキングトラックに対して選択的なユーザインターフェイスジェスチャーを取込み、それに対応して少なくともボーカルスコアの検索を開始するように、可搬コンピューティングデバイス上で実行可能なユーザインターフェイス符号であって、前記ボーカルスコアは、前記バッキングトラックに対するボーカル演奏の少なくとも一部に対する一連のノートターゲットをエンコードする、ユーザインターフェイス符号と、
前記ユーザインターフェイス符号は、(i)前記バッキングトラックの演奏と、(ii)ディスプレイ上の歌詞の同時表示と、(iii)前記マイクロフォンインターフェイスを利用する前記ユーザのボーカル演奏の取込みと、(iv)前記取込まれたボーカル演奏のドライボーカルバージョンのコンピュータ可読記憶装置への格納と、を開始するためのユーザインターフェイスジェスチャーを取込むようにさらに実行可能であり、
前記ボーカルスコアに従って、前記取込まれたボーカル演奏の連続的リアルタイムピッチ補正を、前記演奏と同時に前記可搬コンピューティングデバイス上で実行可能なピッチ補正符号と、
前記ユーザのボーカル演奏が取込まれる前記バッキングトラックの前記演奏へ、前記ユーザのピッチシフトされたボーカル演奏をミキシングするように実行可能なレンダリングパイプラインであって、前記レンダリングパイプラインは、前記ユーザから取込まれたボーカル演奏にボーカルエフェクトスケジュールを適用するようにさらに実行可能であって、前記ボーカルエフェクトスケジュールは、前記ユーザによって選択可能であり、かつ、前記ユーザのボーカル演奏の一つ以上の其々の部分へ適用するためのスペクトルイコライゼーション、音声圧縮、ステレオディレイおよびリバーブエフェクトのうちの一つ以上に対する設定および/もしくはパラメータのコンピュータ可読エンコーディングを含む、レンダリングパイプラインと、
を含む、
ことを特徴とする可搬コンピューティングデバイス。 - 前記ディスプレイをさらに含む、
ことを特徴とする請求項41に記載の可搬コンピューティングデバイス。 - 前記データ通信インターフェイスは、前記ディスプレイに対するワイヤレスインターフェイスを提供する、
ことを特徴とする請求項41か42のいずれか一項に記載の可搬コンピューティングデバイス。 - 前記ユーザインターフェイス符号は、ボーカルエフェクトスケジュールのユーザ選択を示すユーザインターフェイスジェスチャーを取込み、それに応じて、遠隔サービスもしくはサーバにおいて前記選択されたボーカルエフェクトスケジュールのその後の適用のために、前記ユーザから取込まれたボーカル演奏の前記ドライボーカルバージョンの音声信号エンコーディングを、前記データ通信インターフェイスを介して前記遠隔サービスもしくはサーバへと伝送するようにさらに実行可能である、
ことを特徴とする請求項41から43のいずれか一項に記載の可搬コンピューティングデバイス。 - 前記伝送は、前記ドライボーカルの前記音声信号エンコーディングに関連して、もしくは関連付けるために、前記遠隔サービスもしくはサーバで組み合わせられるべき複数のボーカル演奏のうちの一つを前記ユーザから取込まれたボーカル演奏が構成するオープンコールの指示を含む、
ことを特徴とする請求項44に記載の可搬コンピューティングデバイス。 - メリットの閾値図に基づいて、前記ボーカルエフェクトスケジュールの少なくとも一部に対するライセンスもしくはアクセスを前記ユーザに与えるために、前記ボーカルスコアと、前記ユーザの取込まれたボーカル演奏の少なくとも一部との対応を評価するように、前記可搬コンピューティングデバイス上で実行可能な符号をさらに含む、
ことを特徴とする請求項41から45のいずれか一項に記載の可搬コンピューティングデバイス。 - メリットの閾値図に基づいて、前記ボーカル演奏の選択された部分を再取込みするための権利を前記ユーザに与えるために、前記ボーカルスコアと、前記ユーザの取込まれたボーカル演奏の少なくとも一部との対応を評価するように、前記可搬コンピューティングデバイス上で実行可能な符号をさらに含む、
ことを特徴とする請求項41から45のいずれか一項に記載の可搬コンピューティングデバイス。 - ローカル記憶装置をさらに含み、
前記開始された検索は、前記ローカル記憶装置内に、遠隔サーバから入手可能なインスタンスに対応する前記ボーカルスコア情報のインスタンスが、もしあれば、確認することと、
ローカル記憶装置内のインスタンスが利用不可能もしくは古い場合に、前記遠隔サーバから検索することと、を含む、
ことを特徴とする請求項41から47のいずれか一項に記載の可搬コンピューティングデバイス。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261680652P | 2012-08-07 | 2012-08-07 | |
US61/680,652 | 2012-08-07 | ||
PCT/US2013/053851 WO2014025819A1 (en) | 2012-08-07 | 2013-08-06 | Social music system and method with continuous, real-time pitch correction of vocal performance and dry vocal capture for subsequent re-rendering based on selectively applicable vocal effect(s) schedule(s) |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015534095A JP2015534095A (ja) | 2015-11-26 |
JP6371283B2 true JP6371283B2 (ja) | 2018-08-08 |
Family
ID=50068532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015526650A Active JP6371283B2 (ja) | 2012-08-07 | 2013-08-06 | 選択的に適用可能な(複数の)ボーカルエフェクトスケジュールに基づいて、その後で再演奏するために、ボーカル演奏の連続的リアルタイムピッチ補正およびドライボーカル取込を用いるソーシャル音楽システムおよび方法 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP6371283B2 (ja) |
KR (1) | KR102246623B1 (ja) |
WO (1) | WO2014025819A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9324330B2 (en) * | 2012-03-29 | 2016-04-26 | Smule, Inc. | Automatic conversion of speech into song, rap or other audible expression having target meter or rhythm |
EP3029676A1 (en) * | 2014-12-02 | 2016-06-08 | Bellevue Investments GmbH & Co. KGaA | System and method for theme based video creation with real-time effects |
FR3035535A1 (fr) * | 2015-04-27 | 2016-10-28 | Agece | Dispositif de capture de signaux sonores et systeme de capture et de transmission de signaux |
JP7000782B2 (ja) * | 2017-09-29 | 2022-01-19 | ヤマハ株式会社 | 歌唱音声の編集支援方法、および歌唱音声の編集支援装置 |
US11250825B2 (en) * | 2018-05-21 | 2022-02-15 | Smule, Inc. | Audiovisual collaboration system and method with seed/join mechanic |
CN109785820B (zh) * | 2019-03-01 | 2022-12-27 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种处理方法、装置及设备 |
CN111326132B (zh) * | 2020-01-22 | 2021-10-22 | 北京达佳互联信息技术有限公司 | 音频处理方法、装置、存储介质及电子设备 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3900580B2 (ja) * | 1997-03-24 | 2007-04-04 | ヤマハ株式会社 | カラオケ装置 |
JP3984830B2 (ja) * | 2001-12-18 | 2007-10-03 | Necビッグローブ株式会社 | カラオケ配信システム、カラオケ配信方法、及びカラオケ配信プログラム |
JP4224450B2 (ja) * | 2004-12-03 | 2009-02-12 | ソフトバンクモバイル株式会社 | 移動体通信端末及びプログラム |
US7825321B2 (en) * | 2005-01-27 | 2010-11-02 | Synchro Arts Limited | Methods and apparatus for use in sound modification comparing time alignment data from sampled audio signals |
WO2006079813A1 (en) * | 2005-01-27 | 2006-08-03 | Synchro Arts Limited | Methods and apparatus for use in sound modification |
US20070098368A1 (en) * | 2005-11-02 | 2007-05-03 | Thomas Carley | Mobile recording studio system |
US8315396B2 (en) * | 2008-07-17 | 2012-11-20 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Apparatus and method for generating audio output signals using object based metadata |
JP5331494B2 (ja) * | 2009-01-19 | 2013-10-30 | 株式会社タイトー | カラオケサービスシステム、端末装置 |
US8290769B2 (en) * | 2009-06-30 | 2012-10-16 | Museami, Inc. | Vocal and instrumental audio effects |
US8983829B2 (en) * | 2010-04-12 | 2015-03-17 | Smule, Inc. | Coordinating and mixing vocals captured from geographically distributed performers |
US9147385B2 (en) * | 2009-12-15 | 2015-09-29 | Smule, Inc. | Continuous score-coded pitch correction |
US20120089390A1 (en) * | 2010-08-27 | 2012-04-12 | Smule, Inc. | Pitch corrected vocal capture for telephony targets |
-
2013
- 2013-08-06 KR KR1020157005988A patent/KR102246623B1/ko active IP Right Grant
- 2013-08-06 WO PCT/US2013/053851 patent/WO2014025819A1/en active Application Filing
- 2013-08-06 JP JP2015526650A patent/JP6371283B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
KR20150067139A (ko) | 2015-06-17 |
JP2015534095A (ja) | 2015-11-26 |
WO2014025819A1 (en) | 2014-02-13 |
KR102246623B1 (ko) | 2021-04-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10229662B2 (en) | Social music system and method with continuous, real-time pitch correction of vocal performance and dry vocal capture for subsequent re-rendering based on selectively applicable vocal effect(s) schedule(s) | |
US11074923B2 (en) | Coordinating and mixing vocals captured from geographically distributed performers | |
US11545123B2 (en) | Audiovisual content rendering with display animation suggestive of geolocation at which content was previously rendered | |
US11670270B2 (en) | Social music system and method with continuous, real-time pitch correction of vocal performance and dry vocal capture for subsequent re-rendering based on selectively applicable vocal effect(s) schedule(s) | |
US8682653B2 (en) | World stage for pitch-corrected vocal performances | |
JP6371283B2 (ja) | 選択的に適用可能な(複数の)ボーカルエフェクトスケジュールに基づいて、その後で再演奏するために、ボーカル演奏の連続的リアルタイムピッチ補正およびドライボーカル取込を用いるソーシャル音楽システムおよび方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160802 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7426 Effective date: 20171002 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171024 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20180122 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180320 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180612 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180712 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6371283 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |