JP2009536368A - 歌曲を歌詞と並べる方法及び電気デバイス - Google Patents

歌曲を歌詞と並べる方法及び電気デバイス Download PDF

Info

Publication number
JP2009536368A
JP2009536368A JP2009508589A JP2009508589A JP2009536368A JP 2009536368 A JP2009536368 A JP 2009536368A JP 2009508589 A JP2009508589 A JP 2009508589A JP 2009508589 A JP2009508589 A JP 2009508589A JP 2009536368 A JP2009536368 A JP 2009536368A
Authority
JP
Japan
Prior art keywords
lyrics
fragment
fragments
song
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009508589A
Other languages
English (en)
Other versions
JP2009536368A5 (ja
Inventor
ヨハンネス エイチ エム コルスト
ヒェイス ヒェレインセ
ステフェン シー パウス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2009536368A publication Critical patent/JP2009536368A/ja
Publication of JP2009536368A5 publication Critical patent/JP2009536368A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/061Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/011Lyrics displays, e.g. for karaoke applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

歌曲を歌詞と並べる方法であって、この方法は、前記歌曲の歌詞中の類似の歌詞フラグメントのグループCの各歌詞フラグメントを、前記歌曲の類似のオーディオフラグメントのグループA4のオーディオフラグメントと並べるステップと、前記歌曲の歌詞中の類似の歌詞フラグメントの他のグループV2の各歌詞フラグメントを、前記歌曲の類似のオーディオフラグメントの他のグループA2のオーディオフラグメントと並べるステップとを有する。この方法は、電気デバイスにより実行されることが可能であり、場合により、コンピュータプログラムにより可能である。この方法の態様により決定されたマッピングは、信号の態様により出力及び受信され、及び/又は、データベースに格納される。

Description

本発明は、歌曲を歌詞と並べる方法に関する。
本発明は、更に、歌曲を歌詞と並べる電気デバイスに関する。
本発明は、また、プログラム可能なデバイスに、歌曲を歌詞と並べる方法を実行させることを可能とするソフトウェアを有するコンピュータプログラムに関する。
本発明は、更に、歌曲のオーディオフラグメントと歌詞フラグメントとの間のマッピングを有するデータベースに関する。
本発明は、また、歌曲のオーディオフラグメントと歌詞フラグメントとの間のマッピングを有する信号に関する。
この方法の態様は、Ye Wang et al (ACM MM'04, October 10-16, 2004, New York, USA)による"LyricAlly: Automatic Synchronization of Acoustic Musical Signals and Textual Lyrics"という論文で知られている。この論文は、音響音楽信号(acoustic music signal)とテキストの歌詞を自動的に並べるための多様なアプローチを提案している。これは、リズム、コーラスの検出及び歌声の検出に関して音楽的に理解し、オーディオ処理に制約を追加するためのテキスト処理を利用し、不要な計算を取り除き、オーディオ処理により洗練されるが、期間の概算を生成する組み合わせモジュールを提案している。特定の構造を持つ歌曲とだけ連動するということが既知の方法の欠点である。
本発明の第1の目的は、未知の構造を持つ歌曲と連動することができる、冒頭の段落に記述されたタイプの電気デバイスを提供することにある。
本発明の第2の目的は、未知の構造を持つ歌曲で用いることができる、冒頭の段落に記述されたタイプの方法を提供することにある。
本発明によれば、第1の目的は、電気回路が、歌曲の歌詞中の類似の歌詞フラグメントのグループの各歌詞フラグメントを、前記歌曲の類似のオーディオフラグメントのグループのオーディオフラグメントと並べ、前記歌曲の歌詞中の類似の歌詞フラグメントの他のグループの各歌詞フラグメントを、前記歌曲の類似のオーディオフラグメントの他のグループのオーディオフラグメントと並べるように構成される、という点において実現される。発明者らは、歌曲の構造が未知である場合には、コーラスがない歌詞フラグメントを独立したものとして考慮することは不十分であるとわかった。なぜならば、特に、インストルメンタルオーディオフラグメント(instrumental audio fragment)の存在のため、歌詞フラグメントをオーディオフラグメントにマッピングするための数学的な問題についての解(solution)の数があまりにも多すぎるからである。
本発明の方法は、例えば、対応するオーディオフラグメントが再生されながら、歌詞フラグメントを表示するために用いられてもよい。代わりに、本発明の方法は、歌曲及び歌詞の自動的なフレーズ毎の、単語毎の、又は音節毎の配列を生成する第1のステップであってもよい。歌曲の歌詞は、例えば、インターネットから検索されてもよい。歌詞フラグメントをオーディオフラグメントと並べることで、歌詞フラグメントとオーディオフラグメントとの間のマッピングを生成してもよく、及び/又は、このマッピングに従って歌曲を再生してもよい。
本発明の電気デバイスの実施形態においては、類似の歌詞フラグメントのグループ及び/又は他のグループは、歌曲の歌詞における、歌詞フラグメント毎の音節の量、ライン毎の音節の量、及び/又は、歌詞フラグメントのリズム体系を比較することにより決定される。これらの3つの特徴、特に、ライン毎の音節の量は、詩の類似性の正確な評価を与える。コーラスは、これらの間での高い単語の繰り返し(high word repetition)を伴う歌詞フラグメントを探すことにより決定されることが可能となる。
類似のオーディオフラグメントのグループ及び/又は他のグループは、調和級数的解析(harmonic progression analysis)により決定される。調和級数的解析は、実験において非常に正しく良く動作することが証明されている。
本発明によれば、第2の目的は、方法が、歌曲の歌詞中の類似の歌詞フラグメントのグループの各歌詞フラグメントを、前記歌曲の類似のオーディオフラグメントのグループのオーディオフラグメントと並べ、前記歌曲の歌詞中の類似の歌詞フラグメントの他のグループの各歌詞フラグメントを、前記歌曲の類似のオーディオフラグメントの他のグループのオーディオフラグメントと並べるステップを有する、という点において実現される。
本発明の方法の実施形態においては、類似の歌詞フラグメントのグループ及び/又は他のグループは、歌曲の歌詞における、歌詞フラグメント毎の音節の量、ライン毎の音節の量、及び/又は、歌詞フラグメントのリズム体系を比較することにより決定される。
類似のオーディオフラグメントのグループ及び/又は他のグループは、調和級数的解析により決定される。
本発明のこれら及び他の態様は、図面を参照することで、一例を経て、はっきりと理解でき、更に明らかにされるだろう。
図中の対応するエレメントは、同一の参照数字で示されている。
歌曲を歌詞と並べる方法は、ステップ1及びステップ3を有する(図1参照)。ステップ1は、歌曲の歌詞における類似の歌詞フラグメントのグループの各歌詞フラグメントを、歌曲の類似のオーディオフラグメントのグループのオーディオフラグメントと並べることを有する。ステップ3は、歌曲の歌詞における類似の歌詞フラグメントの他のグループの各歌詞フラグメントを、歌曲の類似のオーディオフラグメントの他のグループのオーディオフラグメントと並べることを有する。
類似の歌詞フラグメントのグループ及び/又は他のグループは、歌曲の歌詞における、歌詞フラグメント毎の音節の量(例えば、30)、ライン毎の音節の量(例えば、5ラインの或る歌詞フラグメントについて3,10,9,4,4)、及び/又は、歌詞フラグメントのリズム体系を比較することにより決定されてもよい。類似のオーディオフラグメントのグループ及び/又は他のグループは、調和級数的解析により決定される。
方法の一実施形態は、図2を参照して、4つのステップ、即ち、歌曲の歌詞における類似の歌詞フラグメントのグループ及び他のグループを決定するステップ11と、歌曲の類似のオーディオフラグメントのグループ及び他のグループを決定するステップ13と、歌詞フラグメントをオーディオフラグメントにマッピングするステップ15と、マッピングに基づいて歌詞フラグメント及び歌曲を再生するステップ17とを有する。ステップ15とステップ17とのいずれか又は双方は、歌曲の歌詞における歌詞フラグメントを、歌曲のオーディオフラグメントと並べるように考慮されてもよい。
ステップ11の実行においては、コーラスが最初に決定されてから、類似の詩(verse)が決定される。以下の技術がコーラスを決定するために用いられる。
1.(ほとんど)同じように繰り返される歌詞の部分を決定する。
2.曲名が述べられているフラグメントを決定する。
3.各フラグメントの自己相似性(self-similarity)を決定する。
概して、歌曲のコーラスは、同じように繰り返される歌詞の部分であり、曲名を含み、一つの詩よりもより多くの繰り返しを含む。或る歌詞を与えると、いくつかの前処理が、注釈から実際の歌詞(実際に歌われる部分)を識別するために行われてもよい。いくつかの注釈(例えば、誰が歌っているのか、誰が楽曲を作っているのかを特定することをいう)は、歌詞をオーディオと同期させるための関連性がないので、直ちに除去される。他の注釈(例えば、"コーラス"、"2回繰り返す"等)は、歌詞の部分を拡張することになり、コーラスが歌われる度に歌詞中に出現する。
次に、識別は、細分化された歌詞(fragmented lyrics)と細分化されない歌詞(non-fragmented lyrics)との間で行われてもよい。細分化された歌詞は、複数のフラグメントからなり、空白行がフラグメントを分離する。概して、フラグメントは、詩、コーラス、イントロ、間奏等に関連する。歌詞が既に細分化されている場合には、コーラスがこれらのフラグメントの完全な1つにより与えられると推定される。歌詞が細分化される場合には、以下のステップを実行することができる。
1.第一に、各フラグメントについて、(厳密に又は近似的に)曲名を含むか否かが決定される。曲名の近似の発生を探すことは、例えば、歌詞が"I love you"と言う一方で曲名が"I love U"である場合に有用である。全ての種類の可能な限り少ないバリエーションがある。これらの少ないバリエーションから成るために、近似のマッチング技術が適用されてもよい。
2.第二に、フラグメントの各組について、これらがどのくらい似ているかが決定される。この目的を達成するために、最適な配列がフラグメントの各組について決定される。最適な配列は、いずれかのフラグメントにおいて空白の挿入を許容することにより、及びミスマッチを許容することにより、一のフラグメント中の文字と他のフラグメント中の文字とを最大数整合させる配列である。最適な配列は、挿入、削除、及び交換を最小数用いることにより、一のフラグメントを他のフラグメントに変換することに関する。このような最適な配列は、O(nm)の多項式時間で動的計画法(dynamic programming)により構築されることができ、n及びmは、2つのフラグメントの長さである。
3.第三に、各フラグメント内での繰り返しの量が決定される。これは、以下のように実行される。最初に、フラグメント内で完全に同じように繰り返されるサブの文字列(substring)が決定される。拡張(enlarge)することができないサブの文字列(substring)が識別される。このようなサブの文字列は、最大限の広がり(maximum extent)であることが知られている。"the more I want you"をこの最大限の広がりとすると、この際、このサブの文字列の2つの存在(occurrence)は、異なる文字が先行し、異なる文字が後に続くだろう(そうでなければ、最大限の広がりではないだろう)。次に、最小サイズの最大限の広がりの全ての存在(第一の存在を除く)は、フラグメントにおいて今まで存在していない特有の単語(例えば、r#1、r#2等)により繰り返して交換される。これは、最大限の広がりが残らなくなるまで繰り返される。
結果として生じる文字列の長さをオリジナルの文字列の長さにより分割した割合が、フラグメント内での繰り返しの尺度として用いられる。上述の3つの尺度を用いて、恐らくコーラスであるフラグメントが選択される。
歌詞がフラグメント中で繰り返されていない場合には、類似の指示は、可能であれば、コーラスを識別するために未だ用いられる。再び、動的計画法を用いることにより、ほとんど完全に繰り返される歌詞の部分を見つけることができる。この場合においては、コーラスは、一連の完全なライン(complete line)からなることが推定される。局所的配列動的計画法(local alignment dynamic programming)は、一連の完全なラインだけが考慮される方法で適合されてもよい。これは、
Figure 2009536368
の多項式時間で計算でき、nは、歌詞の長さである。より多く又はより少なく完全に繰り返される1又はそれ以上のパーツを与えると、歌詞は、フラグメント中で自動的に繰り返される。
コーラスが決定された後、追加の手がかりが、フラグメント間でのポテンシャル境界(potential border)を見つけるために用いられてもよい。例えば、2つの連続するラインが韻を踏む場合には、高い確実性で同一のフラグメントに属する。加えて、音素の数を数えることができる。結果として生じるフラグメントは、好ましくは、フラグメント毎の複数の音素の繰り返しパターンを示すべきである。
ステップ13の実行においては、調和級数的解析が、類似のオーディオフラグメントを決定するために用いられる。この目的を達成するために、彩度スペクトルが等距離間隔で計算される。最高の成果のために、間隔は、楽曲において単一の小節(single bar)であるべきである。この小節を配置するために、音楽の拍、グローバルテンポ、及びダウンビートを知る必要がある。彩度スペクトルは、全ての12ピッチクラスの尤度スコア(likelihood score)を表す。これらのスペクトルは、オーディオを連続する離散したコード記号に変換するコード記号(即ち、最尤キー)上にマッピングされる。標準近似パターンマッチング(standard approximate pattern matching)を用いて、類似下位配列(similar sub-sequence)は、クラスタにグループ化され、名前でタグ付けされる。
ステップ15の実行においては、歌詞フラグメント(LF;lyrics fragment)及びオーディオフラグメント(AF;audio fragment)の自動配列の問題が、以下の態様により解決される。
所与の歌曲について、1,2,…,nで番号付けされたn個のLF及び1,2,…,mで番号付けされたm個のAFがあると仮定する。ここで、通常、n<mである。更に、LFiのラベルを、l(i)で示し、表記を少し乱用してAFjのラベルをl(j)で示す。配列を見つけるために、全て順序を維持しながら一貫性のあるLFのAFへの割り当て(consistent assignment)を生じる検索ツリーを用いて、検索アプローチが用いられる。
割り当ては、マッピング、即ち、各LFを一のAFに正確に割り当てるa:
Figure 2009536368
である。割り当ては、{1,2,…,n-1}における各LFについてa(i)<=a(i+1)を持つ場合には、順序維持である。割り当ては、完全に一致してラベルを付けられたLFが、完全に一致したラベルを付けられたAFに割り当てられる場合、即ち、LFの各組i,jについて、l(i)=l(j)=>l(a(i))=l(a(j))の場合には、一貫性があると呼ばれる。時々、一貫性のある割り当ては存在しない。この場合においては、不一致が最小数の割り当てが選択される。
非常に多くの場合、順序維持及び一貫性のある割り当ての数は、極めて大きく、時々、数千の割り当てである。連続するLFを同じAFに割り当てることが必要かもしれないが、正確な割り当ては、いつも、最大範囲を持つ特性を持つ、即ちLFがAFに割り当てられる組が最大濃度であることに留意されたい。最大範囲の割り当てのサブの組は、通常、順序維持及び一貫性のある解の完全な組よりも大幅に小さい。結果として生じるサブの組は、通常、10よりも少ない解からなる。
最後に、{d(a(1))/s(1),d(a(2))/s(2),…,d(a(n))/s(n)}における分散は、残りの解のそれぞれについて考慮される。ここで、AFjに対して、d(j)はオーディオフラグメントの期間を示し、LFiに対して、s(i)は歌詞フラグメントにおける音節の数を示す。前提は、最小分散を伴う解が正確な割り当てに対応することである。
他の手がかりは、
・第1のオーディオフラグメントは、通常、インストルメンタルである(特に、比較的短い場合)こと、
・複数のオーディオフラグメントがこれに割り当てられた歌詞フラグメントを取得しない場合に、この際、これらは、好ましくは、同一のラベルを持つべきであること、
・後処理ステップとして、AFjに割り当てられたLFiが、jとその隣の1又はそれ以上とに再割り当てされてもよく、これらの隣がjのような同一のラベルを持つことが提供され、期間/音節のより良い分散を生じさせることが提供されること、
である。
図3は、歌詞フラグメント(LF)のオーディオフラグメント(AF)への割り当ての一例を示している。オーディオフラグメントは、AからAにラベルが付されており、AとAとが類似のオーディオフラグメントのグループである。歌詞フラグメントは、VからV(詩に関する)及びC(コーラスに関する)にラベルが付されており、VとCが類似の歌詞フラグメントのグループである。グループVの各歌詞フラグメントがグループAのオーディオフラグメントにマッピングされ、グループCの各歌詞フラグメントがグループAのオーディオフラグメントにマッピングされる。この例においては、コーラスと詩との間の識別はなされるが、これは要求されない。歌詞が、間奏又は独唱のようなインストルメンタル部分の明確な表示を含む場合には、これらは、歌詞フラグメントとして識別されてもよく、割り当ての実行に用いられてもよい。結果として生じる歌詞ラベルの順序は、また、楽曲の解析に役立つものであってもよい。歌詞の解析に基づいて、歌曲のグローバル構造が知られている場合には、オーディオ信号中の様々なパーツを識別することがより容易になるだろう。
図4は、本発明の電気デバイス31を示している。電気デバイス31は、歌曲の歌詞中の類似の歌詞フラグメントのグループの各歌詞フラグメントを、歌曲の類似のオーディオフラグメントのグループのオーディオフラグメントと並べ、歌曲の歌詞中の類似の歌詞フラグメントの他のグループの各歌詞フラグメントを、歌曲の類似のオーディオフラグメントの他のグループのオーディオフラグメントと並べるように構成された電気回路33を有する。電気デバイス31は、格納手段35、複製手段37、入力39及び/又は出力41を更に有する。電気デバイス31は、専門家向けのデバイス又は固定型又は持ち運び型の音楽プレイヤ等の消費者向けのデバイスであってもよい。電気回路33は、一般目的又はアプリケーション特化のプロセッサであってもよく、コンピュータプログラムを実行可能であってもよい。
格納手段35は、例えば、ハードディスク、固体メモリ、光ディスク読み取り器又は立体画像格納手段を有してもよい。格納手段35は、歌曲のオーディオフラグメントと歌詞フラグメントとの間に少なくとも1つのマッピングを持つデータベースを有してもよい。複製手段37は、例えば、ディスプレイ及び/又はラウドスピーカを有してもよい。並べられた歌曲及び歌詞フラグメントは、複製手段37を介して複製されてもよい。
代わりに、出力41は、外部のディスプレイ(図示されていない)上に歌詞フラグメントを表示するために、及び/又は外部のラウドスピーカ(図示されていない)でオーディオフラグメントを再生するために用いられてもよい。入力39及び出力41は、例えば、ネットワークコネクタ、例えば、USBコネクタ若しくはイーサネット(登録商標)コネクタ、シンチコネクタ(cinch connector)若しくはSCARTコネクタのようなアナログオーディオ及び/若しくはビデオコネクタ、又はHDMI若しくはSPDIFコネクタのようなデジタルオーディオ及び/若しくはビデオコネクタを有してもよい。入力39及び出力41は、無線レシーバ及び/又はトランスミッタを有してもよい。入力39及び/又は出力41は、歌曲のオーディオフラグメントと歌詞フラグメントとの間のマッピングを有する信号をそれぞれ受信及び出力するために用いられてもよい。
本発明が好ましい実施形態に関して説明された一方で、上記で概説された原理の範囲内での変更が当業者により明らかであることが理解されるだろう。それ故、本発明は、好ましい実施形態に限定されず、このような変更を包含することを意図する。本発明は、それぞれ及びあらゆる新規な特性並びに特性のそれぞれ及びあらゆる組み合わせに属する。特許請求の範囲における参照番号は、保護範囲を限定するものではない。"有する"という語の使用及びその活用は、特許請求の範囲に記載されたもの以外の要素の存在を除外しない。要素における単数表記は、複数の要素の存在を除外しない。
本発明は、いくつかの異なるエレメントを有するハードウェアで、及び適切にプログラムされたコンピュータで実行されてもよい。コンピュータプログラムは、フロッピー(登録商標)ディスク等のコンピュータ読み取り可能な媒体に格納された、インターネット等のネットワークを介してダウンロード可能な、又はいかなる他の態様で取引可能な、いかなるソフトウェアを意味するものと理解されるべきである。
本発明の方法のフロー図である。 本発明の方法の一実施形態のフロー図である。 本発明の方法の手段により生成されたマッピングの一例である。 本発明の電気デバイスのブロック図である。

Claims (9)

  1. 歌曲の歌詞中の類似の歌詞フラグメントのグループの各歌詞フラグメントを、前記歌曲の類似のオーディオフラグメントのグループのオーディオフラグメントと並べ、
    前記歌曲の歌詞中の類似の歌詞フラグメントの他のグループの各歌詞フラグメントを、前記歌曲の類似のオーディオフラグメントの他のグループのオーディオフラグメントと並べる、電気回路を有する、電気デバイス。
  2. 類似の歌詞フラグメントのグループ及び/又は他のグループは、前記歌曲の歌詞における、歌詞フラグメント毎の音節の量、ライン毎の音節の量、及び/又は、歌詞フラグメントのリズム体系を比較することにより決定される、請求項1に記載の電気デバイス。
  3. 類似のオーディオフラグメントのグループ及び/又は他のグループは、調和級数的解析により決定される、請求項1に記載の電気デバイス。
  4. 歌曲を歌詞と並べる方法であって、
    前記歌曲の歌詞中の類似の歌詞フラグメントのグループの各歌詞フラグメントを、前記歌曲の類似のオーディオフラグメントのグループのオーディオフラグメントと並べるステップと、
    前記歌曲の歌詞中の類似の歌詞フラグメントの他のグループの各歌詞フラグメントを、前記歌曲の類似のオーディオフラグメントの他のグループのオーディオフラグメントと並べるステップとを有する、方法。
  5. 類似の歌詞フラグメントのグループ及び/又は他のグループは、前記歌曲の歌詞における、歌詞フラグメント毎の音節の量、ライン毎の音節の量、及び/又は、歌詞フラグメントのリズム体系を比較することにより決定される、請求項4に記載の方法。
  6. 類似のオーディオフラグメントのグループ及び/又は他のグループは、調和級数的解析により決定される、請求項4に記載の方法。
  7. プログラム可能なデバイスに、請求項4の方法を実行させることが可能なソフトウェアを有する、コンピュータプログラム。
  8. 歌曲のオーディオフラグメントと歌詞フラグメントとの間のマッピングを有し、
    前記マッピングは、請求項4の方法により生成される、データベース。
  9. 歌曲のオーディオフラグメントと歌詞フラグメントとの間のマッピングを有し、
    前記マッピングは、請求項4の方法により生成される、信号。
JP2009508589A 2006-05-08 2007-04-27 歌曲を歌詞と並べる方法及び電気デバイス Pending JP2009536368A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP06113628 2006-05-08
PCT/IB2007/051566 WO2007129250A1 (en) 2006-05-08 2007-04-27 Method and electronic device for aligning a song with its lyrics

Publications (2)

Publication Number Publication Date
JP2009536368A true JP2009536368A (ja) 2009-10-08
JP2009536368A5 JP2009536368A5 (ja) 2010-06-03

Family

ID=38421563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009508589A Pending JP2009536368A (ja) 2006-05-08 2007-04-27 歌曲を歌詞と並べる方法及び電気デバイス

Country Status (5)

Country Link
US (1) US7915511B2 (ja)
EP (1) EP2024965A1 (ja)
JP (1) JP2009536368A (ja)
CN (1) CN101438342A (ja)
WO (1) WO2007129250A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013125188A (ja) * 2011-12-15 2013-06-24 Yamaha Corp 曲編集装置及びプログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009536368A (ja) * 2006-05-08 2009-10-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 歌曲を歌詞と並べる方法及び電気デバイス
US8143508B2 (en) * 2008-08-29 2012-03-27 At&T Intellectual Property I, L.P. System for providing lyrics with streaming music
CN106653037B (zh) * 2015-11-03 2020-02-14 广州酷狗计算机科技有限公司 音频数据处理方法和装置
JP6497404B2 (ja) * 2017-03-23 2019-04-10 カシオ計算機株式会社 電子楽器、その電子楽器の制御方法及びその電子楽器用のプログラム
US10468050B2 (en) 2017-03-29 2019-11-05 Microsoft Technology Licensing, Llc Voice synthesized participatory rhyming chat bot
CN107993637B (zh) * 2017-11-03 2021-10-08 厦门快商通信息技术有限公司 一种卡拉ok歌词分词方法与系统
US11200881B2 (en) * 2019-07-26 2021-12-14 International Business Machines Corporation Automatic translation using deep learning
CN111210850B (zh) * 2020-01-10 2021-06-25 腾讯音乐娱乐科技(深圳)有限公司 歌词对齐方法及相关产品
CN114064964A (zh) * 2020-07-30 2022-02-18 华为技术有限公司 文本的时间标注方法、装置、电子设备和可读存储介质
CN112037764A (zh) * 2020-08-06 2020-12-04 杭州网易云音乐科技有限公司 一种音乐结构的确定方法、装置、设备及介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003280670A (ja) * 2002-03-27 2003-10-02 Sanyo Electric Co Ltd データ作成装置およびデータ作成方法
WO2004090752A1 (en) * 2003-04-14 2004-10-21 Koninklijke Philips Electronics N.V. Method and apparatus for summarizing a music video using content analysis
WO2005004002A2 (fr) * 2003-06-25 2005-01-13 France Telecom Procede de traitement d’une sequence sonore, telle qu’un morceau musical
JP2006071931A (ja) * 2004-09-01 2006-03-16 Fyuutorekku:Kk 音楽データ加工方法、音楽データ加工装置、音楽データ加工システム及びコンピュータプログラム
US20060112812A1 (en) * 2004-11-30 2006-06-01 Anand Venkataraman Method and apparatus for adapting original musical tracks for karaoke use
JP2007213058A (ja) * 2006-02-10 2007-08-23 Samsung Electronics Co Ltd 歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置、システム、及びその方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2925754B2 (ja) 1991-01-01 1999-07-28 株式会社リコス カラオケ装置
CA2206922A1 (en) 1997-06-02 1998-12-02 Mitac Inc. Method and apparatus for generating musical accompaniment signals at a lower storage space requirement
US20010042145A1 (en) * 1998-04-27 2001-11-15 Jennifer Frommer Method for combining multimedia data with audio data from a compact disk
JP3743231B2 (ja) * 1999-11-26 2006-02-08 ヤマハ株式会社 曲データ表示制御装置及び方法
DE10058811A1 (de) * 2000-11-27 2002-06-13 Philips Corp Intellectual Pty Verfahren zur Identifizierung von Musikstücken
US20040011188A1 (en) * 2002-03-07 2004-01-22 Smith Larry W. Karaoke keyboard synthesized lyric maker
US20040266337A1 (en) * 2003-06-25 2004-12-30 Microsoft Corporation Method and apparatus for synchronizing lyrics
KR100541215B1 (ko) 2003-11-24 2006-01-10 (주)테일러테크놀로지 디지탈 오디오파일의 가사제공시스템
KR100658869B1 (ko) * 2005-12-21 2006-12-15 엘지전자 주식회사 음악생성장치 및 그 운용방법
JP2009536368A (ja) * 2006-05-08 2009-10-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 歌曲を歌詞と並べる方法及び電気デバイス
US7977562B2 (en) * 2008-06-20 2011-07-12 Microsoft Corporation Synthesized singing voice waveform generator

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003280670A (ja) * 2002-03-27 2003-10-02 Sanyo Electric Co Ltd データ作成装置およびデータ作成方法
WO2004090752A1 (en) * 2003-04-14 2004-10-21 Koninklijke Philips Electronics N.V. Method and apparatus for summarizing a music video using content analysis
WO2005004002A2 (fr) * 2003-06-25 2005-01-13 France Telecom Procede de traitement d’une sequence sonore, telle qu’un morceau musical
JP2006071931A (ja) * 2004-09-01 2006-03-16 Fyuutorekku:Kk 音楽データ加工方法、音楽データ加工装置、音楽データ加工システム及びコンピュータプログラム
US20060112812A1 (en) * 2004-11-30 2006-06-01 Anand Venkataraman Method and apparatus for adapting original musical tracks for karaoke use
JP2007213058A (ja) * 2006-02-10 2007-08-23 Samsung Electronics Co Ltd 歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置、システム、及びその方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013125188A (ja) * 2011-12-15 2013-06-24 Yamaha Corp 曲編集装置及びプログラム

Also Published As

Publication number Publication date
EP2024965A1 (en) 2009-02-18
CN101438342A (zh) 2009-05-20
WO2007129250A1 (en) 2007-11-15
US20090120269A1 (en) 2009-05-14
US7915511B2 (en) 2011-03-29

Similar Documents

Publication Publication Date Title
JP2009536368A (ja) 歌曲を歌詞と並べる方法及び電気デバイス
US6225546B1 (en) Method and apparatus for music summarization and creation of audio summaries
CN101689225B (zh) 生成音乐小样和识别相关的歌曲结构
CN112382257B (zh) 一种音频处理方法、装置、设备及介质
CN108268530B (zh) 一种歌词的配乐生成方法和相关装置
JP2002014691A (ja) ソース音声信号内の新規点の識別方法
Maddage Automatic structure detection for popular music
CN105740394A (zh) 歌曲生成方法、终端及服务器
CN108257588B (zh) 一种谱曲方法及装置
US10957293B2 (en) Systems, devices, and methods for varying musical compositions
CN113836344A (zh) 个性化歌曲文件生成方法和装置、音乐演唱设备
Shenoy et al. Key, chord, and rhythm tracking of popular music recordings
CN109841203B (zh) 一种电子乐器音乐和声确定方法及系统
KR20060019096A (ko) 허밍 기반의 음원 질의/검색 시스템 및 그 방법
CN113178182A (zh) 信息处理方法、装置、电子设备及存储介质
CN111863030A (zh) 音频检测方法及装置
Müller et al. Content-based audio retrieval
Das et al. Analyzing and classifying guitarists from rock guitar solo tablature
CN115329125A (zh) 一种歌曲串烧拼接方法和装置
CN105630831A (zh) 哼唱检索方法及系统
KR20120075185A (ko) 음악 창작 서비스 서버, 음악 창작 서비스 방법 및 그 방법을 실행하기 위한 프로그램 기록매체
CN110517655B (zh) 一种旋律生成方法及系统
JP6496998B2 (ja) 演奏情報編集装置および演奏情報編集プログラム
Aucouturier et al. Using long-term structure to retrieve music: Representation and matching
CN111179890B (zh) 语音伴奏方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100416

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100416

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121204