JP2007213058A - 歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置、システム、及びその方法 - Google Patents

歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置、システム、及びその方法 Download PDF

Info

Publication number
JP2007213058A
JP2007213058A JP2007018826A JP2007018826A JP2007213058A JP 2007213058 A JP2007213058 A JP 2007213058A JP 2007018826 A JP2007018826 A JP 2007018826A JP 2007018826 A JP2007018826 A JP 2007018826A JP 2007213058 A JP2007213058 A JP 2007213058A
Authority
JP
Japan
Prior art keywords
character string
extracting
lyrics
lyric
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007018826A
Other languages
English (en)
Inventor
Sung-Jung Cho
誠 貞 趙
Shokei Sai
崔 昌 圭
Hye-Jeong Lee
▲へ▼ 汀 李
Yeun-Bae Kim
淵 培 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2007213058A publication Critical patent/JP2007213058A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/061Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/011Lyrics displays, e.g. for karaoke applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/151Thumbnail, i.e. retrieving, playing or managing a short and musically relevant song preview from a library, e.g. the chorus
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S707/00Data processing: database and file management or data structures
    • Y10S707/912Applications of a database
    • Y10S707/913Multimedia
    • Y10S707/916Audio

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

【課題】 歌詞を分析して繰り返される文字列及びパラグラフを抽出して、歌詞についての情報をツリー構造で提供する歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置、システム、及びその方法を提供する。
【解決手段】 オーディオファイルのメタデータから歌詞情報を抽出する歌詞抽出部と、抽出された歌詞情報に基づいて、間奏区間及び繰り返される文字列を抽出する文字列情報抽出部と、抽出された繰り返される文字列に基づいてパラグラフを抽出し、抽出されたパラグラフのうち、同じ繰り返しパターンを持つパラグラフの集合を抽出するパラグラフ抽出部と、オーディオファイルに対する間奏区間、文字列及びパラグラフをツリー構造で生成して提供する歌詞構造生成部とを備える。
【選択図】 図7

Description

本発明は、歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置、システム、及びその方法に係り、より詳細には、歌詞を分析して繰り返される文字列及びパラグラフを抽出して、歌詞についての情報をツリー構造で提供する歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置、システム、及びその方法に関する。
最近デジタル方式でエンコーディングされたオーディオファイルを再生できる携帯用オーディオファイルプレーヤーの使用はありふれたことである。すなわち、半導体メモリ装置上に保存されたデジタル方式でエンコーディングされたオーディオファイルを処理できる比較的小型のハンドヘルド装置が評判になった。
また、携帯用オーディオファイルプレーヤーでより一層データ保存容量に対する需要が増加するにつれて、小型化された大容量ハードドライブを含む次世代プレーヤーが開発されて評判になっている。
オーディオファイルプレーヤーでデジタルオーディオファイルは、まずそのデータをオーディオCD、インターネット、または他のデジタルオーディオ装置からパソコンにダウンロードすることでデータ保存装置にローディングされる。その後、このデータは、普通は選択されたエンコーディングフォーマットによって圧縮されて、そのオーディオファイルプレーヤーと関連したデータ保存装置にローディングされる。
また、オーディオファイルは、再生中に選択されたエンコーディングフォーマットによって、オーディオファイルプレーヤーにより圧縮解除/デコーディングされる。オーディオファイルの圧縮及び圧縮解除のための各種のエンコーディングフォーマットが利用可能である。このようなエンコーディングフォーマットには、MP3及びMP3Proがあるが、これに限定されるものではない。
MP3エンコーディングされたオーディオファイルファイルの場合、データファイルにはID3タグという特別なフレームセットが先頭または後端に付加される。ここで、ID3タグは、説明テキストとオーディオファイルと関連した他のデータを含む。例えば、ID3タグは、音楽題目(Title)、アーティスト(Artist)、アルバム名(Album)、作曲年度(Year)、音楽ジャンル(Genre)、及びコメント(Comment)などの情報を含むことができる。ID3タグ情報はID3タグに含まれた情報に基づいて、特定のオーディオファイルファイルを検索、分類及び選択するのに有効であり、また、ID3タグ情報がたびたびテキスト文字として保存されているために、この情報は、オーディオファイルプレーヤーのディスプレイ画面に表示されうる。
しかし、技術の発展と共にいろいろな独立した機器が一つで統合されて行く傾向にあり、その大きさはかえって小型化される傾向にある。これにより、オーディオファイルプレーヤーの大きさも徐々に小型化されてディスプレイの大きさが小さくなるにつれて、ディスプレイを見ながら小さくて稠密に配列されているボタンを操作して曲目を選択することは、ユーザに相当な面倒さを誘発させるという問題点がある。
また、オーディオファイルプレーヤーに保存されたオーディオファイルの数が多くなるにつれて、ユーザが聞こうとするオーディオファイルを検索するには長時間がかかるという問題点がある。
これに、ユーザが検索しようとするオーディオファイルを効率的に検索するために、曲名、歌手の名前全体あるいはイニシャルに対する音声認識を通じてオーディオファイルを提供する方法、ハミングのような音楽のメロディを利用した検索方法、及びオーディオファイルの特性を表現するフィンガープリントを作成して現在音楽と類似した特徴(歌手/アルバム/メロディ)を持つオーディオファイルを提供する方法が利用されている。
しかし、前記のような方法をユーザが所有しているオーディオファイルの分類及び特徴に依存して検索を行い、ユーザが検索しようとするファイルに対して完全な形態の情報を記憶していなければならない。
また、ユーザが利用を所望するオーディオファイルを直接再生させて確認する場合、オーディオファイルの最初の部分(すなわち、オーディオファイルの前奏部分)から再生されることによって、ユーザは再生されているオーディオファイルを認知するのに長時間がかかるという問題点がある。
特許文献1は、MP3方式でオーディオデータをCDなどの記録媒体に収録する時、あらかじめ各曲のイントロ、歌詞の繰り返し部分などの曲特徴部分をID3タグデータ中に記録しておき、プレーヤーを再生すれば、ID3タグデータのうち特定の項目を検索し、曲特徴部分を含む検索情報リストを作成するオーディオプレーヤーを開示しているが、これは、該当オーディオファイルの情報に基づいてツリー構造を生成し、ユーザのサービス要請時に生成されたツリー構造の情報を利用して該当サービス区間を提供する技術については全く言及していない。
日本公開特許2002−074911号公報
本発明は、所定の歌詞情報を分析して繰り返される文字列及びパラグラフを抽出して、歌詞についての情報をツリー構造で提供するところにその目的がある。
本発明の他の目的は、抽出された歌詞構造に基づいて歌詞の主題部を提供することによって、オーディオファイルの選曲にかかる時間を短縮させることである。
本発明の目的は、以上で言及した目的に制限されず、言及されていない他の目的は下の記載から当業者に明確に理解されうる。
前記目的を達成するために、本発明の一実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置は、オーディオファイルのメタデータから歌詞情報を抽出する歌詞抽出部と、前記抽出された歌詞情報に基づいて、間奏区間及び繰り返される文字列を抽出する文字列情報抽出部と、前記抽出された繰り返される文字列に基づいてパラグラフを抽出し、前記抽出されたパラグラフのうち、同じ繰り返しパターンを持つパラグラフの集合を抽出するパラグラフ抽出部と、前記オーディオファイルに対する間奏区間、文字列及びパラグラフをツリー構造で生成して提供する歌詞構造生成部と、を備える。
また、本発明の一実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する方法は、オーディオファイルのメタデータから歌詞情報を抽出するステップと、前記抽出された歌詞情報に基づいて間奏区間及び繰り返される文字列を抽出するステップと、前記抽出された繰り返される文字列に基づいてパラグラフを抽出するステップと、前記抽出されたパラグラフのうち、同じ繰り返しパターンを持つパラグラフの集合を抽出するステップと、前記オーディオファイルに対する間奏区間、文字列及びパラグラフをツリー構造で生成するステップと、を含む。
その他の実施例の具体的な事項は詳細な説明及び図面に含まれている。
本発明の歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置、システム、及びその方法によれば、次のような効果が一つあるいはそれ以上ある。
所定オーディオファイルに対する歌詞を分析して繰り返される文字列及びパラグラフを抽出して、歌詞についての情報をツリー構造で提供することによって、ユーザのサービス要請時にさらに迅速で好適な区間を提供できる。
また、抽出された歌詞構造に基づいてユーザのオーディオファイル検索要請時に歌詞の主題部を提供することによって、ユーザがオーディオファイルを選曲するのにかかる時間を短縮できる。
また、歌詞に基づいて繰り返される文字列及びパラグラフを抽出することによって、音楽信号の波形を分析する方法に比べて主題部の抽出時に時間及び計算量を低減できる。
本発明の利点及び特徴、そしてこれを達成する方法は添付された図面に基づいて詳細に後述されている実施例を参照すれば明確になる。しかし、本発明は以下で開示される実施例に限定されるものではなく、この実施例から外れて多様な形に具現でき、本明細書で説明する実施例は本発明の開示を完全にし、本発明が属する技術分野で当業者に発明の範ちゅうを完全に報せるために提供されるものであり、本発明は請求項及び発明の詳細な説明によってのみ定義される。一方、明細書全体に亙って同一な参照符号は同一な構成要素を示す。
以下、添付された図面を参照して本発明の望ましい実施形態を詳細に説明する。
図1は、本発明の一実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置の内部ブロック図を示すものである。本発明で歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置は、所定オーディオデータを再生できる携帯用装置を例として説明する。ここで、携帯用装置は、携帯電話、PAD(Personal Digital Assistants)及びMP3(MPEG Audio Layer−3)などをいう。
図示したように、歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置は、歌詞抽出部110、前処理部120、文字列情報抽出部130、パラグラフ抽出部140、歌詞構造生成部150、及び制御部160を備えて構成される。
この時、本実施例で使われる“部”という用語は、ソフトウェアまたはFPGAまたはASICのようなハードウェア構成要素を意味し、“部”は所定の役割を行う。しかし、“部”はソフトウェアまたはハードウェアに限定されるものではない。“部”はアドレッシングできる保存媒体に位置すべく構成されても良く、1つまたはそれ以上のプロセッサーを再生させるように構成されても良い。したがって、一例として“部”はソフトウェア構成要素、オブジェクト向けソフトウェア構成要素、クラス構成要素及びタスク構成要素のような構成要素と、プロセス、関数、属性、プロシージャー、サブルーチン、プログラムコードのセグメント、ドライバー、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ及び変数を含む。構成要素と“部”内で提供される機能はより少数の構成要素及び“部”に結合されるか、追加的な構成要素と“部”にさらに分離されうる。のみならず、構成要素及び“部”はディバイスまたは保安マルチメディアカード内の1つまたはそれ以上のCPUを再生させるように具現されることもある。
歌詞抽出部110は、オーディオファイルのメタデータから歌詞情報を抽出する。
例えば、歌詞抽出部110は、ID3タグバージョン2、及びウォーターマークなどで保存されているメタデータから歌詞情報を抽出する。
前処理部120は、歌詞抽出部110から抽出した歌詞情報に含まれている付加情報を削除する。ここで、付加情報は、歌詞情報を除外したあらゆる情報であり、例えば、特殊文字(すなわち、−、_、()、<>、及び…など)、文章符号(すなわち、’、及び”など)及び空いている空間(すなわち、分かち書き)などをいう。
また、前処理部120は、英文の大小文字をいずれも小文字に変換する前処理を行い、歌詞情報のうちラップ部分を含む文字列を探して歌詞情報から分離する前処理を行う。ここで、前処理部120は、歌詞情報と共に提供される時間情報及び文字列に含まれた音節の数を通じてラップ部分を判断する。以下、図2で前処理を行う例を後述する。
文字列情報抽出部130は、前処理部120を通じて前処理された歌詞情報に基づいて、間奏区間及び歌詞情報から繰り返される文字列を抽出する。ここで、歌詞情報は所定の文字列単位で提供され、文字列情報抽出部130は、それぞれの文字列に基づいて間奏区間及び繰り返される文字列を抽出する。また、文字列情報抽出部130は、間奏区間抽出部131、及び文字列繰り返し回数抽出部132を備えて構成される。
間奏区間抽出部131は、歌詞情報内から間奏区間に対するキーワードを抽出するものであり、文字列内のキーワードと同じ単語を抽出する。ここで、キーワードは、‘間奏中’‘間奏’、及び‘interlude’と理解されうる。以下、図3で、歌詞情報内から間奏区間に対するキーワードを抽出する例を後述する。
文字列繰り返し回数抽出部132は、各文字列の相互間の距離を計算して繰り返す文字列を抽出するものであり、ここで相互間の距離は、文字列間の同一如何、及び文字列間の重なる程度(すなわち、類似度)などを比較して、所定臨界値以上(例えば、70%)ならば、同一であると判断する。また、文字列繰り返し回数抽出部132は、各文字列の相互間の距離を計算するために、下記の(式1)及び(式2)を利用する。
下記の(式1)は、音節の数がIである第1文字列Sと、音節の数がJである第2文字列Sとの間の相互距離sim(SI,SJ)を計算する公式である。
Figure 2007213058
ここで、
Figure 2007213058
は、比較される二つの文字列内に含まれた音節のうち、同じ音節の数であり、max(I,J)は、比較される二つの文字列のうち、音節の数が多い文字列内に含まれた音節の数である。また、文字列間の相互距離を計算した結果値が70%以上である場合、比較した二つの文字列は類似(または同一)していると判断し、相互距離を計算した結果値が70%以下である場合、比較した二つの文字列は類似(または同一)していないと判断する。ここで、計算した結果の値と比較する参照値は70%に固定されず、曲歌詞に含まれたタイピングエラーなどの特性によって調整されうる。
また、比較する各文字列に含まれたそれぞれの音節間の類似度a(i,j)は、下記の(式2)の通りである。
Figure 2007213058
ここで、
Figure 2007213058
は、比較される音節が同一か否かを表すものであり、比較される音節が同じ場合に‘1’の値を持ち、比較される音節が同一でない場合に‘0’の値を持つ。
したがって、(式1)及び(式2)を利用して各文字列の相互間の距離を計算でき、計算された値に基づいて繰り返される文字列を抽出できる。以下、図4で、各文字列の相互間の距離を計算及び繰り返される文字列を抽出する例を後述する。
パラグラフ抽出部140は、文字列情報抽出部130により抽出された繰り返される文字列に基づいてパラグラフを抽出し、抽出されたパラグラフのうち、繰り返しパターンが同じ連続したパラグラフの集合を抽出する。ここで、パラグラフは、同じ繰り返し回数を持つ連続した文字列の集合をいい、同じ繰り返しパターンを持つパラグラフの集合は、‘拡張されたパラグラフ’という。また、パラグラフ抽出部140は、第1パラグラフ抽出部141及び第2パラグラフ抽出部142を備えて構成される。
第1パラグラフ抽出部141は、文字列情報抽出部130により抽出された繰り返される文字列に基づいてパラグラフを抽出する。ここで、パラグラフを抽出するアルゴリズムは、ダイナミックプログラミング探索アルゴリズムを利用する。
例えば、12個の文字列A、B、C、D、E、C、D、E、A、B、C、Dが存在する場合、文字列情報抽出部130を通じて、A文字列は2回、B文字列は2回、C文字列は3回、D文字列は3回、及びE文字列は2回繰り返されることが分かる。
次いで、第1パラグラフ抽出部141は、繰り返される文字列のうち、同じ繰り返し回数を持って連続した文字列をパラグラフとして抽出する。
例えば、連続した文字列C、Dは3回繰り返され、またC文字列とD文字列もそれぞれ3回繰り返されるので、パラグラフとして抽出される。しかし、連続した文字列B、Cの場合には2回繰り返され、文字列Bの繰り返し回数は2回、Cの繰り返し回数は3回であり、互いに繰り返し回数が異なるのでパラグラフとして抽出されない。以下、図5でパラグラフを抽出する例を後述する。
第2パラグラフ抽出部142は、第1パラグラフ抽出部141が抽出したパラグラフのうち、同じ繰り返しパターンを持つパラグラフの集合(以下、‘拡張されたパラグラフ’という)を抽出する。ここで、拡張されたパラグラフは、連続したパラグラフの集合であり、2つ以上のパラグラフを含む。以下、図6を参照して拡張されたパラグラフを抽出する例を後述する。
歌詞構造生成部150は、所定歌詞に対して分析された情報をツリー構造で配置するものである。ここで、ツリー構造で提供される分析された情報は、歌詞内の節(例えば、1節、2節、3節など)情報、題目情報、文字列情報、パラグラフ、及び拡張されたパラグラフなどをいう。以下、図7を参照して、所定歌詞がツリー構造で配置された例を後述する。
制御部160は、歌詞構造生成部150が生成したツリー構造に基づいてユーザの要請に応じるサービスを提供する。
例えば、制御部160は、ユーザのオーディオファイル検索時に該当オーディオファイルの主題部を抽出した後、抽出された主題部を出力するか、ユーザの音楽要約サービス要請時に設定された時間情報に適した区間を出力する。ここで、オーディオファイルの主題部は、ユーザにおいては曲中で最も記憶に残る部分、曲中で最も印象深い部分をいい、作曲者においては強調したい主題を含む部分をいい、歌手においては最も感情を入れて歌う部分をいう。以下、図5Dを参照してオーディオファイルの主題部を抽出する例を後述する。
また、制御部160は、歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置に含まれた各部110ないし150の全般的な動作を制御する。
図2は、本発明の他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置のうち、前処理部を通じて前処理過程を行う例を示す図面である。
図2の(a)に示したように、所定歌詞情報には複数の文字列が存在し、各文字列には複数の音節が含まれている。また、各文字列内には該当文字列が始まる時間情報21が含まれることもある。
図2の(a)に示した歌詞情報のうち、第9文字列の歌詞情報は、‘Fly(Mybaby)世の中が何と言っても’という音節を含む。以後、前処理部120が前処理を行えば、図2の(b)に示したように第9文字列は、‘fly世の中が何と言っても’に変換される。
したがって、前処理過程を通じて空いている空間と、特殊文字及び特殊文字内に含まれた内容は削除され、英文の大小文字は小文字に変換される。
次いで、図2の(b)に示したように第3文字列の開始時間と第4文字列の開始時間とに基づいて、第3文字列に割り当てられた時間内に再生される音節の数を判断する。
判断結果、第3文字列と第4文字列とが再生されるのにかかる時間は類似しているということが分かり、また第3文字列に含まれた音節の数は、第4文字列に含まれた音節の数より多いということが分かる。これに、第3文字列はラップ部分と判断される。
また、第4文字列と第5文字列とを比較した結果、第4文字列と第5文字列とが再生されるのにかかる時間は類似しているということが分かり、また第4文字列に含まれた音節の数は、第5文字列に含まれた音節の数より多いということが分かる。これに、第4文字列はラップ部分と判断される。
したがって、前処理過程を通じて図2の(c)に示したように、ラップ部分(すなわち、第3文字列3、及び第4文字列)は歌詞情報から分離されて別途に処理される。
図3は、本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置のうち、間奏区間抽出部が歌詞情報内から間奏区間に対するキーワードを抽出する例を示す図面である。
図示されたように、間奏区間抽出部131は、複数の文字列で構成された歌詞情報のうち、‘間奏中’というキーワードと同じ単語が存在するかどうかを検索する。ここで、間奏区間抽出部131は、文字列単位でキーワードを検索する。
検索結果、所定の文字列にキーワードと同じ単語が存在すれば、間奏区間抽出部131は、検索されたキーワード(例えば、間奏中)が含まれた文字列に基づいて、歌詞情報を1節、2節、3節に分ける。ここで、歌詞情報を間奏区間を基準に分離した節(例えば、1節、2節、3節)情報は、今後の歌詞構造の生成時に利用される。
図4は、本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置のうち、文字列繰り返し回数抽出部が各文字列の相互間の距離を計算及び繰り返される文字列を抽出する例を示す図面である。
図4Aに図示したように、第1文字列には‘ABCBECD’という音節が含まれており、第2文字列には‘ABABCD’という音節が含まれている。ここで、第1文字列と第2文字列との類似度を測定するために、前記(式2)を利用する。
まず、第1文字列の最初の音節であるAと第2文字列の最初の音節であるAとの類似度を計算すれば、
Figure 2007213058
である。しかし、a(1,0)、a(0,1)及びa(0,0)は定義されていないので、これらは‘0’に見なされる。
一方、第1文字列の最初の音節であるAと第2文字列の最初の音節であるAとは同一であるので、
Figure 2007213058
は1の値を持つ。したがって、a(1,1)は1の値を持つ。
また、第1文字列の6番目音節であるCと第2文字列の3番目音節であるAとの類似度
Figure 2007213058
であるが、a(6,2)、a(5,3)及びa(5,2)は2であり、
Figure 2007213058
は0であるので、a(6,3)は2値を持つ。
すなわち、比較しようとする音節周辺値(例えば、上側、左側、及び対角線方向に位置した値)と比較しようとする音節との同一如何に基づいて、それぞれの音節に対する類似度を求めることができる。
したがって、第1文字列と第2文字列とに含まれたあらゆる音節間の類似度を測定した結果、5値が出る。
これに、結果値5に基づいて同じ音節を検索する過程を説明すれば、図4Aに示したように、文字列繰り返し回数抽出部132は、基準値(例えば、5)の左側方向または上側対角線方向に位置した値のうち、基準値(例えば、5)より大きいか、または同じ値があるかをチェックする。ここで、基準値より大きい値または同じ値が存在する場合、存在する値が位置した方向に移動し、基準値より小さな値が存在する場合には上側対角線方向に移動する。
チェック結果、基準値(例えば、5)より大きいか、または同じ値が存在していないために、上側対角線位置(すなわち、a(6,5))に移動する。また、移動した位置に存在する基準値(例えば、4)と周辺に位置した値とをチェックした結果、基準値より大きいか、または同じ値が存在していないために、上側対角線位置(すなわち、a(5,4))に移動する。
次いで、基準値(例えば、3)の左側方向(すなわち、a(4,4))に基準値と同じ値が存在するので、方向を左側に移動させる。
次いで、基準値の周辺に基準値(例えば、3)より大きい値または同じ値が存在していないため、上側対角線方向に移動し、移動した位置(すなわち、a(3,3))の左側及び上側対角線方向に基準値(例えば、2)と同じ値が存在するので、対角線方向に移動する。
次いで、移動した位置(すなわち、a(2,2))の周辺に基準値(例えば、2)より大きい値または同じ値が存在していないので、上側対角線方向(すなわち、a(1,1))に移動する。
これにより、(式2)を利用して計算された同じ音節の数は5つであり、同じ音節は、移動した位置に存在する音節(すなわち、A、B、B、C、D)である。
したがって、第1文字列及び第2文字列の相互距離を計算するために、(式1)に該当値を代入する。ここで、同じ音節の数である
Figure 2007213058
は5個であり、第1文字列の音節の数は7個、第2文字列に含まれた音節の数は6個であるので、max(I,J)は7になる。
すなわち、
Figure 2007213058
である。したがって、第1文字列と第2文字列との相互距離は71%であるので、類似していると判断する。
図4Bは、前記のように文字列の相互距離に基づいて生成された所定歌詞情報内に含まれた文字列の繰り返し回数を示すテーブルである。
文字列繰り返し回数抽出部132は、各文字列間の相互距離に基づいてそれぞれの文字列に対する繰り返し回数を共に記録したテーブルを生成する。
すなわち、各文字列間の相互距離が70%以上である場合、類似(または同一)していると判断して、文字列の繰り返し回数をチェックし、チェックされた繰り返し回数をテーブル形態で保存する。ここで、文字列の繰り返し回数情報が記録されたテーブルはパラグラフ抽出時に利用される。
図5は、本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置のうち、第1パラグラフ抽出部がパラグラフを抽出する例を示す図面である。
図5Aに図示したように、i軸とj軸とに同じ文字列A、B、C、D、E、C、D、E、B、C、Dが羅列されている。ここで、i軸とj軸とを対角線51で分けた場合、対角線51を基準に上側及び下側は対称であるため、上側部分のみパラグラフを抽出する過程を行い、下側52の部分はパラグラフを抽出する過程を行わない。
また、文字列情報抽出部130を通じてそれぞれの文字列を比較して同じ文字列を検索した結果、対角線方向で同じ値(例えば、1)が連続で現れる文字列が存在する。この時、同じ値(例えば、1)が連続で現れる文字列を‘S’という。
この後、第1パラグラフ抽出部141は、図5Bに示したように行(row)に位置したC文字列に対するパラグラフ如何をチェックする。チェック結果、行に位置したC、D、E文字列と、列に現れたC及びD文字列とに対して‘S’が存在するということが分かる。これに、第1パラグラフ抽出部141は、‘S’に含まれた文字列のうち、小数の文字列をパラグラフ53と選択する。すなわち、行及び列に位置したC、D文字列がパラグラフとなる。
次いで、パラグラフとして抽出が完了した行に境界線54をひいて、境界線54内に含まれたパラグラフとして抽出が完了した行に対する値(すなわち、1)を‘0’に変更する(図5C参照)。
次いで、第1パラグラフ抽出部141は、行(row)に位置したE文字列、及び行の最後に位置したD文字列までパラグラフ抽出を行う。
図5Dは、第1パラグラフ抽出部141が抽出したパネルグラフィックをテーブルで示した図面である。すなわち、所定の文字列に対する繰り返し回数が1以上である文字列をそれぞれのパラグラフで分類しておいた。
例えば、‘goodlady’を含む文字列は11回繰り返されるので、パラグラフ(すなわち、P0)に設定され、‘白い小さな手のあなた/胸騒ぎして’という音節を含む文字列は6回繰り返されるので、パラグラフ(すなわち、P1)に設定される。
また、図5Dを参照して、所定オーディオファイルの主題部を抽出する例を説明する。
例えば、ユーザが所定オーディオファイルを検索しようとする場合には、制御部160は、該当オーディオファイルのツリー構造で該当オーディオファイルの主題部を抽出する。ここで、オーディオファイルの主題部は、ユーザにおいては曲中から最も記憶に残る部分、曲中から最も印象深い部分をいい、作曲者においては強調したい主題を含む部分をいい、歌手においては最も感情を多く載せて歌う部分をいう。以下、図5Dを参照して主題部を抽出する例を後述する。
次いで、抽出された音楽の主題部をユーザに出力することによって、ユーザがさらに迅速で該当音楽を認知できるようにして音楽を選曲する時間を短縮できる。
所定オーディオファイルの主題部を抽出する方法で、各パラグラフ別に下記のような5つの特徴を抽出して利用できる。
第1の特徴は、パラグラフ抽出部140が抽出したパラグラフに基づいて最も多く繰り返されるパラグラフの数から所定パラグラフの繰り返し数を引いたことである。
例えば、図5Dに示したテーブルを参照して説明すれば、最も多く繰り返されるパラグラフの数は11であり、所定パラグラフIDが0である場合、11−11=0になる。また、所定パラグラフDIが1である場合には11−6=5になる。また、所定パラグラフDIが2である場合には11−5=6になる。
第2の特徴は、全体歌詞内に含まれた文字列のうち繰り返される文字列の長さの比率である。
例えば、図5Dに示したテーブルを参照して説明すれば、全体文字列の長さは48であり、P0の文字列の長さは1であり、P1の文字列の長さは2である。したがって、P0の文字列の長さ比率は1/48であり、P1の文字列の長さ比率は2/48である。
第3の特徴は、全体歌詞内に含まれた文字列のうち、特定パラグラフに含まれる文字列をいずれも合わせた長さである。
例えば、P0の文字列の長さは1であり、P1の文字列の長さは2である。この時、P0は11回繰り返されて総文字列の長さが11であり、P1は6回繰り返されて総文字列の長さが12になる。
第4の特徴は、パラグラフが現れたあらゆる節の種類である。
例えば、P0の場合には1節、2節、3節にいずれも現れる。
第5の特徴は、パラグラフが間奏前に始まるか、間奏後に始まるかということである。
以上の5つの特徴を総合的に考慮して、パラグラフ中で繰り返し回数が多く、文字列の長さが長くて、全体歌詞内の文字列長さの総和が大きく、多くの節に出現し、間奏前/後に現れるものを選択して、主題部に抽出する。
このようなパラグラフ間の特徴を比較する方法では、簡単な比較規則を使用することもでき、音楽専門家があらかじめ設定しておいた主題部と比較して、パターン認識技法を使用して比較規則を自動生成することもある。
図6は、本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置のうち、第2パラグラフ抽出部が拡張されたパラグラフを抽出する例を示す図面である。
図示したように、パラグラフIDを2つ(すなわち、n=2)から最大8つ(すなわち、n=8)を順に結合して繰り返し回数をチェックする。ここでは、n=2からn=4まで結合した例を説明する。
Figure 2007213058
したがって、n=2の0,1とn=3の0,1,0との繰り返し回数を比較した結果、繰り返し回数が同一でないので、パラグラフ0,1及びパラグラフ0,1,0は、拡張されたパラグラフ(Extended Paragraph:EP)になる。この後、n=3の0,1,0はn=4の0,1,0,2と再び繰り返し回数を比較せねばならない。
次いで、n=2の1,0とn=3の1,0,2との繰り返し回数を比較した結果、繰り返し回数が同一であるので、n=2の1,0は拡張されたパラグラフではなく、n=3の1,0,2は拡張されたパラグラフになる。この後、n=3の1,0,2はn=4の0,1,0,2と再び繰り返し回数を比較せねばならない。
次いで、n=2の0,2とn=3の0,2,0との繰り返し回数を比較した結果、繰り返し回数が同一であるので、n=2の0,2は拡張されたパラグラフではなく、n=3の0,2,0は拡張されたパラグラフになる。この後、n=3の0,2,0はn=4の1,0,2,0と再び繰り返し回数を比較せねばならない。
次いで、n=3の0,1,0とn=4の0,1,0,2との繰り返し回数を比較した結果、繰り返し回数が同一であるので、n=3の0,1,0は拡張されたパラグラフではなく、n=4の0,1,0,2は拡張されたパラグラフになる。
次いで、n=3の1,0,2と、0,2,0と、及び2,0,1は、n=4の0,1,0,2と、1,0,2,0と、及び0,2,0,1と比較する。比較結果、n=3の1,0,2と、0,2,0と、及び2,0,1はいずれもパラグラフではない。
したがって、n=2ないしn=8に対して拡張されたパラグラフの抽出過程を行った結果、パラグラフ0,1と、0,1,0,2と0,1,0,2,0,1と及び0,1,0,2,0,1,0,2が拡張されたパラグラフになる。
図7は、本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置で、所定歌詞の情報をツリー構造で配置した例を示す図面である。
図示したように、歌詞構造生成部150は、前処理部120、文字列情報抽出部130、及びパラグラフ抽出部140が抽出した所定歌詞についての文字列情報71、拡張されたパラグラフ72、歌詞の節(すなわち、1節、2節、3節など)情報73、及び題目情報74をツリー形態で提供される。
したがって、ユーザのオーディオファイル再生要請時にツリー形態で提供される分析された情報に基づいて、ユーザが所望する区間の情報を直ちに提供でき、またユーザの音楽要約サービス要請時に、ユーザにより指定された時間ほどのオーディオファイルを提供できる。
図8は、本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する方法を示すフローチャートである。
まず、歌詞抽出部110は、オーディオファイルのメタデータから歌詞情報を抽出する(S800)。ここで、歌詞抽出部110は、ID3タグバージョン2、及びウォーターマークなどに保存されているメタデータから題目及び歌詞情報を抽出する。
次いで、抽出された歌詞情報を前処理部120に伝送すれば、前処理部120は、伝送された歌詞情報に前処理を行う(S810)。すなわち、前処理過程を通じて歌詞情報以外の情報である特殊文字(すなわち、−、_、()、<>、及び…など)、文章符号(すなわち、’、及び”など)、空いている空間(すなわち、分かち書き)、及びラップ部分などが削除され、英文の大文字は小文字に変換される。
次いで、文字列情報抽出部130は、前処理部120で前処理した歌詞情報に基づいて、間奏区間及び歌詞情報で繰り返される文字列を抽出する(S820、S830)。
例えば、歌詞情報内に含まれた文字列から間奏区間に対するキーワード(例えば、間奏中)を抽出し、また各文字列の相互間の距離を計算して繰り返される文字列を抽出する。ここで相互間の距離は、文字列間の同一如何、及び文字列間の重なる程度などを比較して、所定臨界値以上(例えば、70%)であれば、同一であると判断する。これについての詳細な説明は、図3及び図4を通じて前述したので、省略する。
次いで、パラグラフ抽出部140は、文字列情報抽出部130により抽出された繰り返される文字列に基づいてパラグラフを抽出する(S840)。ここで、パラグラフを抽出するアルゴリズムは、ダイナミックプログラミング探索アルゴリズムを利用する。
例えば、A文字列は1回、B文字列は2回、C文字列は3回、D文字列は3回、及びE文字列は2回繰り返される場合、パラグラフ抽出部140は、C文字列とD文字列とをパラグラフとして抽出する。これについての詳細な説明は、図5を通じて前述したので省略する。
次いで、第2パラグラフ抽出部142は、第1パラグラフ抽出部141が分類したパラグラフのうち、同じ繰り返しパターンを持つパラグラフ(すなわち、拡張されたパラグラフ)の集合を抽出する(S850)。ここで、拡張されたパラグラフは連続したパラグラフの集合であり、一つ以上のパラグラフを含む。これについての詳細な説明は図6を通じて前述したので省略する。
次いで、歌詞構造生成部150は、所定歌詞に対する歌詞内の節分配(例えば、1節、2節、3節など)、題目情報、文字列情報、及び拡張されたパラグラフなどをツリー構造で配置する(S860)。
例えば、ユーザが所定オーディオファイルを検索しようとする場合には、制御部160は、該当オーディオファイルのツリー構造に基づいて主題部を抽出した後、該当主題部をユーザに出力することによって、ユーザがさらに迅速で該当音楽を認知できるようにして音楽を選曲する時間を短縮させる。
また、ユーザが音楽要約サービスを要請して所定オーディオファイルの聞きたい時間(例えば、20秒)を指定する場合、制御部160は、該当オーディオファイルのツリー構造に基づいて、ユーザにより設定された時間に該当する部分(例えば、20秒に該当する拡張されたパラグラフ部分)を出力する。
図9は、本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出するシステムの内部ブロック図を示す図面である。ここで、本発明で歌詞の繰り返しパターンに基づいて歌詞構造を抽出するシステムを適用した装置としては、所定オーディオデータを再生できるMP3兼用携帯電話を例として説明する。すなわち、歌詞の繰り返しパターンに基づいて歌詞構造を抽出する技術を適用したMP3兼用携帯電話を説明することである。
図示したように、キー入力部200、歌詞構造抽出部100、オーディオファイル管理部300、出力部400、及び制御部500を備えて構成される。
キー入力部200は、ユーザの選択により発生する所定のキー信号が入力される。ここで、キー信号は、通話のための各種機能キー信号、数字キー信号、及びオーディオファイル(例えば、MP3)を再生させるための動作キー(例えば、録音キー、再生及び停止キーなど)信号として理解されうる。
歌詞構造抽出部100は、所定オーディオファイルに対する歌詞を分析して繰り返される文字列を抽出し、抽出された繰り返される文字列に基づいてパラグラフ及び拡張されたパラグラフを抽出した後、該当歌詞についての情報をツリー構造で提供する。ここで、歌詞構造抽出部100は、前記図1で説明した歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置を異なって表現したものである。これに、歌詞構造抽出部100は、図1を通じて前述したので省略する。
オーディオファイル管理部300は、オーディオファイルの保存及び再生などの動作実行を管理するものであり、ここで、オーディオファイルはMP3をいう。また、オーディオファイル管理部300は、D/A(Digital−to−Analog)変換器310、デコーダ320、及びメモリ330を備える。
デコーダ320は、ST Microelectronics社製のSTA013であり、MP3フォーマットで圧縮されたオーディオデータをPCM形態のデータに復元する。
D/A変換器310は、デコーダ320から出力されるPCM形態のオーディオデータをアナログオーディオ信号に変換して、左チャンネルオーディオ信号であるL−オーディオと右チャンネルオーディオ信号であるR−オーディオとを、出力部400を通じて出力する。
メモリ330は、MP3フォーマットに変換されたデジタルオーディオデータ及びそれに関連した付加情報を保存する。
出力部400は、送受信された音声信号及びオーディオファイル管理部300を通じて出力される音響を出力する。
制御部500は、歌詞の繰り返しパターンに基づいて歌詞構造を抽出するシステムに含まれた各部100ないし400の全般的な動作を制御する。
以上、添付図を参照して本発明の実施例を説明したが、本発明が属する技術分野で当業者ならば本発明がその技術的思想や必須特徴を変更せずとも他の具体的な形に実施されうるということが理解できるであろう。したがって、前述した実施例は全ての面で例示的なものであって、限定的なものではないと理解せねばならない。
本発明は、携帯用オーディオファイルプレーヤーに好適に用いられる。
本発明の一実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置の内部ブロック図である。 本発明の他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置のうち、前処理部を通じて前処理過程を行う例を示す図面である。 本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置のうち、間奏区間抽出部が歌詞情報内で間奏区間に対するキーワードを抽出する例を示す図である。 本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置のうち、文字列繰り返し回数抽出部が各文字列の相互間の距離を計算及び繰り返される文字列を抽出する例を示す図である。 本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置のうち、文字列繰り返し回数抽出部が各文字列の相互間の距離を計算及び繰り返される文字列を抽出する例を示す図である。 本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置のうち、第1パラグラフ抽出部がパラグラフを抽出する例を示す図である。 本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置のうち、第1パラグラフ抽出部がパラグラフを抽出する例を示す図である。 本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置のうち、第1パラグラフ抽出部がパラグラフを抽出する例を示す図である。 本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置のうち、第1パラグラフ抽出部がパラグラフを抽出する例を示す図である。 本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置のうち、第2パラグラフ抽出部が拡張されたパラグラフを抽出する例を示す図である。 本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置で、所定歌詞の情報をツリー構造で配置した例を示す図である。 本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出する方法を示すフローチャートである。 本発明のさらに他の実施形態による歌詞の繰り返しパターンに基づいて歌詞構造を抽出するシステムの内部ブロック図を示す図である。
符号の説明
110 歌詞抽出部
120 前処理部
130 文字列情報抽出部
140 パラグラフ抽出部
150 歌詞構造生成部
160 制御部

Claims (12)

  1. オーディオファイルのメタデータから歌詞情報を抽出する歌詞抽出部と、
    前記抽出された歌詞情報に基づいて、間奏区間及び繰り返される文字列を抽出する文字列情報抽出部と、
    前記抽出された繰り返される文字列に基づいてパラグラフを抽出し、前記抽出されたパラグラフのうち、同じ繰り返しパターンを持つパラグラフの集合を抽出するパラグラフ抽出部と、
    前記オーディオファイルに対する間奏区間、文字列及びパラグラフをツリー構造で生成して提供する歌詞構造生成部と、を備える歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置。
  2. 前記文字列情報抽出部は、
    前記抽出された歌詞情報内に含まれた文字列から間奏区間に対するキーワードを抽出する間奏区間抽出部と、
    前記抽出された歌詞情報内に含まれたそれぞれの文字列の相互間の距離を計算して、繰り返す文字列を抽出する文字列繰り返し回数抽出部と、をさらに備える請求項1に記載の歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置。
  3. 前記文字列の相互間の距離を計算する数式は、
    Figure 2007213058
    ここで、
    Figure 2007213058
    は、比較される二つの文字列内に含まれた音節のうち、同じ音節の数であり、max(I,J)は、比較される二つの文字列のうち、音節の数が多い文字列内に含まれた音節の数である請求項2に記載の歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置。
  4. 前記文字列内に含まれた音節間の類似度を計算する数式は、
    Figure 2007213058
    ここで、i及びjは、それぞれの音節を表し、
    Figure 2007213058
    は、比較される音節が同一か否かを表す請求項3に記載の歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置。
  5. 前記パラグラフ抽出部は、
    前記抽出された繰り返される文字列のうち、同じ繰り返し回数を持つ連続した文字列に基づいてパラグラフを抽出する第1パラグラフ抽出部と、
    前記第1パラグラフ抽出部が抽出したパラグラフのうち、同じ繰り返しパターンを持つパラグラフの集合を抽出する第2パラグラフ抽出部と、をさらに備える請求項1に記載の歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置。
  6. 前記抽出された歌詞情報に含まれている付加情報を削除する前処理部と、
    前記生成されたツリー構造に基づいて該当オーディオファイルの主題部を抽出する制御部と、を備える請求項1に記載の歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置。
  7. オーディオファイルのメタデータから歌詞情報を抽出するステップと、
    前記抽出された歌詞情報に基づいて間奏区間及び繰り返される文字列を抽出するステップと、
    前記抽出された繰り返される文字列に基づいてパラグラフを抽出するステップと、
    前記抽出されたパラグラフのうち、同じ繰り返しパターンを持つパラグラフの集合を抽出するステップと、
    前記オーディオファイルに対する間奏区間、文字列及びパラグラフをツリー構造で生成するステップと、を含む歌詞の繰り返しパターンに基づいて歌詞構造を抽出する方法。
  8. 前記歌詞情報から繰り返される文字列を抽出する数式は、
    Figure 2007213058
    ここで、
    Figure 2007213058
    は、比較される二つの文字列内に含まれた音節のうち、同じ音節の数であり、max(I,J)は、比較される二つの文字列のうち、音節の数が多い文字列内に含まれた音節の数である請求項7に記載の歌詞の繰り返しパターンに基づいて歌詞構造を抽出する方法。
  9. 前記文字列内に含まれた音節間の類似度を計算する数式は、
    Figure 2007213058
    ここで、i及びjは、それぞれの音節を表し、
    Figure 2007213058
    は、比較される音節が同一か否かを表す請求項8に記載の歌詞の繰り返しパターンに基づいて歌詞構造を抽出する方法。
  10. 前記抽出された歌詞情報に含まれている付加情報を削除する前処理過程を行うステップをさらに含む請求項7に記載の歌詞の繰り返しパターンに基づいて歌詞構造を抽出する方法。
  11. 前記生成されたツリー構造に基づいて、該当オーディオファイルの主題部を抽出するステップをさらに含む請求項7に記載の歌詞の繰り返しパターンに基づいて歌詞構造を抽出する方法。
  12. ユーザの選択により発生する所定のキー信号が入力されるキー入力部と、
    前記入力されたキー信号がオーディオファイルの要請信号であれば、該当オーディオファイルの動作実行を管理するオーディオファイル管理部と、
    前記オーディオファイルに対する歌詞を分析して繰り返される文字列及びパラグラフを抽出して、歌詞についての情報をツリー構造で提供する歌詞構造抽出部と、を備える歌詞の繰り返しパターンに基づいて歌詞構造を抽出するシステム。
JP2007018826A 2006-02-10 2007-01-30 歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置、システム、及びその方法 Pending JP2007213058A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060013269A KR20070081368A (ko) 2006-02-10 2006-02-10 노래 가사의 반복 패턴을 기초로 가사 구조를 추출하는장치, 시스템, 및 그 방법

Publications (1)

Publication Number Publication Date
JP2007213058A true JP2007213058A (ja) 2007-08-23

Family

ID=38219743

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007018826A Pending JP2007213058A (ja) 2006-02-10 2007-01-30 歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置、システム、及びその方法

Country Status (5)

Country Link
US (1) US7792831B2 (ja)
EP (1) EP1821286B1 (ja)
JP (1) JP2007213058A (ja)
KR (1) KR20070081368A (ja)
CN (1) CN101017502B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009536368A (ja) * 2006-05-08 2009-10-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 歌曲を歌詞と並べる方法及び電気デバイス
KR101039762B1 (ko) * 2009-11-11 2011-06-09 주식회사 금영 가사 데이터를 이용한 노래반주기의 곡 검색방법

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008004134A (ja) * 2006-06-20 2008-01-10 Sony Corp 音楽再生方法および音楽再生装置
US20100251164A1 (en) * 2009-03-30 2010-09-30 Sony Ericsson Mobile Communications Ab Navigation among media files in portable communication devices
JP2011215358A (ja) * 2010-03-31 2011-10-27 Sony Corp 情報処理装置、情報処理方法及びプログラム
US9237386B2 (en) 2012-08-31 2016-01-12 Google Inc. Aiding discovery of program content by providing deeplinks into most interesting moments via social media
US9401947B1 (en) 2013-02-08 2016-07-26 Google Inc. Methods, systems, and media for presenting comments based on correlation with content
CN103440270B (zh) * 2013-08-02 2017-06-09 清华大学 实现音频文件重复模式发现的系统和方法
CN104078063A (zh) * 2014-06-19 2014-10-01 深圳市中兴移动通信有限公司 音频文件播放方法和系统
CN105827510B (zh) * 2016-03-31 2019-03-01 维沃移动通信有限公司 用于移动终端的推送消息处理方法以及移动终端
CN111737961B (zh) * 2020-06-28 2021-08-10 网易(杭州)网络有限公司 一种故事生成的方法、装置、计算机设备和介质
KR102368418B1 (ko) 2020-12-31 2022-03-02 (주)휴에버그린팜 펀치 라인이 포함되는 랩 가사 생성 장치 및 방법
CN112989109A (zh) * 2021-04-14 2021-06-18 腾讯音乐娱乐科技(深圳)有限公司 一种音乐结构分析方法、电子设备及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2000006C (en) * 1989-01-23 1994-07-12 Walter W. Chang Combinatorial signatures for data encoding and searching
JP3324158B2 (ja) 1992-10-09 2002-09-17 ヤマハ株式会社 カラオケ装置
US5986200A (en) 1997-12-15 1999-11-16 Lucent Technologies Inc. Solid state interactive music playback device
US6979769B1 (en) 1999-03-08 2005-12-27 Faith, Inc. Data reproducing device, data reproducing method, and information terminal
KR20000036714A (ko) 2000-03-27 2000-07-05 조병호 검색기능을 갖는 원격제어장치와 그 검색방법
US6307139B1 (en) * 2000-05-08 2001-10-23 Sony Corporation Search index for a music file
US20020021311A1 (en) * 2000-08-14 2002-02-21 Approximatch Ltd. Data entry using a reduced keyboard
JP3719645B2 (ja) 2000-08-28 2005-11-24 アルパイン株式会社 オーディオプレーヤ
FI20002161A (fi) * 2000-09-29 2002-03-30 Nokia Mobile Phones Ltd Menetelmä ja järjestelmä melodian tunnistamiseksi
DE10053720A1 (de) 2000-10-06 2002-04-18 Uhl Anna Renate CD-Player betreffende Abspielmöglichkeiten von Versionsfassungen eines Gesangsstückes
US6998527B2 (en) * 2002-06-20 2006-02-14 Koninklijke Philips Electronics N.V. System and method for indexing and summarizing music videos
US20050123886A1 (en) 2003-11-26 2005-06-09 Xian-Sheng Hua Systems and methods for personalized karaoke
KR20050102696A (ko) 2004-04-21 2005-10-27 주식회사 허드슨 텔레콤 음성인식 선곡기능을 갖는 노래방기기
KR20050106246A (ko) 2004-05-04 2005-11-09 엘지전자 주식회사 엠펙 플레이어에 있어서 데이터 검색 방법
US7730414B2 (en) * 2006-06-30 2010-06-01 Sony Ericsson Mobile Communications Ab Graphical display

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009536368A (ja) * 2006-05-08 2009-10-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 歌曲を歌詞と並べる方法及び電気デバイス
KR101039762B1 (ko) * 2009-11-11 2011-06-09 주식회사 금영 가사 데이터를 이용한 노래반주기의 곡 검색방법

Also Published As

Publication number Publication date
CN101017502A (zh) 2007-08-15
US20070186754A1 (en) 2007-08-16
CN101017502B (zh) 2011-10-19
EP1821286B1 (en) 2015-11-18
US7792831B2 (en) 2010-09-07
KR20070081368A (ko) 2007-08-16
EP1821286A1 (en) 2007-08-22

Similar Documents

Publication Publication Date Title
JP2007213058A (ja) 歌詞の繰り返しパターンに基づいて歌詞構造を抽出する装置、システム、及びその方法
US7953504B2 (en) Method and apparatus for selecting an audio track based upon audio excerpts
Rubin et al. Content-based tools for editing audio stories
JP3610083B2 (ja) マルチメディアプレゼンテーション装置および方法
US8352268B2 (en) Systems and methods for selective rate of speech and speech preferences for text to speech synthesis
US8355919B2 (en) Systems and methods for text normalization for text to speech synthesis
US8583418B2 (en) Systems and methods of detecting language and natural language strings for text to speech synthesis
US20090076821A1 (en) Method and apparatus to control operation of a playback device
US20100082349A1 (en) Systems and methods for selective text to speech synthesis
US7742920B2 (en) Variable voice rate apparatus and variable voice rate method
KR20070080481A (ko) 노래 가사를 이용하여 하이라이트 구간을 검색하는 장치 및그 방법
KR20080000203A (ko) 음성인식을 이용한 음악 파일 검색 방법
KR101156934B1 (ko) 키워드가 삽입된 녹음파일 생성 및 재생 방법과 그 휴대기기
US8612031B2 (en) Audio player and audio fast-forward playback method capable of high-speed fast-forward playback and allowing recognition of music pieces
KR20110053397A (ko) 검색 키워드를 이용한 멀티미디어 파일 검색 방법 및 그 휴대기기
JP5034599B2 (ja) 楽曲紹介文生成装置、ナレーション付加装置およびプログラム
US11081138B2 (en) Systems and methods for automated music rearrangement
JP4256332B2 (ja) 音声データエンコード装置および音声データデコード装置
KR101580247B1 (ko) 스트리밍 음원의 리듬분석 장치 및 방법
EP1793381A1 (en) Musical composition reproducing device, musical composition reproducing method and so forth
US20080140236A1 (en) Musical Composition Reproducing Apparatus and a Method for Reproducing Musical Composition
JPH08195070A (ja) 車載選曲装置
KR100383194B1 (ko) 미디어 파일 재생 방법
JP2008250066A (ja) 音声データ処理システム、音声データ処理方法、及びプログラム
KR102636708B1 (ko) 프레젠테이션 문서에 대한 수어 발표 영상을 제작할 수 있는 전자 단말 장치 및 그 동작 방법