JP2012088402A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2012088402A
JP2012088402A JP2010232909A JP2010232909A JP2012088402A JP 2012088402 A JP2012088402 A JP 2012088402A JP 2010232909 A JP2010232909 A JP 2010232909A JP 2010232909 A JP2010232909 A JP 2010232909A JP 2012088402 A JP2012088402 A JP 2012088402A
Authority
JP
Japan
Prior art keywords
music
lyrics
information
melody
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010232909A
Other languages
English (en)
Inventor
Tetsuo Ikeda
哲男 池田
Yasuyuki Koga
康之 古賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2010232909A priority Critical patent/JP2012088402A/ja
Priority to EP11184198.7A priority patent/EP2442299B1/en
Priority to BRPI1106557-5A2A priority patent/BRPI1106557A2/pt
Priority to CN2011103067349A priority patent/CN102541980A/zh
Priority to US13/270,822 priority patent/US9646585B2/en
Publication of JP2012088402A publication Critical patent/JP2012088402A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0008Associated control or indicating means
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/061Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of musical phrases, isolation of musically relevant segments, e.g. musical thumbnail generation, or for temporal structure analysis of a musical piece, e.g. determination of the movement sequence of a musical work
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/011Lyrics displays, e.g. for karaoke applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

【課題】歌詞情報から、楽曲作成者の伝えたいメッセージを反映した重要な語句を抽出すること。
【解決手段】携帯端末10は、歌詞情報と楽曲構成情報とを対応付けることで歌詞情報内の各語句が属する旋律区分を導出し、形態素解析処理により歌詞情報を複数の語句に分割するとともに、楽曲構成情報中の旋律区分毎に設定された重み係数を取得し、各語句の登場回数をカウントするとともに、当該重み係数により、歌詞情報中の語句に、それが属する旋律区分に応じた重み付け処理を行い、各語句の重要度を算出する。
【選択図】図6

Description

本発明は、楽曲の歌詞情報を処理可能な情報処理装置、当該情報処理装置における情報処理方法及びプログラムに関する。
従来から、楽曲の歌詞は様々なアプリケーションに利用されている。例えばカラオケにおける歌詞情報表示アプリケーションは、楽曲の伴奏用音声の再生中に、ディスプレイにその楽曲の歌詞を伴奏の進行に合わせて字幕として表示する。この際、歌い手をサポートするために、歌い手が歌うべき歌詞の文字色が、その他の歌詞の文字色とは違う色に変えられて表示される場合もある。
しかしながら、このような従来のアプリケーションでは、表示される歌詞情報は画一的であり、歌詞のうちどの語句が重要であるかといった楽曲作成者が伝えたいメッセージを反映させることはできない。
下記特許文献1には、楽曲の歌詞データを形態素解析により単語単位に分割して所定の単語を抽出し、抽出された単語が各楽曲に対してどの程度の使用頻度を有するかを示す重み係数を計算し、当該重み係数を使用して各楽曲を情報空間内に配置することが可能な楽曲検索装置が開示されている。
特開2003−271160号公報
上記特許文献1に記載の技術を上記歌詞情報表示アプリケーションに応用して、歌詞情報のうち、重み係数の高い単語を他の単語と区別して表示することも考えられる。しかし、当該特許文献1に記載の技術では、単語の使用頻度のみに基づいて重み付け処理がなされるため、楽曲中での使用頻度は高いものの重要ではない語句が抽出されてしまい、楽曲作成者の伝えたいメッセージが十分に反映されない。
以上のような事情に鑑み、本発明の目的は、歌詞情報から、楽曲作成者の伝えたいメッセージを反映した重要な語句を抽出することが可能な情報処理装置、情報処理方法及びプログラムを提供することにある。
上記目的を達成するため、本発明の一形態に係る情報処理装置は、記憶部と制御部とを有する。上記制御部は、楽曲の歌詞及び当該歌詞の各部分に対応する時間位置を示す歌詞情報と、当該楽曲が有する複数の旋律区分及び当該各旋律区分に対応する上記時間位置を示す楽曲構成情報と、上記旋律区分毎に定められた重み係数とを記憶する。上記制御部は、上記記憶された歌詞情報及び上記楽曲構成情報とを基に、上記歌詞の各部分が属する旋律区分を導出し、上記記憶された歌詞情報に含まれる歌詞から、形態素解析処理により所定の品詞の語句を抽出する。さらに制御部は、上記抽出された語句を、当該語句が属する上記旋律区分の上記重み係数により重み付け処理して当該語句の重要度を算出する。
この構成により情報処理装置は、旋律区分毎に定められた重み係数により、歌詞に含まれる語句を重み付け処理することで、歌詞情報から、楽曲作成者の伝えたいメッセージを反映した重要な語句を抽出することができる。ここで旋律区分とは、例えばサビ、Aメロ、Bメロ等である。例えばAメロ及びBメロと比較してサビは上記重み係数が大きく設定される。
上記記憶部は、上記楽曲のタイトルまたは上記楽曲が含まれるアルバムのタイトルを示すタイトル情報を記憶してもよい。この場合上記制御部は、上記抽出された語句に上記記憶されたタイトル情報が含まれている場合、当該語句の上記重要度を加算してもよい。
これにより情報処理装置は、所属する旋律区分の重み係数を用いた語句の重み付け処理に加えて、当該語句が楽曲のタイトルにも使われている場合に当該語句の重要度を加算することで、楽曲作成者にとって重要な語句をより的確に抽出することができる。
上記情報処理装置は、上記楽曲に対応する楽曲データを再生する再生部と、上記再生される楽曲データの進行に合わせて上記楽曲の上記歌詞を出力する出力部とをさらに有してもよい。この場合上記制御部は、上記語句の重要度に応じて上記出力される歌詞の出力態様を変化させるように上記出力部を制御してもよい。
これにより情報処理装置は、例えばカラオケアプリケーションやビジュアライザアプリケーションにおいて、上記語句の出力態様をその重要度に応じて変化させることで、楽曲作成者のメッセージをユーザに的確に伝え、ユーザにより没入感を与えることができる。ここで出力態様の変化とは、例えば出力される歌詞のフォントの大きさ・種類・色を変更したり、アニメーションを付加したりすることである。
上記情報処理装置は、上記楽曲に対応する楽曲データを再生する再生部と、上記再生される楽曲データに対応する背景画像を出力するとともに、上記再生される楽曲データの進行に合わせて上記楽曲の上記歌詞を上記背景画像上に出力する出力部とをさらに有してもよい。この場合上記記憶部は、所定値以上の上記重要度を有する語句に対応する所定のマーク画像と、上記背景画像とを記憶してもよい。またこの場合上記制御部は、上記楽曲データの再生中に、上記所定値以上の上記重要度を有する語句が出力される時間位置で、当該語句に対応する上記マーク画像を上記背景画像上に出力するように上記出力部を制御してもよい。
これにより情報処理装置は、再生される楽曲データの進行に合わせて、背景画像上に歌詞とともに重要語句に対応するマーク画像を表示することで、楽曲の雰囲気を表現可能な音楽ブックレットアプリケーションを実現し、楽曲作成者のメッセージを視覚的にユーザに伝えることができる。ここで所定のマーク画像とは、例えば「愛」という語句に対応するハートの画像や、「緑」という語句に対応する植物の画像等である。
上記情報処理装置は、ユーザによる所定の語句の入力を受け付ける入力部と、上記入力された語句に対応する楽曲の検索結果を出力する出力部とをさらに有してもよい。この場合上記記憶部は、上記楽曲に対応する楽曲データと、上記抽出された語句と、当該語句の上記重要度とを対応付けて記憶してもよい。またこの場合上記制御部は、上記入力された語句と、上記記憶された語句のうち所定値以上の上記重要度を有する語句の少なくとも一部が一致する場合に、当該所定値以上の上記重要度を有する語句に対応する楽曲を検索し、当該検索結果を上記出力部に出力させてもよい。
これにより情報処理装置は、単にユーザが入力された語句を歌詞に含む楽曲を検索結果として返すのではなく、所定値以上の重要度を有する語句を歌詞に含む楽曲(入力された語句を歌詞内で特に重く用いている楽曲)を検索結果として返すことができる。したがって情報処理装置は、楽曲を検索するユーザの意図により沿った楽曲検索アプリケーションを実現できる。
本発明の他の形態に係る情報処理方法は、楽曲の歌詞及び当該歌詞の各部分に対応する時間位置を示す歌詞情報と、当該楽曲が有する複数の旋律区分及び当該各旋律区分に対応する上記時間位置を示す楽曲構成情報と、上記旋律区分毎に定められた重み係数とを記憶することを含む。上記記憶された歌詞情報及び上記楽曲構成情報とを基に、上記歌詞の各部分が属する旋律区分が導出される。上記記憶された歌詞情報に含まれる歌詞から、形態素解析処理により所定の品詞の語句が抽出される。そして、上記抽出された語句が、当該語句が属する上記旋律区分の前記重み係数により重み付け処理され当該語句の重要度が算出される。
本発明のまた別の形態に係るプログラムは、情報処理装置に、記憶ステップと、導出ステップと、抽出ステップと、算出ステップとを実行させる。上記記憶ステップでは、楽曲の歌詞及び当該歌詞の各部分に対応する時間位置を示す歌詞情報と、当該楽曲が有する複数の旋律区分及び当該各旋律区分に対応する上記時間位置を示す楽曲構成情報と、上記旋律区分毎に定められた重み係数とが記憶される。上記導出ステップでは、上記記憶された歌詞情報及び上記楽曲構成情報とを基に、上記歌詞の各部分が属する旋律区分が導出される。上記抽出ステップでは、上記記憶された歌詞情報に含まれる歌詞から、形態素解析処理により所定の品詞の語句が抽出される。上記算出ステップでは、上記抽出された語句が、当該語句が属する前記旋律区分の前記重み係数により重み付け処理され、当該語句の重要度が算出される。
以上説明したように、本発明によれば、歌詞情報から、楽曲作成者の伝えたいメッセージを反映した重要な語句を抽出することができる。
本発明の一実施形態に係る携帯端末のハードウェア構成を示すブロック図である。 本発明の一実施形態に係る携帯端末のソフトウェア構成を示すブロック図である。 本発明の一実施形態に係る携帯端末により取得される歌詞情報の例を示した図である。 本発明の一実施形態に係る携帯端末により取得される楽曲構成情報の例を示した図である。 本発明の一実施形態において楽曲構成情報の各旋律区分及び全体情報に対して設定された重み係数の設定情報を示した図である。 本発明の一実施形態に係る携帯端末による歌詞内の語句の重要度算出処理の大まかな流れを示したフローチャートである。 本発明の一実施形態に係る携帯端末による歌詞情報と楽曲構成情報との対応付け処理の結果を示した図である。 本発明の一実施形態に係る携帯端末による形態素解析処理の結果の一例を示した図である。 本発明の一実施形態に係る携帯端末による語句の重要度の算出処理の詳細な流れを示したフローチャートである。 本発明の一実施形態に係る携帯端末による重要度の算出処理が実行された結果としての重要度テーブルの例を示した図である。 本発明の一実施形態に係る携帯端末により実行されるカラオケアプリケーション及びビジュアライザアプリケーションの動作の流れを示したフローチャートである。 本発明の一実施形態に係る携帯端末により実行されるカラオケアプリケーションの実行画面を示した図である。 本発明の一実施形態に係る携帯端末により実行されるビジュアライザアプリケーションの実行画面を示した図である。 本発明の一実施形態に係る携帯端末により実行される音楽ブックレットアプリケーションの実行画面の例を示した図である。 図14に示した音楽ブックレットアプリケーションに用いられる画像パーツの例を示した図である。 本発明の一実施形態に係る携帯端末により実行される音楽ブックレットアプリケーションの動作の流れを示したフローチャートである。 本発明の一実施形態に係る携帯端末により実行される楽曲検索アプリケーションの実行画面の例を示した図である。 本発明の一実施形態に係る携帯端末により実行される楽曲検索アプリケーションの動作の流れを示したフローチャートである。
以下、図面を参照しながら、本発明の実施形態を説明する。
[携帯端末のハードウェア構成]
図1は、本発明の一実施形態に係る携帯端末のハードウェア構成を示すブロック図である。携帯端末とは、例えば携帯電話機、スマートフォン、PDA(Personal Digital Assistant)、携帯型AVプレイヤー、電子ブック、電子辞書等である。
この携帯端末10は、CPU11、RAM12、フラッシュメモリ13、ディスプレイ14、タッチパネル15、通信部16、外部I/F(インタフェース)17、キー/スイッチ部18、ヘッドフォン19及びスピーカ20を有する。
CPU11は、携帯端末10の各ブロックと信号をやり取りして各種演算を行い、後述する楽曲の歌詞内の語句の重要度の算出処理等、携帯端末10で実行される処理を統括的に制御する。
RAM12は、CPU11の作業領域として用いられ、CPU11が処理するコンテンツ等の各種データや、上記重要度を算出するためのアプリケーション、当該算出された重要度を利用するカラオケアプリケーション等のプログラムを一時的に格納する。
フラッシュメモリ13は、例えばNAND型のものであり、楽曲データ、歌詞情報、楽曲構成情報等のデータや、CPU11が実行する制御プログラム及び上記各アプリケーション等の各種プログラムを記憶する。またフラッシュメモリ13は、上記各アプリケーションが実行される際には、その実行に必要な歌詞情報や楽曲構成情報等の各種データを上記RAM12へ読み出す。当該各種プログラムは、例えばメモリカード(図示せず)等の他の記録媒体に記憶されていても構わない。また携帯端末10は、当該フラッシュメモリ13に代わる、または追加の記憶装置として、HDD(Hard Disk Drive)を有していてもよい。
ディスプレイ14は、例えばLCD(Liquid Crystal Display)やOELD(Organic Electro-Luminescence Display)であり、後述するように、歌詞情報や背景画像等を表示する。またディスプレイ14はタッチパネル15と一体的に設けられている。タッチパネル15は、例えば再生させる楽曲データの選択操作等、ユーザのタッチ操作を検出し、CPU11へ伝える。タッチパネル15の動作方式としては、例えば抵抗被膜方式や静電容量方式が用いられるが、電磁誘導方式、マトリクススイッチ方式、表面弾性波方式、赤外線方式等のその他の方式が用いられてもよい。
通信部16は、例えばNIC(Network Interface Card)やモデム等を有し、インターネット等のWAN(Wide Area Network)やLAN(Local Area Network)等のネットワークを介して、他の機器との間で通信処理を行う。例えば通信部16は、インターネット上の楽曲配信サーバ(図示せず)から歌詞情報を含む楽曲データや楽曲構成情報をダウンロードするために用いられる。当該通信部16は、WLAN(Wireless LAN)モジュールを有していてもよいし、WWAN(Wireless WAN)モジュールを有していてもよい。
外部I/F(インタフェース)17は、例えばUSB(Universal Serial Bus)やHDMI(High-Definition Multimedia Interface)等の各種規格に準じて、メモリカード等の外部機器と接続し、データのやり取りを行う。例えば、他の情報処理装置で記憶された楽曲データが当該外部I/F17を介してフラッシュメモリ13に記憶される。
キー/スイッチ部18は、例えば電源スイッチ、ショートカットキー等、特にタッチパネル15では入力できないユーザの操作等を受け付け、入力信号をCPU11へ伝える。
ヘッドフォン19及びスピーカ20は、上記フラッシュメモリ13等に記憶された、または通信部16、外部I/F17等から入力された楽曲データの音声信号を出力する。
[携帯端末のソフトウェア構成]
図2は、本発明の一実施形態に係る携帯端末10のソフトウェア構成(機能構成)を示すブロック図である。同図に示すように、携帯端末10は、楽曲情報取得部21、重み付け処理部22及び重要度出力部23の各ソフトウェアモジュールを有する。
楽曲情報取得部21は、楽曲のメタ情報として、歌詞情報及び楽曲構成情報を取得する。これら歌詞情報及び楽曲構成情報の詳細については後述する。
重み付け処理部22は、重み係数取得部221と、重み算出部222とから構成される。重み係数取得部221は、上記楽曲構成情報に対応する重み係数を取得する。重み算出部222は、重み係数取得部221により取得された重み係数と、歌詞内の語句の登場回数とを基に、当該語句の重要度を算出する。
重要度出力部23は、上記算出された語句毎の重要度を様々な態様でユーザに出力する。
上記楽曲情報取得部21により取得される歌詞情報は、上記フラッシュメモリ13等に記憶されている楽曲データに含まれている場合と、それとは別ファイルとして存在する場合とがある。例えば上記楽曲データがMP3ファイルである場合、歌詞情報はID3タグとして楽曲データに書き込まれている。楽曲データにID3タグが書き込まれていない場合でも、歌詞情報が例えばLRCファイルとして付随している場合もある。携帯端末10は、楽曲データを上記楽曲配信サーバからダウンロードする際、ID3タグが存在している場合はそのままダウンロードし、それに付随するLRCファイルが存在する場合には当該LRCファイルも合わせてダウンロードしてフラッシュメモリ13等に記憶する。
図3は、上記歌詞情報の例を示した図である。同図に示すように、歌詞情報30は、歌詞の文字列を示すテキスト部31と、その歌詞が楽曲のどの時間位置に対応するかを表す時間部32とから構成される。同図の例では、例えば一行目の歌詞は、楽曲の開始から14秒の時点から『さくら さくら』という文字列が歌われているということが示されている。同図に示す歌詞情報30はあくまで一例であり、ファイル形式によって細かいフォーマットは異なるが、どのようなフォーマットでもテキスト情報と時間情報とが取得可能である。
図4は、上記楽曲情報取得部21により取得される楽曲構成情報の例を示した図である。当該楽曲構成情報40は、楽曲の大まかな構成を時系列情報として表したものである。同図に示すように、楽曲構成情報40は、イントロ・Aメロ・Bメロ・サビ等、楽曲が有する複数の旋律区分の流れを表す楽曲構成部41と、その旋律区分が楽曲のどの位置に対応するかを表す時間部42とから構成される。同図の例では、例えば楽曲の開始から14秒の時点でAメロが歌われ、開始から48秒の時点でサビが歌われることが示されている。
ここでサビとは楽曲の中で最も盛り上がる部分(主旋律)のことであり、AメロやBメロは当該サビの前後に設けられる、異なる旋律である。同図の例では、Aメロ及びBメロの後にサビが来ているが、楽曲によって楽曲構成は様々であり、サビが先頭に来たり、Bメロが存在しなかったりすることもある。
楽曲データから上記楽曲構成情報40を取得する技術としては、本出願人が開発した12音解析技術がある。当該12音解析技術は、ビート・コード・メロディといった音楽の特徴情報や、どの時点でどのボーカル・楽器が演奏されているか等、楽曲を特徴づける多彩な情報を取得することを可能にする技術である。具体的には、12音解析技術では、楽曲から時間と音程(12の音程)の二次元画像が生成され、当該二次元画像を基に様々な信号処理、検出処理等が行われることで、上記楽曲構成情報40を含む様々な情報が取得される。
携帯端末10は、フラッシュメモリ13等に記憶された楽曲データに対して上記12音解析処理技術を用いた分析処理をリアルタイムに行い楽曲構成情報40を取得してもよいし、様々な楽曲から上記分析処理により取得された楽曲構成情報40を蓄積した外部のデータベースから、インターネット等を介して楽曲構成情報40を取得してもよい。そのような外部のデータベースとしては、本出願人のグループ会社であるgracenote社が運用しているデータベースがある。携帯端末10は、当該データベースを、楽曲のアーティスト名やタイトル名等をキーとして参照し、フラッシュメモリ13等に記憶しておくことで、都度分析処理を行うことなく楽曲構成情報40を取得することが可能である。
本実施形態では、上記楽曲構成情報40に含まれる旋律区分(Aメロ・Bメロ・サビ等)毎に、その重み(重要度)を示す重み係数が設定されており、当該重み係数の設定情報も上記フラッシュメモリ13等に記憶されている。また、楽曲構成情報40以外に、例えば楽曲タイトルやアルバムタイトル等の全体情報にも同様に重み係数が設定されている。
図5は、上記楽曲構成情報40の各旋律区分及び上記全体情報に対して設定された重み係数の設定情報の例を示した図である。
この重み係数の設定は、楽曲作成者の伝えたいメッセージは、楽曲構成情報40の各旋律区分によって異なるという点に着目したものである。歌詞のうち、サビのように楽曲が盛り上がる箇所で使われている語句は、より楽曲作成者の伝えたいメッセージを反映していると考えられる。つまり、同じ語句でも、例えばAメロで1回登場する語句よりも、サビで1回登場する語句の方が、登場回数は同じでも重要度が高いと考えられる。同様に、楽曲のタイトルや、当該楽曲が含まれるアルバムのタイトル等、歌詞以外での情報において使われている語句も、重要度が高いと考えられる。
したがって、同図に示すように、楽曲構成情報40の各旋律区分のうち、Aメロ、Bメロ、Cメロといった平坦な旋律区分にはそれぞれ低い重み係数(重み係数1)が設定される。一方、楽曲の中で最も盛り上がる初回のサビや2回目以降のサビには高い重み係数(それぞれ重み係数3、重み係数2が設定される。またその他の旋律区分(例えばイントロ、アウトロ、Dメロ、Eメロ等)には低い重み係数(重み係数1)が設定されている。
また、全体情報として、楽曲タイトルやアルバムタイトルには高い重み係数(それぞれ重み係数3、重み係数2)が設定され、アーティスト名には低い重み係数が設定されている。
これらの設定された重み係数は、後述する歌詞内の語句の重要度の算出処理において用いられる。
[携帯端末の動作]
次に、以上のように構成された携帯端末10の動作について説明する。以降の説明においては、携帯端末10のCPU11を主な動作主体として説明するが、これらの動作は、上記図1で示したその他のハードウェアや、上記図2で示した各ソフトウェアモジュール等と協働して行われる。
(重要度算出処理の概要)
図6は、本実施形態に係る携帯端末10による歌詞内の語句の重要度算出処理の大まかな流れを示したフローチャートである。
同図に示すように、CPU11はまず、処理対象の楽曲について、上記歌詞情報30及び楽曲構成情報40を上記フラッシュメモリ13等から読み出す(ステップ61)。続いてCPU11は、歌詞情報30のテキスト部31の全ての語句を処理したか否かを判断する(ステップ62)。
全ての語句の処理が完了していない場合(ステップ62のNo)、CPU11は、上記歌詞情報30と楽曲構成情報40との対応付けを行う(ステップ63)。すなわち、CPU11は、歌詞情報30と楽曲構成情報40の両方に含まれる時間部(図3の時間部32及び図4の時間部42)を比較することで、どの歌詞がどの旋律区分に含まれるかを導出する。図7に、上記図3に示した歌詞情報30及び図4に示した楽曲構成情報40を例に対応付けを行った結果を示す。
続いてCPU11は、歌詞情報30内のテキスト部31を、形態素解析処理により語句に分割する(ステップ64)。図8に、上記図3及び図7で示した歌詞情報30のテキスト部31のうち、1行目〜5行目の歌詞について形態素解析処理を実行した結果の一例を示す。
続いてCPU11は、上記図5に示した、上記楽曲構成情報40の旋律区分毎に設定された重み係数を、上記フラッシュメモリ13等から取得する(ステップ65)。
続いてCPU11は、上記形態素解析処理により分割された語句と、上記取得された旋律区分毎の重み係数とを基に、語句の重要度の算出処理を実行する(ステップ66)。図9は、当該ステップ66における語句の重要度の算出処理の詳細な流れを示したフローチャートである。
(重要度算出処理の詳細)
同図に示すように、CPU11はまず、上記形態素解析の結果(形態素解析情報)を入力すると(ステップ91)、全ての形態素について重要度算出処理を実行したか否かを判断する(ステップ92)。
全ての形態素の処理が完了していない場合(ステップ92のNo)、CPU11は、次の処理対象の形態素を取得し(ステップ93)、当該形態素の品詞が抽出対象(重要度算出対象)の語句として扱う品詞か否かを判断する(ステップ94)。
例えばCPU11は、名詞・動詞・形容詞・形容動詞といった自立語は抽出対象として扱い、助動詞や助詞といった付属語や「!」、「?」等の記号は抽出対象として扱わないように処理する。上記図8の例では、「さくら」(名詞)、「やよい」(名詞)、「見わた」(動詞)の各形態素は抽出対象として扱われ、「の」(助詞)、「限り」(接尾辞)、「る」(助動詞)の各形態素は抽出対象から除外される。
続いてCPU11は、上記楽曲構成情報40の旋律区分毎の重み係数により重み付け処理を行い(ステップ95)、各語句に重要度を加点する。またCPU11は、上記全体情報毎の重み係数によっても重み付け処理を行い、各語句に重要度を加点する(ステップ96)。
ここで、旋律区分毎の重み係数をM、全体情報毎の重み係数をW、語句の登場回数をCとした場合、抽出対象の語句の重要度は、例えば(M+W)×Cとして表される。
続いてCPU11は、処理対象の語句が、語句と重要度との対応関係を示す重要度テーブルに既に含まれているかを判断する(ステップ97)。CPU11は、当該語句が重要度テーブルに含まれている場合(Yes)には、当該重要度テーブルにおいてその語句の重要度を加算し(ステップ98)、含まれていない場合(No)には、重要度テーブルに当該語句及びその重要度を新規に追加する(ステップ99)。
CPU11は、以上の処理を、全ての形態素について実行するまで繰り返し、重要度を累積していくことで、歌詞全体の重要度テーブルが得られる。
図6に戻り、CPU11は、以上の処理を、歌詞情報30のテキスト部31の全ての語句について実行するまで繰り返し、全ての語句について処理が完了した場合(ステップ62のYes)、上記重要度テーブルを出力する(ステップ67)。
図10は、上記図3及び図7で示した歌詞情報30のテキスト部31について重要度の算出処理が実行された結果としての重要度テーブルの例を示した図である。
同図に示すように、当該重要度テーブル100では、歌詞内の語句の登場回数のみならず、上記楽曲構成情報40や全体情報も踏まえた重要度算出処理が実行されることで、歌詞の中から重要な語句(図3及び図7の例では「さくら」、「恋」といった語句)が抽出されていることが分かる。
(実施例)
次に、上述の処理により算出された歌詞内の各語句の重要度を用いたアプリケーションについて説明する。
本実施例では、携帯端末10は、上記各語句の重要度を用いたカラオケアプリケーション及びビジュアライザアプリケーションを実行することが可能である。図12は、ディスプレイ14に表示されるカラオケアプリケーションの実行画面を示した図であり、図13は、ディスプレイ14に表示されるビジュアライザアプリケーションの実行画面を示した図である。
従来のカラオケの画面が、再生される楽曲の進行に合わせて歌詞を画一的に表示しているのに対して、図12に示すように、本実施例のカラオケアプリケーションの実行画面120では、上記語句の重要度に応じて語句のサイズが変化されて表示される。例えば、歌詞のうち「さくら さくら 花ざかり 恋してる」というフレーズにおいて、上述の重要度算出処理により、「さくら」、「花」、「恋」の各語句W1、W2及びW3が重要語として抽出された場合、これらの語句は、他の語句よりも大きなサイズで表示される。
これによりユーザは、楽曲作成者が伝えたいメッセージを得ることが可能であり、より没入感を持って歌ったり、重要な語句は力を込めて歌ったりといった楽しみ方が可能となる。
また従来のビジュアライザは、再生される楽曲の進行に合わせて様々な模様や図形(アニメーション)を表示するものであるが、図13に示すように、本実施例のビジュアライザアプリケーションの実行画面130では、模様や図形に加えて歌詞も構成要素として表示される。この際、上述の重要度算出処理において重要語として抽出された語句について、語句単位またはフレーズ(行)単位で、文字サイズの変更やアニメーションの付加が行われる。例えば同図では、上記図3及び図7に示した歌詞のうち1行目〜3行目の歌詞のうち、「さくら」という重要語が含まれる1行目の「さくら さくら」というフレーズP1は、他のフレーズP2及びP3に比べて大きく、また目立つように上方に表示されている。またこの際、他のフレーズが表示される場合とは異なるアニメーション(模様や図形またはそれらの変化態様)が表示されてもよい。
これによりユーザは、楽曲作成者が伝えたいメッセージを得ることが可能であり、より没入感を持って楽曲を視聴することができる。
図11は、上記カラオケアプリケーション及びビジュアライザアプリケーションの動作の流れを示したフローチャートである。
同図に示すように、まずCPU11は、カラオケアプリケーションまたはビジュアライザアプリケーションの起動後、ユーザからある楽曲の再生命令が入力された場合、当該楽曲について上記歌詞情報30及び重要度テーブル100を入力する(ステップ111)。続いてCPU11は、処理対象の楽曲の歌詞の全ての語句を処理したか否かを判断する(ステップ112)。
全ての語句の処理が完了していない場合(ステップ112のNo)、CPU11は、上記歌詞情報30内のテキスト部31と上記重要度テーブル100とを比較し(ステップ113)、処理対象の語句が重要な語句か否かを判断する(ステップ114)。
具体的には、CPU11は、上記重要度テーブル100において所定値以上の重要度を有する語句を重要語句と判断する。所定値とは例えば重要度5等であるが、これに限られない。
処理対象の語句が重要な語句であると判断された場合(ステップ114のYes)、CPU11は、上記カラオケアプリケーションまたはビジュアライザアプリケーションにおける出力用の映像信号上で、当該語句を、重みを付けてレイアウトする(ステップ115)。この重みを付けてレイアウトする処理は、上記カラオケアプリケーションでは語句のサイズを大きくする処理であり、上記ビジュアライザアプリケーションでは語句(またはそれを含むフレーズ)のサイズを大きくしたり、アニメーションを付加したりする処理である。
一方、処理対象の語句が重要な語句でないと判断された場合(ステップ114のNo)、CPU11は、上記カラオケアプリケーションまたはビジュアライザアプリケーションにおける出力用の映像信号上で、当該語句を、通常通りレイアウトする(ステップ116)。
CPU11は、以上の処理を、再生対象の楽曲の歌詞内の全ての語句について繰り返し、全ての語句について処理を完了した場合(ステップ112のYes)、各アプリケーション上で、上記重み付けされたレイアウトで語句を出力しながら楽曲を再生する(ステップ117)。
[まとめ]
以上説明したように、本実施形態によれば、携帯端末10は、旋律区分毎の重み係数を用いて語句の重要度を算出することで、歌詞情報から、楽曲作成者の伝えたいメッセージを反映した重要な語句を抽出することができる。これによりユーザは、上記カラオケアプリケーションやビジュアライザアプリケーションにおいて、より没入感を持って楽曲を楽しむことができる。
[変形例]
本発明は上述の実施形態にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々変更され得る。
上述の実施形態においては、算出された語句の重要度をカラオケアプリケーションやビジュアライザアプリケーションに利用した例が示されたが、当該語句の重要度が利用可能なアプリケーションはこれらに限られない。
例えば携帯端末10は、上記語句の重要度を利用して、音楽ブックレットアプリケーションを実現することも可能である。図14は、当該音楽ブックレットアプリケーションの実行画面の例を示した図である。
同図に示すように、音楽ブックレットアプリケーションは、その実行画面140上で、背景画像の上に歌詞141や画像パーツ(マーク画像)Mを配置し、それらを楽曲再生の進行に合わせてアニメーションさせることが可能なアプリケーションである。これによりユーザは、従来のアルバムに付属している紙媒体のブックレットでは享受できない臨場感を得ることができる。
上記歌詞141は、上述した歌詞情報30のテキスト部31から抽出されたものであるが、上記画像パーツMは、楽曲データには含まれておらず、複数の語句に対応して作成され、上記フラッシュメモリ13等に記憶される。また上記背景画像もフラッシュメモリ13等に記憶される。
図15は、当該音楽ブックレットアプリケーションに用いられる画像パーツMの例を示した図である。同図(A)に示すように、例えば「緑」、「自然」、「落ち着く」といった語句には、植物を模した画像パーツが対応付けられ、同図(B)に示すように、「輝き」、「光線」、「まぶしい」といった語句には、光(フレア)を模した画像パーツが対応付けられる。また同図(C)に示すように、「愛」、「恋」、「好き」といった語句には、ハートマークを示す画像パーツが対応付けられ、同図(D)に示すように、「海」、「深海」、「ただよう」といった語句には、水や海を示す画像パーツが対応付けられる。
図14に示した例では、歌詞141が再生される楽曲データの進行に合わせて徐々に表示されるとともに、例えば歌詞141中の「恋」という語句が表示される際にハートマークを示す画像パーツM1が表示され、「花」という語句が表示される際に植物を示す画像パーツM2が表示される。この場合、各画像パーツMが、楽曲のビートに合わせて画面内を移動したり変形したりするようなアニメーションが実行されてもよい。もちろん、これら画像パーツM及びそれに対応する語句は図14及び図15に示したものに限られない。
図16は、携帯端末10により実行される上記音楽ブックレットアプリケーションの動作の流れを示したフローチャートである。
同図に示すように、まずCPU11は、音楽ブックレットアプリケーションの起動後、ユーザからある楽曲の再生命令が入力された場合、上記重要度テーブル100と、各画像パーツMに対応する語句を入力する(ステップ161)。続いてCPU11は、全ての画像パーツMの語句を処理したか否かを判断する(ステップ162)。
全ての画像パーツMの語句を処理していないと判断された場合(No)、CPU11は、上記重要度テーブル100内で所定値以上の重要度を有する重要語と、上記画像パーツMに対応する語句とを比較する(ステップ163)。
上記比較の結果、重要語と画像パーツMの対応語句とが一致すると判断された場合(ステップ164のYes)、CPU11は、当該語句に対応する画像パーツMをヒットした画像パーツとして分類する(ステップ165)。一方、重要語と画像パーツMの対応語句とが一致しないと判断された場合(ステップ164のNo)、CPU11は、当該語句に対応する画像パーツをヒットしなかった画像パーツとして分類する(ステップ166)。
CPU11は以上の処理を、全ての画像パーツMに対応する語句について繰り返す。全ての画像パーツMに対応する語句について処理が完了した場合(ステップ162のYes)、CPU11は、楽曲データを再生するとともに、上記音楽ブックレットアプリケーションの実行画面140上で、上記ヒットした画像パーツMを、上記歌詞141中の対応語句の表示タイミングに合わせて表示する。
以上の処理により、重要語に対応した画像パーツMを用いることで、画像パーツMと楽曲データとが分離していても、楽曲の雰囲気に合った画像パーツMを取得して配置し、ユーザにより楽曲を楽しませることができる。
また携帯端末10は、上記語句の重要度を利用して、楽曲検索アプリケーションを実現することも可能である。図17は、当該楽曲検索アプリケーションの実行画面の例を示した図である。
同図に示すように、楽曲検索アプリケーションの実行画面170は、ユーザから検索語の入力を受け付ける検索ボックス171と、検索実行の指示を受け付ける検索ボタン172とを有する。また実行画面170は、検索オプションとして、検索対象を重要語とするか、全文とするかを例えばラジオボタンで選択させる重要語/全文選択ボックス173と、部分一致検索と完全一致検索とを例えばラジオボタンで選択させる部分一致/完全一致選択ボックス174とを有する。さらに実行画面170は、検索結果を表示する検索結果表示欄175を有する。
検索結果表示欄175には、検索された楽曲のアーティスト名やトラック名のほか、歌詞全文及びそれに含まれる重要語が表示される。この重要語のうち、上記検索語と部分的にまたは完全に一致する重要語は、他の重要語から区別されて表示される。同図の例では、検索語「恋」に対して重要語「恋」が一致しているため、検索結果表示欄175において重要語「恋」が太字で表示されている。
図18は、携帯端末10により実行される楽曲検索アプリケーションの動作の流れを示したフローチャートである。同図では、上記楽曲検索アプリケーションの実行画面170の重要語/全文選択ボックス173において重要語検索が選択されている場合の処理が示されている。
同図に示すように、まずCPU11は、楽曲検索アプリケーションの起動後、フラッシュメモリ13等に記憶されている全ての楽曲毎の上記重要度テーブル100を入力するとともに、上記検索ボックス171を介して検索語を入力する(ステップ181)。続いてCPU11は、フラッシュメモリ13等に記憶されている全ての楽曲を処理したか否かを判断する(ステップ182)。
全ての楽曲について処理が完了していないと判断された場合(No)、CPU11は、処理対象の楽曲について、上記重要度テーブル100内で所定値以上の重要度を有する重要語と、上記検索語とを比較する(ステップ183)。
上記比較の結果、重要語と検索語とが、上記部分一致/完全一致選択ボックス174の選択状況に応じで部分的または完全に一致すると判断された場合(ステップ184のYes)、CPU11は、重要語を含む楽曲をヒットした楽曲として分類する(ステップ185)。一方、重要語と検索語とが一致しないと判断された場合(ステップ184のNo)、CPU11は、当該重要語を含む楽曲をヒットしなかった楽曲として分類する(ステップ186)。
CPU11は以上の処理を、全ての楽曲について繰り返し、全ての楽曲について処理が完了した場合(ステップ182のYes)、上記検索結果表示欄175に、上記ヒットした楽曲のリストを表示する。
以上の処理により、ユーザは、この楽曲検索アプリケーションの実行画面170上で、楽曲の歌詞の全体を対象とした検索のみならず、重要語のみを対象とした検索も行うことができ、よりユーザの意図に沿った楽曲を見つけ出すことができる。すなわち、従来の全文検索では、例えば歌詞に「恋」という語句が含まれる楽曲を検索する場合、1回でも「恋」という語句が用いられている楽曲が全てヒットしてしまうという問題があったが、本実施例によれば、「恋」という語句を歌詞で特に重く用いている楽曲だけをヒットさせることができる。
当該楽曲検索アプリケーションによる楽曲検索処理は、上記楽曲配信サーバ上で実行されてもよい。すなわち、携帯端末10が、上記実行画面170上で検索語の入力を受け付けると、それに対応する検索クエリが楽曲配信サーバへ送信され、楽曲配信サーバが記憶している楽曲データ中から上記重要語との比較処理を実行し、ヒットした楽曲のリストを検索結果として携帯端末10へ返信して上記検索結果表示欄175に表示させてもよい。
上述の実施形態においては、楽曲構成情報40の旋律区分のうち、サビ等の自立語の重み係数が高く設定され、記号(「?」や「!」等)の重み係数は低く設定されたが、当該記号の重み係数がサビと同様に高く設定されてもよい。これは、「?」や「!」等の記号が楽曲作成者のメッセージをより反映している場合も考えられるからである。この場合、当該記号を含む句全体の重要度が高く算出されてもよい。
上述の実施形態においては、本発明が携帯端末に適用された例が説明されたが、本発明は、例えばノート型PC、デスクトップ型PC、タブレット型PC、サーバ装置、記録再生装置、デジタルスチルカメラ、デジタルビデオカメラ、テレビジョン装置、ゲーム機器、カーナビゲーション装置等の他のあらゆる情報処理装置にも同様に適用可能である。
10…携帯端末
11…CPU
13…フラッシュメモリ
14…ディスプレイ
16…通信部
21…楽曲情報取得部
22…重み付け処理部
23…重要度出力部
30…歌詞情報
31…テキスト部
32…時間部
40…楽曲構成情報
41…楽曲構成部
42…時間部
100…重要度テーブル
120…カラオケアプリケーション実行画面
130…ビジュアライザアプリケーション実行画面
140…音楽ブックレットアプリケーション実行画面
170…楽曲検索アプリケーション実行画面
221…重み係数取得部
222…重み算出部

Claims (7)

  1. 楽曲の歌詞及び当該歌詞の各部分に対応する時間位置を示す歌詞情報と、当該楽曲が有する複数の旋律区分及び当該各旋律区分に対応する前記時間位置を示す楽曲構成情報と、前記旋律区分毎に定められた重み係数とを記憶する記憶部と、
    前記記憶された歌詞情報及び前記楽曲構成情報とを基に、前記歌詞の各部分が属する旋律区分を導出し、前記記憶された歌詞情報に含まれる歌詞から、形態素解析処理により所定の品詞の語句を抽出し、当該抽出された語句を、当該語句が属する前記旋律区分の前記重み係数により重み付け処理して当該語句の重要度を算出する制御部と
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記記憶部は、前記楽曲のタイトルまたは前記楽曲が含まれるアルバムのタイトルを示すタイトル情報を記憶し、
    前記制御部は、前記抽出された語句に前記記憶されたタイトル情報が含まれている場合、当該語句の前記重要度を加算する
    情報処理装置。
  3. 請求項1または2に記載の情報処理装置であって、
    前記楽曲に対応する楽曲データを再生する再生部と、
    前記再生される楽曲データの進行に合わせて前記楽曲の前記歌詞を出力する出力部と
    をさらに具備し、
    前記制御部は、前記語句の重要度に応じて前記出力される歌詞の出力態様を変化させるように前記出力部を制御する
    情報処理装置。
  4. 請求項1または2に記載の情報処理装置であって、
    前記楽曲に対応する楽曲データを再生する再生部と、
    前記再生される楽曲データに対応する背景画像を出力するとともに、前記再生される楽曲データの進行に合わせて前記楽曲の前記歌詞を前記背景画像上に出力する出力部と
    をさらに具備し、
    前記記憶部は、所定値以上の前記重要度を有する語句に対応する所定のマーク画像と、前記背景画像とを記憶し、
    前記制御部は、前記楽曲データの再生中に、前記所定値以上の前記重要度を有する語句が出力される時間位置で、当該語句に対応する前記マーク画像を前記背景画像上に出力するように前記出力部を制御する
    情報処理装置。
  5. 請求項1または2に記載の情報処理装置であって、
    ユーザによる所定の語句の入力を受け付ける入力部と、
    前記入力された語句に対応する楽曲の検索結果を出力する出力部と
    をさらに具備し、
    前記記憶部は、前記楽曲に対応する楽曲データと、前記抽出された語句と、当該語句の前記重要度とを対応付けて記憶し、
    前記制御部は、前記入力された語句と、前記記憶された語句のうち所定値以上の前記重要度を有する語句の少なくとも一部が一致する場合に、当該所定値以上の前記重要度を有する語句に対応する楽曲を検索し、当該検索結果を前記出力部に出力させる
    情報処理装置。
  6. 楽曲の歌詞及び当該歌詞の各部分に対応する時間位置を示す歌詞情報と、当該楽曲が有する複数の旋律区分及び当該各旋律区分に対応する前記時間位置を示す楽曲構成情報と、前記旋律区分毎に定められた重み係数とを記憶し、
    前記記憶された歌詞情報及び前記楽曲構成情報とを基に、前記歌詞の各部分が属する旋律区分を導出し、
    前記記憶された歌詞情報に含まれる歌詞から、形態素解析処理により所定の品詞の語句を抽出し、
    前記抽出された語句を、当該語句が属する前記旋律区分の前記重み係数により重み付け処理して当該語句の重要度を算出する
    情報処理方法。
  7. 情報処理装置に、
    楽曲の歌詞及び当該歌詞の各部分に対応する時間位置を示す歌詞情報と、当該楽曲が有する複数の旋律区分及び当該各旋律区分に対応する前記時間位置を示す楽曲構成情報と、前記旋律区分毎に定められた重み係数とを記憶するステップと、
    前記記憶された歌詞情報及び前記楽曲構成情報とを基に、前記歌詞の各部分が属する旋律区分を導出するステップと、
    前記記憶された歌詞情報に含まれる歌詞から、形態素解析処理により所定の品詞の語句を抽出するステップと、
    前記抽出された語句を、当該語句が属する前記旋律区分の前記重み係数により重み付け処理して当該語句の重要度を算出するステップと
    を実行させるプログラム。
JP2010232909A 2010-10-15 2010-10-15 情報処理装置、情報処理方法及びプログラム Pending JP2012088402A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2010232909A JP2012088402A (ja) 2010-10-15 2010-10-15 情報処理装置、情報処理方法及びプログラム
EP11184198.7A EP2442299B1 (en) 2010-10-15 2011-10-06 Information processing apparatus, information processing method, and program
BRPI1106557-5A2A BRPI1106557A2 (pt) 2010-10-15 2011-10-07 Aparelho e método para detrminar um nível de importância da letra, e , mídia legível por computador
CN2011103067349A CN102541980A (zh) 2010-10-15 2011-10-08 信息处理设备、信息处理方法及程序
US13/270,822 US9646585B2 (en) 2010-10-15 2011-10-11 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010232909A JP2012088402A (ja) 2010-10-15 2010-10-15 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2012088402A true JP2012088402A (ja) 2012-05-10

Family

ID=45044311

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010232909A Pending JP2012088402A (ja) 2010-10-15 2010-10-15 情報処理装置、情報処理方法及びプログラム

Country Status (5)

Country Link
US (1) US9646585B2 (ja)
EP (1) EP2442299B1 (ja)
JP (1) JP2012088402A (ja)
CN (1) CN102541980A (ja)
BR (1) BRPI1106557A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016143907A1 (ja) * 2015-03-12 2016-09-15 株式会社Six 楽曲再生システム、データ出力装置、及び楽曲再生方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10122983B1 (en) * 2013-03-05 2018-11-06 Google Llc Creating a video for an audio file
CN107026948A (zh) * 2016-01-29 2017-08-08 咪咕音乐有限公司 点歌方法、用户终端、点歌外呼服务器及系统
CN106775564B (zh) * 2016-12-19 2019-05-14 Oppo广东移动通信有限公司 歌曲播放方法及移动终端
CN109684501B (zh) * 2018-11-26 2023-08-22 平安科技(深圳)有限公司 歌词信息生成方法及其装置
US11842729B1 (en) * 2019-05-08 2023-12-12 Apple Inc. Method and device for presenting a CGR environment based on audio data and lyric data
CN112380379B (zh) * 2020-11-18 2023-05-02 抖音视界有限公司 歌词特效展示方法、装置、电子设备及计算机可读介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3963112B2 (ja) 2002-03-13 2007-08-22 日本ビクター株式会社 楽曲検索装置および楽曲検索方法
JP4700904B2 (ja) * 2003-12-08 2011-06-15 パイオニア株式会社 情報処理装置及び走行情報音声案内方法
KR20070080481A (ko) * 2006-02-07 2007-08-10 삼성전자주식회사 노래 가사를 이용하여 하이라이트 구간을 검색하는 장치 및그 방법
EP2096626A1 (en) * 2008-02-29 2009-09-02 Sony Corporation Method for visualizing audio data
US20090307207A1 (en) * 2008-06-09 2009-12-10 Murray Thomas J Creation of a multi-media presentation
JP5349032B2 (ja) * 2008-12-19 2013-11-20 Kddi株式会社 情報選別装置
JP2010232909A (ja) 2009-03-26 2010-10-14 Fujifilm Corp 撮像装置及びその駆動制御方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016143907A1 (ja) * 2015-03-12 2016-09-15 株式会社Six 楽曲再生システム、データ出力装置、及び楽曲再生方法
JPWO2016143907A1 (ja) * 2015-03-12 2018-01-18 株式会社Cotodama 楽曲再生システム、データ出力装置、及び楽曲再生方法
US10186246B2 (en) 2015-03-12 2019-01-22 Cotodama Inc. Musical piece reproducing system, data outputting apparatus, and musical piece reproducing method

Also Published As

Publication number Publication date
EP2442299A3 (en) 2012-05-23
BRPI1106557A2 (pt) 2014-01-07
EP2442299B1 (en) 2018-08-01
US20120323559A1 (en) 2012-12-20
EP2442299A2 (en) 2012-04-18
CN102541980A (zh) 2012-07-04
US9646585B2 (en) 2017-05-09

Similar Documents

Publication Publication Date Title
JP5369689B2 (ja) 情報処理装置及びプログラム
US7394011B2 (en) Machine and process for generating music from user-specified criteria
EP2442299B1 (en) Information processing apparatus, information processing method, and program
JP2018537727A (ja) 言語および/またはグラフィカルアイコンベースの音楽体験記述子を採用する自動化音楽作曲および生成機械、システムおよびプロセス
EP2099023A1 (en) Mashing-up data file, mashing-up device and contents making-out method
US20120259634A1 (en) Music playback device, music playback method, program, and data creation device
JP2008217254A (ja) プレイリスト作成装置、およびプレイリスト作成方法
JP2017513049A (ja) カラオケ曲の演奏に関するフィードバックをユーザに提供する方法
US20130339853A1 (en) Systems and Method to Facilitate Media Search Based on Acoustic Attributes
JP2008041043A (ja) 情報処理装置
Baggi et al. IEEE 1599: Music encoding and interaction
CN114974184A (zh) 音频制作方法、装置、终端设备及可读存储介质
JP2007322544A (ja) 楽曲再生装置
KR100827232B1 (ko) 음악 파일을 관리하는 장치 및 그 방법
CN101105936A (zh) 一种利用一搜寻装置搜寻并显示曲谱的方法
JP2008299411A (ja) マルチメディア再生機器
WO2024075422A1 (ja) 楽曲生成方法、およびプログラム
Thompson Sonic Visualiser: Visualisation, Analysis, and Annotation of Music Audio Recordings
JP2001306070A (ja) シーケンスデータファイル処理装置及び方法並びに記憶媒体
JP5439994B2 (ja) データ集配システム,通信カラオケシステム
JP2006337966A (ja) カラオケ装置、情報検索装置、プログラム、および操作端末
JP5223536B2 (ja) 電子音楽装置及び楽譜データ利用プログラム
Rao Circuit Listening: Chinese Popular Music in the Global 1960s by Andrew F. Jones
JP2017049285A (ja) カラオケイントロにおける曲紹介システム
CN117156173A (zh) Vlog生成方法及相关装置