JP6114980B2 - 楽曲処理装置および楽曲処理方法 - Google Patents

楽曲処理装置および楽曲処理方法 Download PDF

Info

Publication number
JP6114980B2
JP6114980B2 JP2012229033A JP2012229033A JP6114980B2 JP 6114980 B2 JP6114980 B2 JP 6114980B2 JP 2012229033 A JP2012229033 A JP 2012229033A JP 2012229033 A JP2012229033 A JP 2012229033A JP 6114980 B2 JP6114980 B2 JP 6114980B2
Authority
JP
Japan
Prior art keywords
data
music
word
feature amount
lyrics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012229033A
Other languages
English (en)
Other versions
JP2014081478A (ja
Inventor
広海 石先
広海 石先
服部 元
元 服部
小野 智弘
智弘 小野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2012229033A priority Critical patent/JP6114980B2/ja
Publication of JP2014081478A publication Critical patent/JP2014081478A/ja
Application granted granted Critical
Publication of JP6114980B2 publication Critical patent/JP6114980B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、 楽曲データを処理して単語データを付与する楽曲処理装置および楽曲処理方法に関する。
従来、楽曲に合わせてWEB上の画像を利用して楽曲スライドショーを生成する技術が知られている。例えば、特許文献1記載の携帯情報端末は、楽曲再生時に、音声認識によって歌詞を抽出し、その抽出された歌詞から所定のルールに基づいてキーワードを抽出し、キーワードに基づいて、ローカルストレージやインターネット上のWEBページから画像を検索し、楽曲再生時に画像を表示させている。
また、特許文献2記載のクエリ抽出装置は、歌詞を複数に区分し、優先的にキーワード群が選択される優先区分を決定して、全体的かつ局所的に歌詞に適合した画像を検索している。特許文献3記載の画像表示装置は、楽曲歌詞と画像を同期再生する場合に自動で適した表示時間を決定し、画像表示が極端に短くなったり極端に長くなったりすることを防止して画像表示を切り替えている。
特開2008−8954号公報 特開2011−048729号公報 特開2011−166386号公報
舟澤慎太郎, 石先広海, 帆足啓一郎, 滝嶋康弘, 甲藤二郎: 歌詞特徴を考慮したWeb画像と楽曲同期再生システムの提案, 第8 回情報科学技術フォーラム, E-034 (2009). D. A. Shamma, B. Pardo, and K. J. Hammond: MusicStory: a Personalized Music VIDeo Creator, Proceedings of the 13th Annual ACM International Conference on Multimedia, pp.563-566 (2005). R. Cai, L. Zhang, F. Jing, W. Lai, and W. -Y. Ma: Automated Music VIDeo Generation Using Web Image Resource, Proceedings of IEEE International Conference on Acoustic, Speech, and SignalProcessing, 2:pp.737-740 (2007). 舟澤慎太郎, 石先広海, 帆足啓一郎, 滝嶋康弘, 甲藤二郎: 歌詞の印象に基づく楽曲検索のための楽曲自動分類に関する検討, 第71 回情報処理学会全国大会, 5R-2 (2009). 石先、帆足、小野、歌詞情報に基づくWEB画像検索を利用した楽曲連動スライドショー生成システム、情報処理学会研究報告. [オーディオビジュアル複合情報処理] 2011-AVM-73(9), 1-6, 2011-07-07
しかしながら、上記のような従来技術では、歌詞を元にWEB画像を検索し、検索された画像と楽曲とを連動再生させているが、歌詞の存在しない楽曲については画像を連動再生することができない。例えば、クラシック楽曲や、歌詞のない邦楽・洋楽の楽曲については楽曲と連動して楽曲に適した画像を表示することは困難である。
本発明は、このような事情に鑑みてなされたものであり、歌詞データが付帯していない楽曲データに対しても関連性の高い画像データを検索可能にする楽曲処理装置および楽曲処理方法を提供することを目的とする。
(1)上記の目的を達成するため、本発明の楽曲処理装置は、楽曲データを処理して単語データを付与する楽曲処理装置であって、入力された楽曲データから音響特徴量を抽出する第1の特徴量抽出部と、予め楽曲の音響特徴量と単語データとを共起確率で関連付けて構築された確率モデルを用いて、前記抽出された音響特徴量に関連する単語データを推定する単語推定部と、を備えることを特徴としている。
このように、音響特徴量と単語データとを関連付けるデータを利用して入力された楽曲データから音響特徴量を抽出し、関係性の高い単語データを楽曲データに自動付与することで、歌詞データが付帯していない楽曲データに対しても関連性の高い画像データを検索可能にすることができる。
(2)また、本発明の楽曲処理装置は、前記入力された楽曲データに付帯する歌詞データの有無を判定し、歌詞データの有無に応じた部分区間で前記入力された楽曲データを分割管理する分割管理部を更に備えることを特徴としている。これにより、歌詞データの付帯していない楽曲データを適当な区間に分割して管理できる。
(3)また、本発明の楽曲処理装置は、前記第1の特徴量抽出部が、前記部分区間の音響特徴量を抽出し、前記単語推定部が、前記部分区間ごとに単語データを推定することを特徴としている。これにより、歌詞データが付帯していない楽曲データであっても適当な区間ごとに単語データを付与できる。
(4)また、本発明の楽曲処理装置は、前記推定された単語データに関連する画像データを検索する画像データ検索部を更に備えることを特徴としている。これにより、歌詞データが付帯していない楽曲データに対して、付与された単語データに応じた画像データを対応させることができる。
(5)また、本発明の楽曲処理装置は、前記推定された単語データを用いて全体印象ラベルを付与する全体印象ラベル付与部を更に備え、前記画像データ検索部は、前記付与された全体印象ラベルを参照して画像データを選定することを特徴としている。これにより、全体の印象を考慮した上で区間ごとに適した画像データを選定することができる。
(6)また、本発明の楽曲処理装置は、詞データが付帯された楽曲データから音響特徴量を抽出する第2の特徴量抽出部と、前記歌詞データから重要語データを抽出し、前記抽出された音響特徴量と重要語データとを共起確率で関連付ける確率モデルを構築する確率モデル構築部と、を更に備え、前記単語推定部は、前記確率モデル構築部で構築された確率モデルを用いることを特徴としている。これにより、歌詞データが付帯された楽曲データから得られた確率モデルを利用することができる。
(7)また、本発明の楽曲処理方法は、楽曲データを処理して単語データを付与する楽曲処理方法であって、入力された楽曲データから音響特徴量を抽出するステップと、予め楽曲の音響特徴量と単語データとを共起確率で関連付けて構築された確率モデルを用いて、前記抽出された音響特徴量に関連する単語データを推定するステップと、を含むことを特徴としている。これにより、歌詞データが付帯していない楽曲データに対しても関連性の高い画像データを検索可能にすることができる。
本発明によれば、歌詞データが付帯していない楽曲データに対しても関連性の高い画像データを検索可能にする。
本発明の楽曲処理装置の構成を示すブロック図である。 楽曲DBのデータ構造の一例を示す図である。 本発明の楽曲処理装置の動作を示すフローチャートである。 分割管理処理を示すフローチャートである。 確率モデル構築処理を示すフローチャートである。 単語推定処理を示すフローチャートである 全体印象生成処理を示すフローチャートである。 画像検索処理を示すフローチャートである。
次に、本発明の実施の形態について、図面を参照しながら説明する。本発明の楽曲処理装置は、歌詞データが付帯している楽曲データから抽出した重要単語と、音響特徴を関連付けたデータを用いて、歌詞データが付帯していない楽曲データに対して時系列に合わせて単語データを付与する。また、付与した単語データからWEB上で画像データを検索し、楽曲再生とともに表示可能にする。
[楽曲処理装置の構成]
図1は、楽曲処理装置100の構成を示すブロック図である。図1に示すように、楽曲処理装置100は、楽曲DB110、分割管理部120、第2の特徴量抽出部130、確率モデル構築部140、第1の特徴量抽出部150、単語推定部160、全体印象生成部170、画像検索部180および再生部190を備えている。楽曲処理装置100は、例えば楽曲に画像を合わせたスライドショーを提供するサーバに用いられ、ユーザ端末においてスライドショーのストリーミング再生が可能になる。
楽曲DB110は、楽曲ファイルを格納する。また、例えば楽曲ID、楽曲種類情報、歌詞、同期情報、スライドショーのようなメタ情報も格納できる。図2は、楽曲DB110のデータ構造の一例を示す図である。楽曲IDは、楽曲ごとに振られたユニークなIDである。楽曲種類情報は、歌詞データの付帯の有無のいずれかを示す情報である。同期情報は、歌詞の各行の開始時間と終了時間が記述された情報である。スライドショーは、歌詞の行ごとに表示されるテンプレート画像が記述されているデータである。
分割管理部120は、入力された楽曲データに歌詞データが付帯するか否かを判定し、歌詞データが付帯するか否かに応じて決められた部分区間で、入力された楽曲データを分割管理する。歌詞データが付帯する場合には、入力された楽曲データをテキスト同期情報に基づいて分割できる。一方、付帯テキストが存在しない場合でも分割管理処理を行うことができる。歌詞データが付帯しない楽曲は、例えば一律にN秒単位で分割し、分割区間ごとに音響特徴量を抽出することが好ましい。なお、Nは、任意に設定できる整数である。
第2の特徴量抽出部130は、歌詞データが付帯された楽曲データから音響特徴量を抽出する。例えば、歌詞データが付帯している楽曲データの同期データから、歌詞が再生される時間帯の音響特徴量を抽出し、学習データとする。なお、同期データとは、歌詞データとその再生時間情報を指す。
確率モデル構築部140は、歌詞データから重要語データを抽出し、第2の特徴量抽出部130で抽出された音響特徴量と抽出された重要語データとを共起確率で関連付ける確率モデルを構築する。このようにして、学習データに対して音響特徴と単語の出現確率を求め、確率モデルを構築し、構築された確率モデルを蓄積する。蓄積された確率モデルは、単語推定部160により用いられる。
確率モデル構築部140は、歌詞データが付帯している楽曲データを学習データとして、そのデータから同期データを抽出し、対応する歌詞データの部分を形態素解析して名詞を抽出する。例えば、72曲の楽曲データからはおよそ1039の同期データを学習データとして利用できる。なお、同期データ数は歌詞の行数に依存する。
学習データを用いてPLSAモデルの構築およびラベル付け(音響特徴とラベルの事後確率推定)を行う。このとき、同期データに含まれるユニークな単語を抽出し、TF IDFの上位wordを抽出する。そして、同期データごとに単語の出現確率と、音響特徴を抽出し、モデル構築を行うことができる。具体的には、同期データごとに音響特徴の抽出と各単語の出現確率を計算する。
次に、音響特徴とN個潜在トピックスとのそれぞれの事後確率を推定する。その後、音響特徴とN個潜在トピックスとのそれぞれの事後確率を使って、N個のそれぞれの潜在トピックスと各キーワードとの事後確率を推定し、これをモデルとする。
また、未知の同期データより音響特徴を求め、この音響特徴とN個の潜在トピックスへの潜在確率を推定する。そして、単語ごとに、あらかじめ求めたあったN個の潜在トピックスと各単語の事後確率の総和をもとめ、これを音響特徴と単語の事後確率値とする。この事後確率が大きいほうから上位をその同期データでのラベルとする。なお、それぞれの事後確率の推定はEMアルゴリズムを用いて推定できる。
歌詞データは、楽曲中の再生される時間情報を保有している。そのため、楽曲中の音響特徴と歌詞単語を関連付け、音響特徴量に対する歌詞単語の出現頻度を用いることができる。未知の音響特徴量を確率モデルに入力したときにもっともらしい歌詞単語を付与することが可能である。なお、例えば確率モデルとしては、PLSAを適用することができる。
第1の特徴量抽出部150は、入力された楽曲データから音響特徴量を抽出する。その際には、区間管理されている部分区間ごとの音響特徴量を抽出する。音響特徴量の抽出能力は、第2の特徴量抽出部130の能力と同様である。
単語推定部160は、入力された楽曲データに対して関連する単語データを推定する。その際には、楽曲の音響特徴量と単語データとを共起確率で関連付けて構築された確率モデルを用いて抽出された音響特徴量に関連する単語データを推定して行う。確率モデル構築部140で構築された確率モデルを用い、部分区間ごとに単語データを推定する。
単語推定部160は、未知の音響特徴による単語の出現確率を、モデルを使って算出する。このようにして歌詞データが付帯しない楽曲データに対して音響特徴をもとに単語を自動付与できる。
全体印象生成部170は、歌詞データが付帯しない楽曲データに対して推定された単語データを用いて全体印象ラベルを付与する。全体印象生成部170は、単語データが対応付けられた楽曲データに基づき、単語データから受ける全体の印象を全体印象ラベルとして付与する。
画像検索部180は、推定された単語データに関連する画像データをWEB上で検索する。付与された全体印象ラベルを参照して画像データを選定することが好ましい。再生部190は、画像検索部180で生成されたスライドショーを用いて、楽曲データの再生と連動させて画像データも再生する。なお、上記のような装置構成は一例であり、例えば確率モデル構築の機能のみが別の装置であってもよく、各機能がネットワークで接続されたシステムであってもよい。
[楽曲処理装置の動作]
図3は、楽曲処理装置100の動作を示すフローチャートである。図3に示すように、楽曲処理装置100は、まず、入力された楽曲データを分割管理処理する(ステップS1)。次に、歌詞データが付帯する楽曲データを用いて確率モデルを構築する(ステップS2)。そして、入力された歌詞データが付帯しない楽曲データから音響特徴量を抽出し、抽出された音響特徴量および確率モデルを用いて、入力された楽曲データに対して単語データを推定する(ステップS3)。
単語データが付帯された楽曲データから全体印象を生成する(ステップS4)。そして、区間ごとに対応する単語データおよび全体印象から画像を検索し選定する(ステップS5)。区間に対して画像を特定するスライドショーを作成して楽曲データに連動させて画像データを再生させる(ステップS6)。このようにして、歌詞データが付帯していない楽曲データに対しても関連性の高い画像データでスライドショーを作成できる。以下、各処理を説明する。
(分割管理処理)
図4は、分割管理処理を示すフローチャートである。まず、入力された楽曲データに歌詞データ(同期したテキストデータ)が付帯しているか否かを判定する(ステップT1)。歌詞データが付帯していないと判定された場合には、あらかじめ定められた分割パラメータを設定し(ステップT2)、その分割パラメータに基づいて、楽曲を分割管理する。例えば、3秒を基準に部分区間に分割管理できる(ステップT3)。
歌詞データが存在していると判定された場合には、歌詞データが存在しない区間(非テキスト付帯区間)の有無を判定する(ステップT4)。非テキスト区間が存在する場合には、分割パラメータを設定し(ステップT5)、設定された分割パラメータに基づいて非テキスト区間を分割することができる(ステップT6)。この処理は非テキスト区間が複数あった場合には、すべての非テキスト区間に対して適用することができる(ステップT7)。すべての非テキスト区間について処理が終了し、非テキスト付帯区間が存在しなければ、分割管理処理を終了する。
(確率モデル構築処理)
図5は、確率モデル構築処理を示すフローチャートである。まず、歌詞データが付帯する楽曲データを学習データとして入力する(ステップP1)。次に、歌詞の一行の再生時間に対応する区間の楽曲データを抽出し、その楽曲データの音響特徴量を抽出する(ステップP2)。
例えば、MFCC、ビートヒストグラム等を音響特徴とすることができ、CLAM、MARSYASなどのソフトウェアにより音響特徴量を抽出することができる。次に、歌詞データを形態素解析により品詞分解し、重要語を抽出する(ステップP3)。音響特徴と重要語とを利用してPLSAの潜在確率を求め、確率モデルを構築する(ステップP4)。このようにして求めた潜在確率マトリクスは確率モデルとして、蓄積しておき、単語推定に利用される。
なお、楽曲データの分割単位における重要単語抽出では、歌詞データが付帯している楽曲データであれば歌詞の一行分で、歌詞データが付帯していない楽曲データであれば、分割単位で重要語を抽出する。重要語として、例えばTF IDF値の高い単語を抽出することができる。
(単語推定処理)
図6は、単語推定処理を示すフローチャートである。まず、歌詞データが付帯しない楽曲データを入力する(ステップQ1)。次に、入力された歌詞データが付帯しない楽曲データから音響特徴量を抽出する(ステップQ2)。そして、抽出した音響特徴量をPLSAによって得られた潜在確率マトリクスを参照し、対応する音響特徴量に該当する上位M件の歌詞に含まれる単語を分割区間に対応する単語として推定し(ステップQ3)、単語推定処理を終了する。これにより歌詞データが付帯していない楽曲データに対して、歌詞データに相当する単語データを付与することができる。
(全体印象生成処理)
図7は、全体印象生成処理を示すフローチャートである。まず、事前に歌詞に対して全体印象のラベルが付与された教師データを準備する(ステップR1)。次に、楽曲データに付帯する歌詞データを形態素解析して得られた単語または楽曲データに対応付けて推定された単語データを特徴ベクトルの要素として抽出する(ステップR2)。抽出した特徴ベクトルにより、候補語ごとに正、負の2クラス識別器を用いて評価し、新たに入力された歌詞に対してすべての候補語の正負を判定する(ステップR3)。識別器により正として判定されたすべての候補語を、その楽曲の全体印象語に決定し(ステップR4)、全体印象生成処理を終了する。
なお、全識別器は例えばSupport Vector Machine(SVM)を利用することができる。また、パラメータ作成のための教師データは例えば以下のようにして作成することができる。すなわち、まず学習データとして240曲程度の楽曲を準備する。例えば、Music lyrics database(http://www.mldb.org)より歌詞データを取得することができる。
そして、1曲あたり5人くらいが回答するように曲を振り分けてアンケートを実施し、アンケートの結果より、使用する全体印象語を決定する。過半数の回答が得られた単語をその楽曲の全体語印象とする。SVMの特徴量は全楽曲から得られた単語の出現確率をもとにしたTFIDF値を使用する。
単語は、形態素解析(POS Tagger、MECAB)などを使用して得ることができる。教師データにより全体印象語を付与する識別器を利用して、新規の楽曲歌詞や単語データが付与された楽曲データに対しても全体印象語を付与できる。
楽曲IDの入力に対して、楽曲DB110より歌詞データを抽出し、形態素解析・TF IDF算出により特徴ベクトルを作成する。教師データにより作成された識別器を用いて、歌詞特徴ベクトルに基づいて候補語の正負を出力させ、正であった語を最終的に全体印象語として付与する。なお、全体印象語については日本語に限らない。
(画像検索処理)
図8は、画像検索処理を示すフローチャートである。画像検索処理は入力された楽曲データに付帯する歌詞データまたは推定された単語データを抽出する(ステップL1)。その際には、形態素解析により品詞分解を適用し、単語を品詞ごとに選別できる。そして、抽出された単語データを用いて画像データを検索する(ステップL2)。画像検索対象としては、FLICKR(登録商標)などのWEBサービスや、個人の写真コレクションなどを利用することができる。検索して得られた画像群から、表示するための1枚を抽出することで各行または分割単位で表示する画像を選定する(ステップL3)。
表示するための一枚の画像は例えば、検索して得られた画像データに付与されたタグと、全体印象語の関連度合を調べることにより選定できる。このようにして該当する区間に関連する画像データを選定する。そして選定した画像および表示区間を特定するデータとしてスライドショーを生成し(ステップL4)、画像検索処理を終了する。これにより歌詞データが付帯していない楽曲データに対して、楽曲データに適した画像データを付与することができる。なお、以上のような処理は、プログラムにより行うことができる。
100 楽曲処理装置
110 楽曲DB
120 分割管理部
130 第2の特徴量抽出部
140 確率モデル構築部
150 第1の特徴量抽出部
160 単語推定部
170 全体印象生成部
180 画像検索部
190 再生部

Claims (6)

  1. 楽曲データを処理して単語データを付与する楽曲処理装置であって、
    入力された楽曲データに付帯する歌詞データの有無を判定し、歌詞データの有無に応じた部分区間で前記入力された楽曲データを分割管理する分割管理部と、
    前記入力された楽曲データから音響特徴量を抽出する第1の特徴量抽出部と、
    予め楽曲の音響特徴量と単語データとを共起確率で関連付けて構築された確率モデルを用いて、前記抽出された音響特徴量に関連する単語データを推定する単語推定部と、を備えることを特徴とする楽曲処理装置。
  2. 前記第1の特徴量抽出部は、前記部分区間の音響特徴量を抽出し、
    前記単語推定部は、前記部分区間ごとに単語データを推定することを特徴とする請求項記載の楽曲処理装置。
  3. 前記推定された単語データを用いて全体印象ラベルを付与する全体印象ラベル付与部と、
    前記推定された単語データに関連する画像データを検索する画像データ検索部と、を更に備え、
    前記画像データ検索部は、前記付与された全体印象ラベルを参照して画像データを選定することを特徴とする請求項1または請求項2記載の楽曲処理装置。
  4. 歌詞データが付帯された楽曲データから音響特徴量を抽出する第2の特徴量抽出部と、
    前記歌詞データから重要語データを抽出し、前記抽出された音響特徴量と重要語データとを共起確率で関連付ける確率モデルを構築する確率モデル構築部と、を更に備え
    前記単語推定部は、前記確率モデル構築部で構築された確率モデルを用いることを特徴とする請求項1から請求項3のいずれかに記載の楽曲処理装置。
  5. 楽曲データを処理して単語データを付与する楽曲処理プログラムであって、
    入力された楽曲データに付帯する歌詞データの有無を判定し、歌詞データの有無に応じた部分区間で前記入力された楽曲データを分割管理する処理と、
    前記入力された楽曲データから音響特徴量を抽出する処理と、
    予め楽曲の音響特徴量と単語データとを共起確率で関連付けて構築された確率モデルを用いて、前記抽出された音響特徴量に関連する単語データを推定する処理と、をコンピュータに実行させることを特徴とする楽曲処理プログラム
  6. 楽曲データを処理して単語データを付与する楽曲処理方法であって、
    入力された楽曲データに付帯する歌詞データの有無を判定し、歌詞データの有無に応じた部分区間で前記入力された楽曲データを分割管理するステップと、
    前記入力された楽曲データから音響特徴量を抽出するステップと、
    予め楽曲の音響特徴量と単語データとを共起確率で関連付けて構築された確率モデルを用いて、前記抽出された音響特徴量に関連する単語データを推定するステップと、を含むことを特徴とする楽曲処理方法
JP2012229033A 2012-10-16 2012-10-16 楽曲処理装置および楽曲処理方法 Active JP6114980B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012229033A JP6114980B2 (ja) 2012-10-16 2012-10-16 楽曲処理装置および楽曲処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012229033A JP6114980B2 (ja) 2012-10-16 2012-10-16 楽曲処理装置および楽曲処理方法

Publications (2)

Publication Number Publication Date
JP2014081478A JP2014081478A (ja) 2014-05-08
JP6114980B2 true JP6114980B2 (ja) 2017-04-19

Family

ID=50785718

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012229033A Active JP6114980B2 (ja) 2012-10-16 2012-10-16 楽曲処理装置および楽曲処理方法

Country Status (1)

Country Link
JP (1) JP6114980B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057571A (ja) * 2014-09-12 2016-04-21 ヤマハ株式会社 音響解析装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5306114B2 (ja) * 2009-08-28 2013-10-02 Kddi株式会社 クエリ抽出装置、クエリ抽出方法およびクエリ抽出プログラム
JP2011250100A (ja) * 2010-05-26 2011-12-08 Sony Corp 画像処理装置および方法、並びにプログラム
JP5195879B2 (ja) * 2010-11-24 2013-05-15 株式会社Jvcケンウッド 楽曲検索再生装置、楽曲検索再生方法、及び楽曲検索再生プログラム

Also Published As

Publication number Publication date
JP2014081478A (ja) 2014-05-08

Similar Documents

Publication Publication Date Title
Kaminskas et al. Location-aware music recommendation using auto-tagging and hybrid matching
CN109165302B (zh) 多媒体文件推荐方法及装置
TWI553494B (zh) 基於多模態融合之智能高容錯視頻識別系統及其識別方法
US7707162B2 (en) Method and apparatus for classifying multimedia artifacts using ontology selection and semantic classification
US20100082653A1 (en) Event media search
US9965726B1 (en) Adding to a knowledge base using an ontological analysis of unstructured text
KR20080058356A (ko) 시맨틱 토픽의 자동화된 리치 프레젠테이션을 위한컴퓨터-구현 방법 및 컴퓨팅 장치
JP2011175362A (ja) 情報処理装置、重要度算出方法及びプログラム
Cheng et al. On effective personalized music retrieval by exploring online user behaviors
US20200394988A1 (en) Spoken words analyzer
JP2007241888A (ja) 情報処理装置および方法、並びにプログラム
JP6123143B1 (ja) 特許要件適否予測装置および特許要件適否予測プログラム
CN111506794A (zh) 一种基于机器学习的谣言管理方法和装置
Tatli et al. A tag-based hybrid music recommendation system using semantic relations and multi-domain information
JP2015097026A (ja) トレンド分析装置、トレンド分析方法およびトレンド分析プログラム
Álvarez et al. Riada: a machine-learning based infrastructure for recognising the emotions of Spotify songs
CN111241380B (zh) 用于生成推荐的方法和设备
JP6114980B2 (ja) 楽曲処理装置および楽曲処理方法
CN110019921B (zh) 音频与属性的关联方法及装置、音频搜索方法及装置
JP3692416B2 (ja) 情報フィルタリング方法および装置
JP5474591B2 (ja) 画像選定装置、画像選定方法および画像選定プログラム
Rimaz et al. Audiolens: Audio-aware video recommendation for mitigating new item problem
JP6530002B2 (ja) コンテンツ探索装置、コンテンツ探索方法、プログラム
Celma et al. Zempod: A semantic web approach to podcasting
JPH09245046A (ja) 情報検索装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150828

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161011

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170117

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170303

R150 Certificate of patent or registration of utility model

Ref document number: 6114980

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150