JP5516720B2 - カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法 - Google Patents

カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法 Download PDF

Info

Publication number
JP5516720B2
JP5516720B2 JP2012506747A JP2012506747A JP5516720B2 JP 5516720 B2 JP5516720 B2 JP 5516720B2 JP 2012506747 A JP2012506747 A JP 2012506747A JP 2012506747 A JP2012506747 A JP 2012506747A JP 5516720 B2 JP5516720 B2 JP 5516720B2
Authority
JP
Japan
Prior art keywords
music
category
feature
word
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012506747A
Other languages
English (en)
Other versions
JPWO2011118037A1 (ja
Inventor
陽子 藤本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2011118037A1 publication Critical patent/JPWO2011118037A1/ja
Application granted granted Critical
Publication of JP5516720B2 publication Critical patent/JP5516720B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は、カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法に関する。
従来、楽曲をリストなどにカテゴライズする手法として、楽曲自体に付加されている楽曲タイトル、作曲者、アーティスト等などの文字情報を用いた分類手法が利用されている。
例えば、複数の楽曲を含むアナログ音声をデジタル音声に変換し、楽曲ごとに出だしと終わりとを特定する。続いて、出だしと終わりとが特定された楽曲に関する文字情報(メタ情報)を文字認識する。そして、出だしと終わりとが特定された楽曲と文字認識結果とを対応付けることで、楽曲をカテゴライズする手法が開示されている。
また、楽曲のメタ情報からタイトル、アーティスト名、ジャンル、レビューテキスト、テンポ、ビート、リズムなどの各項目を抽出する。そして、抽出した各項目と抽出元の楽曲とを対応付けることで、楽曲を複数にカテゴライズする手法が開示されている。
特表2006−515099号公報 特開2007−26425号公報
しかしながら、従来の技術では、楽曲に付加される文字情報を用いて楽曲を分類しているので、楽曲に付加されている文字情報の情報量が少ない場合には、楽曲を正確に分類することができないという課題があった。
また、楽曲に付加される情報を利用せずに、テンポや階調など音楽的特徴で分類した場合、専門的な分類になってしまい、一般ユーザが利用できるような汎用性のある分類とは言えない。また、楽曲に文字情報を付加した上で分類する手法も考えられるが、楽曲ごとに文字情報を作成して付加する作業が非常に手間であり、現実的でない。
開示の技術は、上記に鑑みてなされたものであって、楽曲に付加される文字情報が少ない場合でも、楽曲を正確に分類することが可能であるカテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法を提供することを目的とする。
本願の開示するカテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法は、一つの態様において、楽曲を受け付ける楽曲受付手順と、前記楽曲受付手順により受け付けられた楽曲が有する映像情報を抽出し、抽出した映像情報を特徴ごとに分解する映像分解手順と、前記映像分解手順により分解された映像情報それぞれについて、当該映像情報の特徴を表すカテゴリを生成するカテゴリ生成手順とをコンピュータに実行させる。
本願の開示するカテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法の一つの態様によれば、楽曲に付加される文字情報が少ない場合でも、楽曲を正確に分類することが可能であるという効果を奏する。
図1は、実施例1に係るカテゴリ生成装置の構成を示すブロック図である。 図2は、実施例2に係るカテゴリ生成装置の構成を示すブロック図である。 図3は、シーンDBに記憶される情報の例を示す図である。 図4は、単語DBに記憶される情報の例を示す図である。 図5は、カウント用DBに記憶される情報の例を示す図である。 図6は、楽曲情報DBに記憶される情報の例を示す図である。 図7は、曲リスト画面の例を示す図である。 図8は、曲リストの詳細画面の例を示す図である。 図9は、曲リストのメニュー画面の例を示す図である。 図10は、カテゴリ別の曲リスト画面の例を示す図である。 図11は、実施例2に係るカテゴリ生成装置の処理の流れを示すフローチャートである。 図12は、単語解析処理の流れを示すフローチャートである。 図13は、映像解析処理の流れを示すフローチャートである。 図14は、カテゴリ生成プログラムを実行するコンピュータシステムの例を示す図である。
以下に、本願の開示するカテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
図1は、実施例1に係るカテゴリ生成装置の構成を示すブロック図である。このカテゴリ生成装置1は、コンピュータなどの情報処理装置であってもよく、TV番組を録画する録画機やポータブル再生機など映像を扱う機器や携帯型の音楽プレーヤーなど様々な装置に適用できる。
図1に示すように、カテゴリ生成装置1は、楽曲受付部1aと映像分解部1bとカテゴリ生成部1cとを有する。楽曲受付部1aは、楽曲を受け付ける。なお、楽曲受付部1aは、ネットワークや放送回線などを介して受け付けてもよく、記憶媒体に録画された情報を読み出すようにしてもよい。
映像分解部1bは、楽曲受付部1aにより受け付けられた楽曲が有する映像情報を抽出し、抽出した映像情報を特徴ごとに分解する。そして、カテゴリ生成部1cは、映像分解部1bにより分解された映像情報それぞれについて、当該映像情報の特徴を表すカテゴリを生成する。この結果、楽曲に付加される文字情報が少ない場合でも、楽曲を正確に分類することが可能である。
ところで、本願の開示するカテゴリ生成装置は、図1に示した制御部以外にも様々な制御部を有していてもよい。そこで、実施例2では、実施例1で説明した以外の制御部等を有するカテゴリ生成装置の一例を説明する。
[カテゴリ生成装置の構成]
まず、図2を用いて、実施例2に係るカテゴリ生成装置の構成を説明する。図2は、実施例2に係るカテゴリ生成装置の構成を示すブロック図である。図2に示すように、カテゴリ生成装置10は、通信制御I/F部11と入力部12と表示部13と記憶部14と制御部20とを有する。
通信制御I/F部11は、他の装置と接続するインタフェースであり、例えばチューナーやセットトップボックス等を有し、放送されるテレビ番組を受信して後述する楽曲検出部21に出力する。また、通信制御I/F部11は、インターネットなどのネットワークを介してテレビ番組等を受信して楽曲検出部21に出力する。
入力部12は、例えばカテゴリ処理開始や終了などユーザからの各種操作指示を受け付けるキーボードやマウスなどであり、受け付けた情報を制御部20等に出力する。また、入力部12は、CDやDVDなどの記憶媒体を受け付けることもできる。そして、入力部12は、受け付けた記憶媒体から情報を読み出して楽曲検出部21に出力する。後述する表示部13も、マウスと協働してポインティングディバイス機能を実現する。表示部13は、各種の情報を出力する出力手段であり、例えば後述する曲リスト表示部27が出力する楽曲情報等を表示するモニタやスピーカーである。
記憶部14は、制御部20による各種処理に必要なデータおよびプログラムを格納する半導体メモリ素子、または、ハードディスクなどの記憶装置である。この記憶部14は、シーンDB14aと単語DB14bとカウント用DB14cと楽曲情報DB14dとを有する。
シーンDB14aは、映像の特徴を示すシーンとそのシーンが表すと思われるカテゴリとを対応付けて記憶する。例えば、シーンDB14aは、図3に示すように、「No、シーン特徴、カテゴリ1、カテゴリ2、カテゴリ3」として「1、雪が多い、雪、冬、白」や「2、イルミネーションがある、夜、クリスマス、−」などを記憶する。
ここで記憶される「No」は、シーンDB14aに記憶されるレコードを区別する識別子である。「シーン特徴」は、映像を分解したときのシーンの特徴を示す情報であり、「カテゴリ1、カテゴリ2、カテゴリ3」は、シーンを示すカテゴリである。例えば、「1、雪が多い、雪、冬、白」は、雪が多いシーンが雪、冬、白のカテゴリを有していることを示す。また、「2、イルミネーションがある、夜、クリスマス、−」は、イルミネーションがあるシーンが夜、クリスマスのカテゴリを有していることを示す。なお、図3は、シーンDBに記憶される情報の例を示す図である。
単語DB14bは、単語とその単語が表すと連想できるカテゴリとを対応付けて記憶する。例えば、単語DB14bは、図4に示すように、「No、単語、カテゴリ1、カテゴリ2、カテゴリ3」として「1、雪、雪、冬、白」や「2、サンタクロース、クリスマス、冬、−」などを記憶する。
ここで記憶される「No」は、単語DB14bに記憶されるレコードを区別する識別子である。「単語」は、得られた単語であり、「カテゴリ1、カテゴリ2、カテゴリ3」は、単語を表すカテゴリである。例えば、「1、雪、雪、冬、白」は、単語「雪」が雪、冬、白のカテゴリを有していることを示す。また、「2、サンタクロース、クリスマス、冬、−」は、単語「サンタクロース」がクリスマス、冬のカテゴリを有していることを示す。なお、図4は、単語DBに記憶される情報の例を示す図である。
カウント用DB14cは、抽出された楽曲についてカテゴリの重み付けをするために、制御部20によって生成された各種情報を一時的に保持する。例えば、カウント用DB14cは、図5に示すように、「No、カテゴリ、登場回数、登場時間(分)、出現率」として「1、冬、12、10、80%」や「2、クリスマス、11、0、40%」などを記憶する。
ここで記憶される「No」は、カウント用DB14cに記憶されるレコードを区別する識別子である。「カテゴリ」は、単語解析部24や映像解析部22によって分類されたカテゴリである。「登場回数」は、単語解析部24によって係数されたカテゴリの総登場回数であり、「登場時間」は、映像解析部22によって係数されたカテゴリの総登場時間である。「出現率」は、出現率計算部26によって算出されたカテゴリの出現率である。
一例として、「1、冬、12、10、80%」は、カテゴリ=冬が楽曲中に単語として12回登場、映像として10分登場し、その出現率が80%であることを示す。また、「2、クリスマス、11、0、40%」は、カテゴリ=クリスマスが楽曲中に単語として11回登場、映像としては登場せず、その出現率が40%であることを示す。なお、図5は、カウント用DBに記憶される情報の例を示す図である。
楽曲情報DB14dは、楽曲検出部21によって検出された楽曲のカテゴリ分類結果を記憶する。例えば、楽曲情報DB14dは、図6に示すように、「No、ファイル名、楽曲開始位置、楽曲終了位置、番組タイトル、番組放送日時、楽曲のタイトル、楽曲の演者名、楽曲の作詞家名、楽曲の作曲家名、楽曲の歌詞、カテゴリ」が記憶される。
一例として、「1、A、0:11:15、0:16:30、AAA、2009.01.02、クリスマスの歌、アアア、アアア、アアア、あいうえお・・・、冬80%/クリスマス40%」について説明する。この場合、番組放送日時=2009.01.02に放送された番組タイトル=AAAの番組を示すファイル名=Aには、当該番組の0:11:15〜0:16:30の間に楽曲が演奏されている。そして、この楽曲は、タイトルがクリスマスの歌であり、楽曲の演者名と楽曲の作詞家名と楽曲の作曲家とがアアアである。さらに、このクリスマスの歌は、歌詞=あいうえお・・であり、カテゴリ冬(80%)とクリスマス(40%)が生成されている。
一例として、「2、A、0:32:48、0:35:11、AAA、2009.01.02、誕生日の歌、イイイ、アイウ、アアア、かきこくけこ・・・、誕生日25%」について説明する。この場合、番組放送日時=2009.01.02に放送された番組タイトル=AAAの番組を示すファイル名=Aには、当該番組の0:32:48〜0:35:11の間に楽曲が演奏されている。そして、この楽曲は、タイトルが誕生日の歌であり、楽曲の演者名がイイイと楽曲の作詞家名がアイウと楽曲の作曲家がアアアである。さらに、この誕生日の歌は、歌詞=かきくけこ・・であり、カテゴリ誕生日(25%)が生成されている。なお、図6は、楽曲情報DBに記憶される情報の例を示す図である。
制御部20は、例えば、OS(Operating System)などの制御プログラム、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有するCPU(Central Processing Unit)などの電子回路である。この制御部20は、楽曲検出部21と映像解析部22と文字情報抽出部23と単語解析部24と番組情報抽出部25と出現率計算部26と曲リスト表示部27とを有する。
楽曲検出部21は、通信制御I/F部11や入力部12によって受け付けられた番組などの映像データから楽曲部分を検出する。例えば、楽曲検出部21は、映像データから楽曲の開始位置と楽曲の終了位置とを検出し、当該映像データを示すファイル名に対応付けて楽曲情報DB14dに格納する。また、楽曲検出部21は、受信した映像データや映像データから抽出した楽曲部分を映像解析部22、文字情報抽出部23、番組情報抽出部25、出現率計算部26のそれぞれに出力する。
映像解析部22は、楽曲検出部21によって抽出された楽曲部分の映像部分を抽出して解析し、映像特徴よりカテゴリ(メタ情報)を生成する。そして、映像解析部22は、カテゴリの生成が完了すると、完了通知を出現率計算部26に出力する。
例えば、映像解析部22が、ファイル名Aの番組の楽曲部分Xの映像を解析して、「雪が多い」シーンを得たとする。この場合、映像解析部22は、シーンDB14aを参照し、「雪が多い」シーンのカテゴリとして「雪、冬、白」を取得する。続いて、映像解析部22は、楽曲部分Xにおける「雪が多い」シーンの登場時間(例えば10分)を計算する。そして、映像解析部22は、カテゴリ「雪、冬、白」それぞれの登場時間を10分とし、これらをカウント用DB14cに格納する。
また、映像解析部22は、楽曲部分Xの映像を解析しても「イルミネーションがある」シーンを取得できない場合には、「イルミネーションがある」シーンに対応するカテゴリ「夜、クリスマス」それぞれの登場時間を0分としてカウント用DB14cに格納する。
この映像解析部22は、楽曲部分から得られたシーン全てについて上述した処理を実行し、各カテゴリが楽曲全体で登場した総時間を計測する。つまり、映像解析部22は、上記例に加え、楽曲部分から得られた他のシーンのカテゴリが「雪」であった場合、この他のシーンの登場時間(例えば5分)を計測する。そして、映像解析部22は、上記例で取得した「雪、10分」に新たに計測した「5分」を加えた「雪、15分」をカウント用DB14cに格納する。
文字情報抽出部23は、楽曲検出部21によって抽出された楽曲部分の文字部分を抽出して解析し、楽曲の情報を取得する。そして、文字情報抽出部23は、取得した楽曲の情報を、楽曲検出部21が楽曲情報DB14dに格納したファイル名、楽曲の開始位置と楽曲の終了位置とに対応付けて格納する。また、文字情報抽出部23は、楽曲部分から抽出した文字部分を単語解析部24に出力する。
例えば、文字情報抽出部23は、楽曲部分の文字部分から「楽曲のタイトル、楽曲の演者、楽曲の作詞家、楽曲の作曲家、楽曲の歌詞」を取得して、楽曲情報DB14dに格納する。なお、ここで取得される情報は、楽曲情報DB14dが記憶する情報に従って任意に変更できる。また、文字情報抽出部23は、楽曲部分の文字部分から取得できなかった情報については、「無題」や「取得不可」などの情報を格納する。
単語解析部24は、文字情報抽出部23によって抽出された楽曲の文字部分を単語に分解してカテゴリを生成する。そして、単語解析部24は、カテゴリの生成が完了すると、完了通知を出現率計算部26に出力する。例えば、単語解析部24は、文字情報抽出部23によって抽出された「楽曲のタイトル」と「歌詞」のそれぞれを単語に分解する。また、単語解析部24は、得られた総単語数を出現率計算部26に出力する。
一例として、単語解析部24が、ファイル名Aの番組の楽曲部分Xにおける「楽曲のタイトル」と「歌詞」を解析して、単語「雪」を得たとする。この場合、単語解析部24は、単語DB14bを参照し、単語「雪」のカテゴリとして「雪、冬、白」を取得する。続いて、単語解析部24は、楽曲部分Xにおける単語「雪」の登場回数(例えば5回)を計算する。そして、単語解析部24は、カテゴリ「雪、冬、白」それぞれの登場回数を5回とし、これらをカウント用DB14cに格納する。
また、単語解析部24は、楽曲部分Xの文字部分を解析しても単語「夢」を取得できない場合には、単語「夢」に対応するカテゴリそれぞれの登場時間を0分としてカウント用DB14cに格納する。
この単語解析部24は、文字部分から得られた単語全てについて上述した処理を実行し、各カテゴリが楽曲全体で登場した総回数を計測する。つまり、単語解析部24は、上記例に加え、文字部分から単語「サンタクロース」を得たとする。この場合、単語解析部24は、単語DB14bを参照し、単語「サンタクロース」のカテゴリとして「クリスマス、冬」を取得する。続いて、単語解析部24は、楽曲部分Xにおける単語「サンタクロース」の登場回数(例えば7回)を計算する。そして、単語解析部24は、カテゴリ「雪、冬、白」の登場回数を7回とし、これらをカウント用DB14cに格納する。このとき、単語解析部24は、上記例で取得した「冬、5回」を計測しているので、両方を加算した「冬、12回」をカウント用DB14cに格納することとなる。
したがって、映像解析部22と単語解析部24との両方で取得されたカテゴリについては、登場時間と登場回数との両方がカウント用DB14cに格納される。また、映像解析部22では取得されたが単語解析部24では取得されなかったカテゴリについては、登場回数=0と計測された登場時間とがカウント用DB14cに格納される。また、映像解析部22では取得されなかったが単語解析部24では取得されたカテゴリについては、登場時間=0と計測された登場回数とがカウント用DB14cに格納される。
番組情報抽出部25は、楽曲検出部21から受信した映像データから番組情報を取得する。そして、番組情報抽出部25は、番組情報の取得が完了すると、完了通知を出現率計算部26に出力する。例えば、番組情報抽出部25は、映像データがテレビ番組や録画番組、DVDなどの情報である場合に、映像データから「番組タイトル、放送日時」を取得する。そして、番組情報抽出部25は、取得した「番組タイトル、放送日時」を、楽曲検出部21が楽曲情報DB14dに格納したファイル名、楽曲の開始位置と楽曲の終了位置とに対応付けて格納する。
出現率計算部26は、カウント用DB14cに格納されたカテゴリについて、登場回数や登場時間を用いて重み付けする。例えば、出現率計算部26は、カウント用DB14cに登録されるカテゴリが検出された楽曲の演奏時間を楽曲情報DB14dから算出する。具体的には、出現率計算部26は、カテゴリ「冬」が検出された楽曲「ファイル名=A」の楽曲開始位置と楽曲終了位置とを取得して、これらによって演奏時間を算出する。また、出現率計算部26は、カテゴリ「冬」が検出された楽曲から得られた総単語数を単語解析部24から受信する。
そして、出現率計算部26は、カテゴリの「登場回数=n2」、「登場時間=m2」、カテゴリを含む楽曲の「総演奏時間=n1」、楽曲の「総単語数=m1」とした場合、「(m2+n2)/(m1+n1)×100」で算出した値を重み付けとする。また、出現率計算部26は、カウント用DB14cに格納されたカテゴリについて上記演算式を計算して重みを算出する。そして、出現率計算部26は、カテゴリと重みとを対応付けたカテゴリ情報を当該カテゴリが取得されたファイル名に対応付けて楽曲情報DB14dに格納する。
例えば、ファイル名=Aの楽曲から取得されたカテゴリ「冬」の「登場回数が14」、「登場時間が10」、カテゴリを含む楽曲の「総演奏時間=5」、楽曲の「総単語数=25」であるとする。この場合、出現率計算部26は、カテゴリ「冬」の重みとして、「(14+10)/(5+25)×100=80」を算出する。そして、出現率計算部26は、ファイル名=Aのカテゴリとして「冬、80%」を楽曲情報DB14dに格納する。
曲リスト表示部27は、ユーザからの要求に応じて、楽曲情報DB14dに記憶される情報から曲リストを生成して表示部13に表示出力する。例えば、曲リスト表示部27は、ユーザから曲リスト表示指示が入力部12によって受け付けられた場合、図7に示すような曲リスト画面を表示する。図7に示す画面例は、楽曲情報DB14dに記憶される楽曲のタイトルを表示する画面である。曲リスト表示部27は、楽曲情報DB14dに記憶される情報から「タイトル、楽曲の演者、番組放送日時、番組タイトル、カテゴリ」を取得し、これらに「詳細データ表示」ボタンを付加して図7の画面を生成する。なお、曲リスト表示部27は、「楽曲を追加」や「楽曲情報の編集」ボタンを設けることで、ユーザによる編集操作を可能にする。つまり、ユーザは、「楽曲を追加」や「楽曲情報の編集」ボタンをクリックすることで、楽曲情報DB14dに記憶される情報を編集することができる。
また、曲リスト表示部27は、ユーザによって図7の画面の「詳細データ表示」ボタンがクリックされた場合、図8に示すような楽曲の詳細情報を表示する。つまり、曲リスト表示部27は、楽曲の詳細情報として、楽曲情報DB14dに記憶される情報そのものを表示する。
また、曲リスト表示部27は、ユーザから曲リスト表示指示が入力部12によって受け付けられた場合、図9に示すようなメニュー画面を表示することもできる。曲リスト表示部27は、このメニュー画面を表示することで、ユーザが所望する情報で並び替えた画面を提供することができる。例えば、曲リスト表示部27は、図9に示すメニュー画面の「カテゴリ別表示」がクリックされた場合、楽曲情報DB14dからカテゴリを取得し、図10に示すように、取得したカテゴリ「冬」、「別れ」それぞれについて楽曲のタイトルを表示する。
具体的には、曲リスト表示部27は、楽曲情報DB14dからカテゴリを取得し、取得したカテゴリごとに当該カテゴリを要するタイトルを取得する。そして、曲リスト表示部27は、取得したカテゴリごとに、取得したタイトルに対応するレコードを表示する。なお、図7は、曲リスト画面の例を示す図であり、図8は、曲リストの詳細画面の例を示す図であり、図9は、曲リストのメニュー画面の例を示す図であり、図10は、カテゴリ別の曲リスト画面の例を示す図である。
[カテゴリ生成装置による処理の流れ]
次に、図11〜図13を用いて、カテゴリ生成装置による処理の流れを説明する。図11は、実施例2に係るカテゴリ生成装置の処理の流れを示すフローチャートであり、図12は、単語解析処理の流れを示すフローチャートであり、図13は、映像解析処理の流れを示すフローチャートである。
(カテゴリ生成装置の処理の流れ)
図11に示すように、カテゴリ生成装置10の楽曲検出部21は、映像データを受け付けると(ステップS101肯定)、映像データから楽曲部分を抽出する(ステップS102)。
続いて、単語解析部24は、抽出された楽曲の文字部分について単語解析処理を実行してカテゴリを生成してカウント用DB14cに格納する(ステップS103)。なお、このとき、文字情報抽出部23は、楽曲から文字情報として「楽曲のタイトル、楽曲の演者、楽曲の作詞家、楽曲の作曲家、楽曲の歌詞」を取得して、楽曲情報DB14dに格納する。
続いて、映像解析部22は、楽曲検出部21によって抽出された楽曲部分の映像部分を抽出して解析し、映像特徴よりカテゴリを生成してカウント用DB14cに格納する(ステップS104)。なお、このとき、番組情報抽出部25は、楽曲から「番組タイトル、放送日時」を取得して、楽曲情報DB14dに格納する。
そして、出現率計算部26は、カウント用DB14cに格納されたカテゴリについて、登場回数や登場時間を用いて重み付けを生成し、カウント用DB14cに格納する(ステップS105)。
その後、出現率計算部26は、カウント用DB14cに格納したカテゴリごとの登場回数や登場時間、重みを楽曲情報DB14dに格納する(ステップS106)。そして、出現率計算部26は、カウント用DB14cをクリアする(ステップS107)。
(単語解析処理の流れ)
次に、図11のステップS103で実行される単語解析処理について説明する。図12に示すように、カテゴリ生成装置10の単語解析部24は、楽曲から文字情報を抽出し(ステップS201)、抽出した文字情報を単語に分解する(ステップS202)。なお、単語解析対象の文字情報が文字情報抽出部23によって抽出されている場合には、ステップS201を実行する必要はない。
続いて、単語解析部24は、文字情報から得られた総単語数をカウントし(ステップS203)、得られた単語1つを取得する(ステップS204)。そして、単語解析部24は、取得した単語が単語DB14bに登録されているか否かを判定する(ステップS205)。
そして、単語解析部24は、取得した単語が単語DB14bに登録されている場合(ステップS205肯定)、当該単語に対応付けられたカテゴリを単語DB14bから取得する(ステップS206)。続いて、単語解析部24は、取得したカテゴリがカウント用DB14cに登録されているか否かを判定する(ステップS207)。
そして、単語解析部24は、取得したカテゴリがカウント用DB14cに登録されている場合(ステップS207肯定)、当該カテゴリの登場回数をインクリメントする(ステップS208)。一方、単語解析部24は、取得したカテゴリがカウント用DB14cに登録されていない場合(ステップS207否定)、当該カテゴリのレコードをカウント用DB14cに新たに生成して、登場回数をインクリメントする(ステップS209)。
また、ステップS205において、取得した単語が単語DB14bに登録されていない場合(ステップS205否定)、単語解析部24は、ステップS205〜ステップS208の処理が実行されていない単語が存在するか否かを判定する(ステップS210)。
そして、単語解析部24は、未処理の単語が存在する場合(ステップS210肯定)、未処理の単語を取得してステップS205以降の処理を実行する。一方、単語解析部24は、未処理の単語が存在しない場合(ステップS210否定)、単語解析処理を終了する。
(映像解析処理の流れ)
次に、図11のステップS104で実行される映像解析処理について説明する。図13に示すように、カテゴリ生成装置10の映像解析部22は、楽曲から映像情報を抽出し(ステップS301)、楽曲の総時間を取得する(ステップS302)。続いて、映像解析部22は、抽出した映像情報を特徴ごと(シーンごと)に分解する(ステップS303)。
続いて、映像解析部22は、映像情報から得られたシーン1つを取得し(ステップS304)、当該シーンがシーンDB14aに登録されているか否かを判定する(ステップS305)。
そして、映像解析部22は、取得したシーンがシーンDB14aに登録されている場合(ステップS305肯定)、当該シーンに対応付けられたカテゴリをシーンDB14aから取得する(ステップS306)。続いて、映像解析部22は、取得したカテゴリがカウント用DB14cに登録されているか否かを判定する(ステップS307)。
そして、映像解析部22は、取得したカテゴリがカウント用DB14cに登録されている場合(ステップS307肯定)、当該カテゴリの登場時間を計数する(ステップS308)。一方、映像解析部22は、取得したカテゴリがカウント用DB14cに登録されていない場合(ステップS307否定)、当該カテゴリのレコードをカウント用DB14cに新たに生成して、登場時間を計数する(ステップS309)。
また、取得したシーンがシーンDB14aに登録されていない場合(ステップS305否定)、映像解析部22は、ステップS305〜ステップS308の処理が実行されていないシーンが存在するか否かを判定する(ステップS310)。
そして、映像解析部22は、未処理のシーンが存在する場合(ステップS310肯定)、未処理のシーンを取得してステップS305以降の処理を実行する。一方、映像解析部22は、未処理のシーンが存在しない場合(ステップS310否定)、映像解析処理を終了する。
[実施例2による効果]
このように、実施例2によれば、楽曲にメタ情報が乏しい場合でも、映像情報を持っている場合は、その映像の特徴から楽曲のイメージを表すカテゴリを作成し、そのメタデータを使うことにより楽曲を分類することができる。さらに、ユーザがあらかじめメタデータを楽曲に付与するという手間を省くことができる。
従来は、楽曲が含まれる映像を保管しても、メタデータをユーザが自力で入力した上で整理をしない限り、好きな曲を探し出してその映像を再生することが難しかった。そのため、音楽を楽しむために映像を集めて活用するということが気軽にできなかった。実施例1によれば、メタデータをユーザが入力するという手間を省くだけでなく、楽曲タイトルだけでは想像しにくかった曲の内容までわかるようなカテゴリをメタデータとして追加することができるので、分類、整理が簡単にできる。この結果、扱いにくかった映像データが、音楽を気軽に楽しめるデータとなり新しい価値を提供できる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下に異なる実施例を説明する。
(重み付け)
例えば、単語DB14bやシーンDB14aに記憶されるカテゴリに重み付けを行ってもよい。具体的には、単語=雪、カテゴリ1=雪×1.2、カテゴリ2=冬×1.0、カテゴリ3=白×0.8とする。そうして、登場回数を計算するときに、この重みを用いる。つまり、カテゴリ雪の登場回数が1.2倍、カテゴリ白の登場回数が0.8倍として計算される。なお、上述した実施例等のカテゴリの数はあくまで例であり、これに限定されるものではない。また、実施例では楽曲の映像データの検出を自動で行ったが、手動で任意の映像データを指定してから楽曲部分を検出して追加することもできることが望ましい。
(システム)
また、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともできる。あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、例えば文字情報抽出部23と単語解析部24とを統合するなど各装置の分散・統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
(プログラム)
ところで、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することができる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータシステムの一例を説明する。
図14は、カテゴリ生成プログラムを実行するコンピュータシステム100を示す図である。図14に示すように、コンピュータシステム100は、RAM101と、HDD102と、ROM103と、CPU104とを有する。ここで、ROM103には、上の実施例と同様の機能を発揮するプログラムがあらかじめ記憶されている。つまり、図14に示すように、楽曲検出プログラム103a、映像解析プログラム103b、文字情報抽出プログラム103c、単語解析プログラム103dがあらかじめ記憶されている。また、ROM103には、番組情報抽出プログラム103e、出現率計算プログラム103f、曲リスト表示プログラム103gがあらかじめ記憶されている。
そして、CPU104には、これらのプログラム103a〜103gを読み出して実行することで、図14に示すように、各プロセスとなる。つまり、楽曲検出プロセス104a、映像解析プロセス104b、文字情報抽出プロセス104c、単語解析プロセス104d、番組情報抽出プロセス104e、出現率計算プロセス104f、曲リスト表示プロセス104gとなる。
なお、楽曲検出プロセス104aは、図2に示した楽曲検出部21に対応し、同様に、映像解析プロセス104bは、映像解析部22に対応する。また、文字情報抽出プロセス104cは、文字情報抽出部23に対応し、単語解析プロセス104dは、単語解析部24に対応する。また、番組情報抽出プロセス104eは、番組情報抽出部25に対応し、出現率計算プロセス104fは、出現率計算部26に対応し、曲リスト表示プロセス104gは、曲リスト表示部27に対応する。
また、HDD102には、シーンテーブル102a、単語テーブル102b、カウント用テーブル102c、楽曲情報テーブル102dが設けられる。シーンテーブル102aは、図2に示したシーンDB14aに対応し、単語テーブル102bは、単語DB14bに対応し、カウント用テーブル102cは、カウント用DB14cに対応し、楽曲情報テーブル102dは、楽曲情報DB14dに対応する。
ところで、上記したプログラム103a〜103gは、必ずしもROM103に記憶させておく必要はない。例えば、コンピュータシステム100に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に記憶させておくようにしてもよい。また、コンピュータシステム100の内外に備えられるハードディスクドライブ(HDD)などの「固定用の物理媒体」に記憶させておいてもよい。さらに、公衆回線、インターネット、LAN、WANなどを介してコンピュータシステム100に接続される「他のコンピュータシステム」に記憶させておいてもよい。そして、コンピュータシステム100がこれらからプログラムを読み出して実行するようにしてもよい。
すなわち、この他の実施例でいうプログラムは、上記した「可搬用の物理媒体」、「固定用の物理媒体」、「通信媒体」などの記録媒体に、コンピュータ読み取り可能に記録されるものである。そして、コンピュータシステム100は、このような記録媒体からプログラムを読み出して実行することで上記した実施例と同様の機能を実現する。なお、この他の実施例でいうプログラムは、コンピュータシステム100によって実行されることに限定されるものではない。例えば、他のコンピュータシステムまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
10 カテゴリ生成装置
11 通信制御I/F部
12 入力部
13 表示部
14 記憶部
14a シーンDB
14b 単語DB
14c カウント用DB
14d 楽曲情報DB
20 制御部
21 楽曲検出部
22 映像解析部
23 文字情報抽出部
24 単語解析部
25 番組情報抽出部
26 出現率計算部
27 曲リスト表示部

Claims (7)

  1. 楽曲を受け付ける楽曲受付手順と、
    前記楽曲受付手順により受け付けられた楽曲が有する映像情報を抽出し、抽出した映像情報を特徴ごとに分解する映像分解手順と、
    前記映像情報の特徴と当該特徴を表す複数のカテゴリとを対応付ける特徴記憶部を参照し、前記映像分解手順によって分解された各特徴が前記楽曲で登場する登場時間を計測して、前記特徴記憶部において各特徴に対応付けられるカテゴリに当該計測した登場時間を対応付け、前記カテゴリごとに前記登場時間の合計を算出するカテゴリ生成手順と
    をコンピュータに実行させるためのカテゴリ生成プログラム。
  2. 記楽曲受付手順により受け付けられた楽曲の映像情報から文字情報を抽出する文字情報抽出手順と、
    前記文字情報抽出手順により抽出された文字情報を単語に分解する単語分解手順とを前記コンピュータにさらに実行させ、
    前記カテゴリ生成手順は、前記特徴記憶部に記憶される各カテゴリと当該カテゴリから連想される単語とを対応付けて記憶する単語記憶部を参照し、前記単語分解手順により得られた単語それぞれについて、当該単語に対応付けられるカテゴリを特定することを特徴とする請求項1に記載のカテゴリ生成プログラム。
  3. 前記カテゴリ生成手順は、前記カテゴリそれぞれについて、当該カテゴリに対応付けられた前記単語が前記楽曲で登場する登場回数を計測し、前記カテゴリと登場回数とを対応付けることを特徴とする請求項2に記載のカテゴリ生成プログラム。
  4. 前記カテゴリ生成手順は、前記カテゴリそれぞれと前記登場時間と前記登場回数とを対応付けることを特徴とする請求項3に記載のカテゴリ生成プログラム。
  5. 前記カテゴリ生成手順は、前記カテゴリそれぞれについて、前記登場時間と前記登場回数とを加算した値を、前記文字情報に含まれる総単語数と前記楽曲の総時間とを加算した値で除算した出現率を算出し、前記カテゴリと出現率とを対応付けることを特徴とする請求項4に記載のカテゴリ生成プログラム。
  6. 楽曲を受け付ける楽曲受付部と、
    前記楽曲が有する映像情報の特徴と当該特徴を表す複数のカテゴリとを対応付ける特徴記憶部と、
    前記楽曲受付部により受け付けられた楽曲が有する映像情報を抽出し、抽出した映像情報を特徴ごとに分解する映像分解部と、
    前記映像分解部によって分解された各特徴が前記楽曲で登場する登場時間を計測して、前記特徴記憶部において各特徴に対応付けられるカテゴリに当該計測した登場時間を対応付け、前記カテゴリごとに前記登場時間の合計を算出するカテゴリ生成部と
    を有することを特徴とするカテゴリ生成装置。
  7. 情報処理装置により実行される方法において、
    楽曲を受け付ける楽曲受付ステップと、
    前記楽曲受付ステップにより受け付けられた楽曲が有する映像情報を抽出し、抽出した映像情報を特徴ごとに分解する映像分解ステップと、
    前記映像情報の特徴と当該特徴を表す複数のカテゴリとを対応付ける特徴記憶部を参照し、前記映像分解ステップによって分解された各特徴が前記楽曲で登場する登場時間を計測して、前記特徴記憶部において各特徴に対応付けられるカテゴリに当該計測した登場時間を対応付け、前記カテゴリごとに前記登場時間の合計を算出するカテゴリ生成ステップと
    を含んだことを特徴とするカテゴリ生成方法。
JP2012506747A 2010-03-26 2010-03-26 カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法 Expired - Fee Related JP5516720B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/055451 WO2011118037A1 (ja) 2010-03-26 2010-03-26 カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法

Publications (2)

Publication Number Publication Date
JPWO2011118037A1 JPWO2011118037A1 (ja) 2013-07-04
JP5516720B2 true JP5516720B2 (ja) 2014-06-11

Family

ID=44672626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012506747A Expired - Fee Related JP5516720B2 (ja) 2010-03-26 2010-03-26 カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法

Country Status (6)

Country Link
US (1) US9047916B2 (ja)
EP (1) EP2551780A4 (ja)
JP (1) JP5516720B2 (ja)
KR (1) KR101469021B1 (ja)
CN (1) CN102870109B (ja)
WO (1) WO2011118037A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10002136B2 (en) * 2015-07-27 2018-06-19 Qualcomm Incorporated Media label propagation in an ad hoc network
US10127943B1 (en) 2017-03-02 2018-11-13 Gopro, Inc. Systems and methods for modifying videos based on music
US11017811B1 (en) * 2020-01-09 2021-05-25 Lenovo (Singapore) Pte. Ltd. Playback speed optimization
US11797548B2 (en) * 2021-09-22 2023-10-24 Entres LLC Achievement based rating system and methods with a dynamic taxonomy

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11265396A (ja) * 1998-03-18 1999-09-28 Nippon Telegr & Teleph Corp <Ntt> 音楽映像分類方法、装置および音楽映像分類プログラムを記録した記録媒体
JP2006190010A (ja) * 2005-01-05 2006-07-20 Brother Ind Ltd コンテンツ配信装置、コンテンツ配信方法、コンテンツ配信プログラム及びそれを記憶した記憶媒体
JP2010015588A (ja) * 2009-08-27 2010-01-21 Kddi R & D Laboratories Inc 動画像データの分類装置
JP2010066870A (ja) * 2008-09-09 2010-03-25 Toshiba Corp 情報推薦装置および情報推薦方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6690391B1 (en) * 2000-07-13 2004-02-10 Sony Corporation Modal display, smooth scroll graphic user interface and remote command device suitable for efficient navigation and selection of dynamic data/options presented within an audio/visual system
US7640563B2 (en) * 2002-04-16 2009-12-29 Microsoft Corporation Describing media content in terms of degrees
US7191193B2 (en) 2003-01-02 2007-03-13 Catch Media Automatic digital music library builder
JP4752623B2 (ja) 2005-06-16 2011-08-17 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US7921116B2 (en) * 2006-06-16 2011-04-05 Microsoft Corporation Highly meaningful multimedia metadata creation and associations
KR100925256B1 (ko) * 2007-05-03 2009-11-05 인하대학교 산학협력단 음성 및 음악을 실시간으로 분류하는 방법
JP4788810B2 (ja) * 2009-08-17 2011-10-05 ソニー株式会社 楽曲同定装置及び方法、楽曲同定配信装置及び方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11265396A (ja) * 1998-03-18 1999-09-28 Nippon Telegr & Teleph Corp <Ntt> 音楽映像分類方法、装置および音楽映像分類プログラムを記録した記録媒体
JP2006190010A (ja) * 2005-01-05 2006-07-20 Brother Ind Ltd コンテンツ配信装置、コンテンツ配信方法、コンテンツ配信プログラム及びそれを記憶した記憶媒体
JP2010066870A (ja) * 2008-09-09 2010-03-25 Toshiba Corp 情報推薦装置および情報推薦方法
JP2010015588A (ja) * 2009-08-27 2010-01-21 Kddi R & D Laboratories Inc 動画像データの分類装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG201000339002; 江端 佑介: 'ユーザコメントのtf-idf法による分析を用いたインタラクティブな関連動画の提示' 電子情報通信学会技術研究報告 第109巻,第439号, 20100222, p.7〜10, 社団法人電子情報通信学会 *
JPN6013031749; 江端 佑介: 'ユーザコメントのtf-idf法による分析を用いたインタラクティブな関連動画の提示' 電子情報通信学会技術研究報告 第109巻,第439号, 20100222, p.7〜10, 社団法人電子情報通信学会 *

Also Published As

Publication number Publication date
KR20120137376A (ko) 2012-12-20
CN102870109A (zh) 2013-01-09
JPWO2011118037A1 (ja) 2013-07-04
EP2551780A4 (en) 2013-09-04
WO2011118037A1 (ja) 2011-09-29
US9047916B2 (en) 2015-06-02
KR101469021B1 (ko) 2014-12-04
CN102870109B (zh) 2016-03-02
US20130071089A1 (en) 2013-03-21
EP2551780A1 (en) 2013-01-30

Similar Documents

Publication Publication Date Title
US9671859B2 (en) Information processing device, client device, server device, list generation method, list acquisition method, list providing method and program
JP4469891B2 (ja) 情報処理装置及び情報処理プログラム
JP2008217254A (ja) プレイリスト作成装置、およびプレイリスト作成方法
JP5706718B2 (ja) 動画合成システム及び方法並びに動画合成プログラム及びその記憶媒体
EP1900207A2 (en) Creating standardized playlists and maintaining coherency
JP2002278547A (ja) 楽曲検索方法、楽曲検索用データ登録方法、楽曲検索装置及び楽曲検索用データ登録装置
US11271993B2 (en) Streaming music categorization using rhythm, texture and pitch
JP4560544B2 (ja) 楽曲検索装置、楽曲検索方法および楽曲検索プログラム
JP2012247957A (ja) データ処理装置およびプログラム
JP5516720B2 (ja) カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法
JP4898272B2 (ja) プレイリスト検索装置およびプレイリスト検索方法
WO2006048988A1 (ja) コンテンツデータ検索装置
JP2003242164A (ja) 楽曲検索再生装置、及びそのシステム用プログラムを記録した媒体
CN106775567B (zh) 一种音效匹配方法及系统
JP2010044756A (ja) 情報処理装置、情報処理方法、及びプログラム
US20090144253A1 (en) Method of processing a set of content items, and data- processing device
JP5085577B2 (ja) プレイリスト作成装置、楽曲再生装置、プレイリスト作成方法およびプレイリスト作成プログラム
CN111753127B (zh) 音乐信息处理、推荐方法及装置
JP2010165160A (ja) 楽曲分類装置、楽曲検索システム及びコンピュータプログラム
JP2012159717A (ja) 楽曲データの変化点検出装置、楽曲データの変化点検出方法及び楽曲データの変化点検出プログラム
JP5153451B2 (ja) 類似アイテム検索装置及び類似アイテム検索方法並びにそのプログラムと記録媒体
US20240325907A1 (en) Method For Generating A Sound Effect
JP4447540B2 (ja) カラオケ唱歌録音作品の鑑賞システム
JP2008210382A (ja) 楽曲データ処理装置
JP5521094B2 (ja) 楽曲分類装置および楽曲検索システム

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130702

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130902

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140317

R150 Certificate of patent or registration of utility model

Ref document number: 5516720

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees