WO2011118037A1 - カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法 - Google Patents

カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法 Download PDF

Info

Publication number
WO2011118037A1
WO2011118037A1 PCT/JP2010/055451 JP2010055451W WO2011118037A1 WO 2011118037 A1 WO2011118037 A1 WO 2011118037A1 JP 2010055451 W JP2010055451 W JP 2010055451W WO 2011118037 A1 WO2011118037 A1 WO 2011118037A1
Authority
WO
WIPO (PCT)
Prior art keywords
category
music
information
video
word
Prior art date
Application number
PCT/JP2010/055451
Other languages
English (en)
French (fr)
Inventor
陽子 藤本
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to EP10848430.4A priority Critical patent/EP2551780A4/en
Priority to JP2012506747A priority patent/JP5516720B2/ja
Priority to KR1020127024744A priority patent/KR101469021B1/ko
Priority to CN201080065677.3A priority patent/CN102870109B/zh
Priority to PCT/JP2010/055451 priority patent/WO2011118037A1/ja
Publication of WO2011118037A1 publication Critical patent/WO2011118037A1/ja
Priority to US13/614,143 priority patent/US9047916B2/en

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions

Definitions

  • the present invention relates to a category generation program, a category generation device, and a category generation method.
  • analog sound including a plurality of music pieces is converted into digital sound, and the start and end are specified for each music piece. Subsequently, the character information (meta information) related to the music whose start and end are specified is recognized. And the method of categorizing a music by correlating the music by which the start and the end were specified, and the character recognition result is disclosed.
  • each item such as title, artist name, genre, review text, tempo, beat, rhythm is extracted from the meta information of the music.
  • the method of categorizing a music into a plurality by correlating each extracted item and the music of the extraction source is disclosed.
  • the disclosed technology has been made in view of the above, and a category generation program, a category generation device, and a category generation method capable of accurately classifying music even when there is little character information added to the music
  • the purpose is to provide.
  • a category generation program, a category generation device, and a category generation method disclosed in the present application are a music reception procedure for receiving music, and video information included in the music received by the music reception procedure.
  • a computer is caused to execute a video disassembling procedure for decomposing information for each feature and a category generating procedure for generating a category representing the feature of the video information for each video information decomposed by the video disassembling procedure.
  • the category generation program, the category generation device, and the category generation method disclosed in the present application there is an effect that the music can be accurately classified even when the character information added to the music is small. .
  • FIG. 1 is a block diagram illustrating the configuration of the category generation device according to the first embodiment.
  • FIG. 2 is a block diagram illustrating the configuration of the category generation device according to the second embodiment.
  • FIG. 3 is a diagram illustrating an example of information stored in the scene DB.
  • FIG. 4 is a diagram illustrating an example of information stored in the word DB.
  • FIG. 5 is a diagram illustrating an example of information stored in the count DB.
  • FIG. 6 is a diagram illustrating an example of information stored in the music information DB.
  • FIG. 7 is a diagram illustrating an example of a song list screen.
  • FIG. 8 is a diagram showing an example of a song list details screen.
  • FIG. 9 is a diagram showing an example of a music list menu screen.
  • FIG. 1 is a block diagram illustrating the configuration of the category generation device according to the first embodiment.
  • FIG. 2 is a block diagram illustrating the configuration of the category generation device according to the second embodiment.
  • FIG. 3 is
  • FIG. 10 is a diagram illustrating an example of a song list screen for each category.
  • FIG. 11 is a flowchart illustrating a process flow of the category generation device according to the second embodiment.
  • FIG. 12 is a flowchart showing the flow of word analysis processing.
  • FIG. 13 is a flowchart showing the flow of the video analysis process.
  • FIG. 14 is a diagram illustrating an example of a computer system that executes a category generation program.
  • FIG. 1 is a block diagram illustrating the configuration of the category generation device according to the first embodiment.
  • the category generation device 1 may be an information processing device such as a computer, and can be applied to various devices such as a video recording device such as a recorder or a portable player that records a TV program, and a portable music player.
  • the category generation device 1 includes a music reception unit 1a, a video decomposition unit 1b, and a category generation unit 1c.
  • the music reception unit 1a receives music.
  • the music reception part 1a may receive via a network, a broadcast line, etc., and may read the information recorded on the storage medium.
  • the video decomposing unit 1b extracts video information included in the music received by the music receiving unit 1a, and decomposes the extracted video information for each feature. And the category production
  • the communication control I / F unit 11 is an interface connected to other devices, and has, for example, a tuner, a set top box, etc., receives a broadcast TV program, and outputs it to the music detection unit 21 described later.
  • the communication control I / F unit 11 receives a television program or the like via a network such as the Internet and outputs it to the music detection unit 21.
  • the input unit 12 is, for example, a keyboard or a mouse that receives various operation instructions from the user such as the start and end of category processing, and outputs the received information to the control unit 20 and the like.
  • the input unit 12 can also accept a storage medium such as a CD or a DVD. Then, the input unit 12 reads information from the received storage medium and outputs the information to the music detection unit 21.
  • a display unit 13 described later also realizes a pointing device function in cooperation with the mouse.
  • the display unit 13 is an output unit that outputs various types of information.
  • the display unit 13 is a monitor or a speaker that displays music information output by a music list display unit 27 described later.
  • FIG. 5 is a diagram illustrating an example of information stored in the count DB.
  • the word analysis unit 24 analyzes the “music title” and “lyrics” in the music part X of the program with the file name A and obtains the word “snow”.
  • the word analysis unit 24 refers to the word DB 14b and acquires “snow, winter, white” as the category of the word “snow”.
  • the word analysis unit 24 calculates the number of appearances (for example, 5 times) of the word “snow” in the music portion X.
  • the word analysis unit 24 sets the number of appearances of each category “snow, winter, white” to 5 times, and stores these in the counting DB 14c.
  • the program information extraction unit 25 acquires program information from the video data received from the music detection unit 21. Then, the program information extraction unit 25 outputs a completion notification to the appearance rate calculation unit 26 when the acquisition of the program information is completed. For example, the program information extraction unit 25 acquires “program title, broadcast date and time” from the video data when the video data is information such as a television program, a recorded program, or a DVD. The program information extraction unit 25 stores the acquired “program title, broadcast date and time” in association with the file name, the music start position and the music end position stored in the music information DB 14d by the music detection unit 21. .
  • the song list display unit 27 provides an “add music” button and an “edit music information” button, thereby enabling the user to perform an editing operation. That is, the user can edit the information stored in the music information DB 14d by clicking the “Add music” or “Edit music information” button.
  • the song list display unit 27 displays the detailed information of the music as shown in FIG. 8 when the “detailed data display” button on the screen of FIG. 7 is clicked by the user. That is, the song list display unit 27 displays the information itself stored in the song information DB 14d as detailed information of the song.
  • FIG. 11 is a flowchart illustrating a process flow of the category generation apparatus according to the second embodiment
  • FIG. 12 is a flowchart illustrating a word analysis process
  • FIG. 13 is a flowchart illustrating a video analysis process. is there.
  • the word analysis unit 24 executes word analysis processing on the extracted character portion of the music, generates a category, and stores it in the counting DB 14c (step S103).
  • the character information extraction unit 23 acquires “music title, music performer, music lyricist, music composer, music lyrics” from the music as character information, and stores it in the music information DB 14d. To do.
  • the appearance rate calculation unit 26 generates a weight for the category stored in the counting DB 14c using the number of appearances and the appearance time, and stores the weight in the counting DB 14c (step S105).
  • the appearance rate calculation unit 26 stores the number of appearances, the appearance time, and the weight for each category stored in the counting DB 14c in the music information DB 14d (step S106). Then, the appearance rate calculation unit 26 clears the counting DB 14c (step S107).
  • step S103 of FIG. 11 the word analysis process executed in step S103 of FIG. 11 will be described.
  • the word analysis unit 24 of the category generation device 10 extracts character information from the music (step S201), and decomposes the extracted character information into words (step S202). Note that if the character information to be analyzed is extracted by the character information extraction unit 23, step S201 need not be executed.
  • the word analyzing unit 24 acquires a category associated with the word from the word DB 14b (Step S206). Subsequently, the word analysis unit 24 determines whether or not the acquired category is registered in the counting DB 14c (step S207).
  • the word analysis unit 24 acquires the unprocessed word and executes the processes after Step S205.
  • the word analysis part 24 complete finishes a word analysis process, when the unprocessed word does not exist (step S210 negative).
  • step S104 of FIG. 11 Next, the video analysis process executed in step S104 of FIG. 11 will be described.
  • the video analysis unit 22 of the category generation device 10 extracts video information from the music (Step S301), and acquires the total time of the music (Step S302). Subsequently, the video analysis unit 22 decomposes the extracted video information for each feature (for each scene) (step S303).
  • step S305 when the acquired scene is registered in the scene DB 14a (Yes in step S305), the video analysis unit 22 acquires the category associated with the scene from the scene DB 14a (step S306). Subsequently, the video analysis unit 22 determines whether or not the acquired category is registered in the counting DB 14c (step S307).
  • the categories stored in the word DB 14b and the scene DB 14a may be weighted.
  • word snow
  • category 1 snow ⁇ 1.2
  • category 2 winter ⁇ 1.0
  • category 3 white ⁇ 0.8.
  • this weight is used when calculating the number of appearances. That is, the number of appearances of category snow is 1.2 times and the number of appearances of category white is 0.8 times.
  • the number of categories in the above-described embodiments is merely an example, and the present invention is not limited to this.
  • the video data of the music is automatically detected. However, it is desirable that the music portion can be detected and added after manually specifying arbitrary video data.
  • each component of each illustrated apparatus is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution / integration of each device, for example, integrating the character information extraction unit 23 and the word analysis unit 24 is not limited to that shown in the figure. That is, all or a part of them can be configured to be functionally or physically distributed / integrated in arbitrary units according to various loads or usage conditions. Further, all or any part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.
  • FIG. 14 is a diagram showing a computer system 100 that executes a category generation program.
  • the computer system 100 includes a RAM 101, an HDD 102, a ROM 103, and a CPU 104.
  • the ROM 103 stores in advance a program that exhibits the same function as in the above embodiment. That is, as shown in FIG. 14, a music detection program 103a, a video analysis program 103b, a character information extraction program 103c, and a word analysis program 103d are stored in advance.
  • the ROM 103 stores in advance a program information extraction program 103e, an appearance rate calculation program 103f, and a song list display program 103g.
  • the CPU 104 reads out and executes these programs 103a to 103g, whereby each process is performed as shown in FIG. That is, the music detection process 104a, the video analysis process 104b, the character information extraction process 104c, the word analysis process 104d, the program information extraction process 104e, the appearance rate calculation process 104f, and the music list display process 104g.
  • the music detection process 104a corresponds to the music detection unit 21 shown in FIG. 2, and similarly, the video analysis process 104b corresponds to the video analysis unit 22.
  • the character information extraction process 104 c corresponds to the character information extraction unit 23, and the word analysis process 104 d corresponds to the word analysis unit 24.
  • the program information extraction process 104e corresponds to the program information extraction unit 25, the appearance rate calculation process 104f corresponds to the appearance rate calculation unit 26, and the song list display process 104g corresponds to the song list display unit 27.
  • the HDD 102 is provided with a scene table 102a, a word table 102b, a count table 102c, and a music information table 102d.
  • the scene table 102a corresponds to the scene DB 14a shown in FIG. 2
  • the word table 102b corresponds to the word DB 14b
  • the count table 102c corresponds to the count DB 14c
  • the music information table 102d corresponds to the music information DB 14d.
  • the above-described programs 103 a to 103 g are not necessarily stored in the ROM 103.
  • a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, or an IC card inserted into the computer system 100.
  • a “fixed physical medium” such as a hard disk drive (HDD) provided inside or outside the computer system 100.
  • HDD hard disk drive
  • it may be stored in “another computer system” connected to the computer system 100 via a public line, the Internet, a LAN, a WAN, or the like. Then, the computer system 100 may read and execute the program from these.
  • the program referred to in the other embodiments is recorded in a computer-readable manner on a recording medium such as the above-mentioned “portable physical medium”, “fixed physical medium”, “communication medium”, and the like. . Then, the computer system 100 realizes the same function as the above-described embodiment by reading and executing the program from such a recording medium. Note that the program referred to in the other embodiments is not limited to being executed by the computer system 100. For example, the present invention can be similarly applied to a case where another computer system or server executes a program or a case where these programs cooperate to execute a program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

 カテゴリ生成装置は、楽曲を受け付けて、受け付けられた楽曲が有する映像情報を抽出し、抽出した映像情報を特徴ごとに分解する。そして、カテゴリ生成装置は、分解された映像情報それぞれについて、当該映像情報の特徴を表すカテゴリを生成する。また、カテゴリ生成装置は、受け付けられた楽曲の映像情報から文字情報を抽出し、抽出された文字情報を単語に分解する。そして、カテゴリ生成装置は、分解して得られた単語それぞれについて、当該単語が表す連想されるカテゴリを生成する。さらに、カテゴリ生成装置は、生成したカテゴリそれぞれについて、登場時間と登場回数とを加算した値を、文字情報に含まれる総単語数と楽曲の総時間とを加算した値で除算した出現率を算出し、カテゴリと出現率とを対応付ける。

Description

カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法
 本発明は、カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法に関する。
 従来、楽曲をリストなどにカテゴライズする手法として、楽曲自体に付加されている楽曲タイトル、作曲者、アーティスト等などの文字情報を用いた分類手法が利用されている。
 例えば、複数の楽曲を含むアナログ音声をデジタル音声に変換し、楽曲ごとに出だしと終わりとを特定する。続いて、出だしと終わりとが特定された楽曲に関する文字情報(メタ情報)を文字認識する。そして、出だしと終わりとが特定された楽曲と文字認識結果とを対応付けることで、楽曲をカテゴライズする手法が開示されている。
 また、楽曲のメタ情報からタイトル、アーティスト名、ジャンル、レビューテキスト、テンポ、ビート、リズムなどの各項目を抽出する。そして、抽出した各項目と抽出元の楽曲とを対応付けることで、楽曲を複数にカテゴライズする手法が開示されている。
特表2006-515099号公報 特開2007-26425号公報
 しかしながら、従来の技術では、楽曲に付加される文字情報を用いて楽曲を分類しているので、楽曲に付加されている文字情報の情報量が少ない場合には、楽曲を正確に分類することができないという課題があった。
 また、楽曲に付加される情報を利用せずに、テンポや階調など音楽的特徴で分類した場合、専門的な分類になってしまい、一般ユーザが利用できるような汎用性のある分類とは言えない。また、楽曲に文字情報を付加した上で分類する手法も考えられるが、楽曲ごとに文字情報を作成して付加する作業が非常に手間であり、現実的でない。
 開示の技術は、上記に鑑みてなされたものであって、楽曲に付加される文字情報が少ない場合でも、楽曲を正確に分類することが可能であるカテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法を提供することを目的とする。
 本願の開示するカテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法は、一つの態様において、楽曲を受け付ける楽曲受付手順と、前記楽曲受付手順により受け付けられた楽曲が有する映像情報を抽出し、抽出した映像情報を特徴ごとに分解する映像分解手順と、前記映像分解手順により分解された映像情報それぞれについて、当該映像情報の特徴を表すカテゴリを生成するカテゴリ生成手順とをコンピュータに実行させる。
 本願の開示するカテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法の一つの態様によれば、楽曲に付加される文字情報が少ない場合でも、楽曲を正確に分類することが可能であるという効果を奏する。
図1は、実施例1に係るカテゴリ生成装置の構成を示すブロック図である。 図2は、実施例2に係るカテゴリ生成装置の構成を示すブロック図である。 図3は、シーンDBに記憶される情報の例を示す図である。 図4は、単語DBに記憶される情報の例を示す図である。 図5は、カウント用DBに記憶される情報の例を示す図である。 図6は、楽曲情報DBに記憶される情報の例を示す図である。 図7は、曲リスト画面の例を示す図である。 図8は、曲リストの詳細画面の例を示す図である。 図9は、曲リストのメニュー画面の例を示す図である。 図10は、カテゴリ別の曲リスト画面の例を示す図である。 図11は、実施例2に係るカテゴリ生成装置の処理の流れを示すフローチャートである。 図12は、単語解析処理の流れを示すフローチャートである。 図13は、映像解析処理の流れを示すフローチャートである。 図14は、カテゴリ生成プログラムを実行するコンピュータシステムの例を示す図である。
 以下に、本願の開示するカテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
 図1は、実施例1に係るカテゴリ生成装置の構成を示すブロック図である。このカテゴリ生成装置1は、コンピュータなどの情報処理装置であってもよく、TV番組を録画する録画機やポータブル再生機など映像を扱う機器や携帯型の音楽プレーヤーなど様々な装置に適用できる。
 図1に示すように、カテゴリ生成装置1は、楽曲受付部1aと映像分解部1bとカテゴリ生成部1cとを有する。楽曲受付部1aは、楽曲を受け付ける。なお、楽曲受付部1aは、ネットワークや放送回線などを介して受け付けてもよく、記憶媒体に録画された情報を読み出すようにしてもよい。
 映像分解部1bは、楽曲受付部1aにより受け付けられた楽曲が有する映像情報を抽出し、抽出した映像情報を特徴ごとに分解する。そして、カテゴリ生成部1cは、映像分解部1bにより分解された映像情報それぞれについて、当該映像情報の特徴を表すカテゴリを生成する。この結果、楽曲に付加される文字情報が少ない場合でも、楽曲を正確に分類することが可能である。
 ところで、本願の開示するカテゴリ生成装置は、図1に示した制御部以外にも様々な制御部を有していてもよい。そこで、実施例2では、実施例1で説明した以外の制御部等を有するカテゴリ生成装置の一例を説明する。
[カテゴリ生成装置の構成]
 まず、図2を用いて、実施例2に係るカテゴリ生成装置の構成を説明する。図2は、実施例2に係るカテゴリ生成装置の構成を示すブロック図である。図2に示すように、カテゴリ生成装置10は、通信制御I/F部11と入力部12と表示部13と記憶部14と制御部20とを有する。
 通信制御I/F部11は、他の装置と接続するインタフェースであり、例えばチューナーやセットトップボックス等を有し、放送されるテレビ番組を受信して後述する楽曲検出部21に出力する。また、通信制御I/F部11は、インターネットなどのネットワークを介してテレビ番組等を受信して楽曲検出部21に出力する。
 入力部12は、例えばカテゴリ処理開始や終了などユーザからの各種操作指示を受け付けるキーボードやマウスなどであり、受け付けた情報を制御部20等に出力する。また、入力部12は、CDやDVDなどの記憶媒体を受け付けることもできる。そして、入力部12は、受け付けた記憶媒体から情報を読み出して楽曲検出部21に出力する。後述する表示部13も、マウスと協働してポインティングディバイス機能を実現する。表示部13は、各種の情報を出力する出力手段であり、例えば後述する曲リスト表示部27が出力する楽曲情報等を表示するモニタやスピーカーである。
 記憶部14は、制御部20による各種処理に必要なデータおよびプログラムを格納する半導体メモリ素子、または、ハードディスクなどの記憶装置である。この記憶部14は、シーンDB14aと単語DB14bとカウント用DB14cと楽曲情報DB14dとを有する。
 シーンDB14aは、映像の特徴を示すシーンとそのシーンが表すと思われるカテゴリとを対応付けて記憶する。例えば、シーンDB14aは、図3に示すように、「No、シーン特徴、カテゴリ1、カテゴリ2、カテゴリ3」として「1、雪が多い、雪、冬、白」や「2、イルミネーションがある、夜、クリスマス、-」などを記憶する。
 ここで記憶される「No」は、シーンDB14aに記憶されるレコードを区別する識別子である。「シーン特徴」は、映像を分解したときのシーンの特徴を示す情報であり、「カテゴリ1、カテゴリ2、カテゴリ3」は、シーンを示すカテゴリである。例えば、「1、雪が多い、雪、冬、白」は、雪が多いシーンが雪、冬、白のカテゴリを有していることを示す。また、「2、イルミネーションがある、夜、クリスマス、-」は、イルミネーションがあるシーンが夜、クリスマスのカテゴリを有していることを示す。なお、図3は、シーンDBに記憶される情報の例を示す図である。
 単語DB14bは、単語とその単語が表すと連想できるカテゴリとを対応付けて記憶する。例えば、単語DB14bは、図4に示すように、「No、単語、カテゴリ1、カテゴリ2、カテゴリ3」として「1、雪、雪、冬、白」や「2、サンタクロース、クリスマス、冬、-」などを記憶する。
 ここで記憶される「No」は、単語DB14bに記憶されるレコードを区別する識別子である。「単語」は、得られた単語であり、「カテゴリ1、カテゴリ2、カテゴリ3」は、単語を表すカテゴリである。例えば、「1、雪、雪、冬、白」は、単語「雪」が雪、冬、白のカテゴリを有していることを示す。また、「2、サンタクロース、クリスマス、冬、-」は、単語「サンタクロース」がクリスマス、冬のカテゴリを有していることを示す。なお、図4は、単語DBに記憶される情報の例を示す図である。
 カウント用DB14cは、抽出された楽曲についてカテゴリの重み付けをするために、制御部20によって生成された各種情報を一時的に保持する。例えば、カウント用DB14cは、図5に示すように、「No、カテゴリ、登場回数、登場時間(分)、出現率」として「1、冬、12、10、80%」や「2、クリスマス、11、0、40%」などを記憶する。
 ここで記憶される「No」は、カウント用DB14cに記憶されるレコードを区別する識別子である。「カテゴリ」は、単語解析部24や映像解析部22によって分類されたカテゴリである。「登場回数」は、単語解析部24によって係数されたカテゴリの総登場回数であり、「登場時間」は、映像解析部22によって係数されたカテゴリの総登場時間である。「出現率」は、出現率計算部26によって算出されたカテゴリの出現率である。
 一例として、「1、冬、12、10、80%」は、カテゴリ=冬が楽曲中に単語として12回登場、映像として10分登場し、その出現率が80%であることを示す。また、「2、クリスマス、11、0、40%」は、カテゴリ=クリスマスが楽曲中に単語として11回登場、映像としては登場せず、その出現率が40%であることを示す。なお、図5は、カウント用DBに記憶される情報の例を示す図である。
 楽曲情報DB14dは、楽曲検出部21によって検出された楽曲のカテゴリ分類結果を記憶する。例えば、楽曲情報DB14dは、図6に示すように、「No、ファイル名、楽曲開始位置、楽曲終了位置、番組タイトル、番組放送日時、楽曲のタイトル、楽曲の演者名、楽曲の作詞家名、楽曲の作曲家名、楽曲の歌詞、カテゴリ」が記憶される。
 一例として、「1、A、0:11:15、0:16:30、AAA、2009.01.02、クリスマスの歌、アアア、アアア、アアア、あいうえお・・・、冬80%/クリスマス40%」について説明する。この場合、番組放送日時=2009.01.02に放送された番組タイトル=AAAの番組を示すファイル名=Aには、当該番組の0:11:15~0:16:30の間に楽曲が演奏されている。そして、この楽曲は、タイトルがクリスマスの歌であり、楽曲の演者名と楽曲の作詞家名と楽曲の作曲家とがアアアである。さらに、このクリスマスの歌は、歌詞=あいうえお・・であり、カテゴリ冬(80%)とクリスマス(40%)が生成されている。
 一例として、「2、A、0:32:48、0:35:11、AAA、2009.01.02、誕生日の歌、イイイ、アイウ、アアア、かきこくけこ・・・、誕生日25%」について説明する。この場合、番組放送日時=2009.01.02に放送された番組タイトル=AAAの番組を示すファイル名=Aには、当該番組の0:32:48~0:35:11の間に楽曲が演奏されている。そして、この楽曲は、タイトルが誕生日の歌であり、楽曲の演者名がイイイと楽曲の作詞家名がアイウと楽曲の作曲家がアアアである。さらに、この誕生日の歌は、歌詞=かきくけこ・・であり、カテゴリ誕生日(25%)が生成されている。なお、図6は、楽曲情報DBに記憶される情報の例を示す図である。
 制御部20は、例えば、OS(Operating System)などの制御プログラム、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有するCPU(Central Processing Unit)などの電子回路である。この制御部20は、楽曲検出部21と映像解析部22と文字情報抽出部23と単語解析部24と番組情報抽出部25と出現率計算部26と曲リスト表示部27とを有する。
 楽曲検出部21は、通信制御I/F部11や入力部12によって受け付けられた番組などの映像データから楽曲部分を検出する。例えば、楽曲検出部21は、映像データから楽曲の開始位置と楽曲の終了位置とを検出し、当該映像データを示すファイル名に対応付けて楽曲情報DB14dに格納する。また、楽曲検出部21は、受信した映像データや映像データから抽出した楽曲部分を映像解析部22、文字情報抽出部23、番組情報抽出部25、出現率計算部26のそれぞれに出力する。
 映像解析部22は、楽曲検出部21によって抽出された楽曲部分の映像部分を抽出して解析し、映像特徴よりカテゴリ(メタ情報)を生成する。そして、映像解析部22は、カテゴリの生成が完了すると、完了通知を出現率計算部26に出力する。
 例えば、映像解析部22が、ファイル名Aの番組の楽曲部分Xの映像を解析して、「雪が多い」シーンを得たとする。この場合、映像解析部22は、シーンDB14aを参照し、「雪が多い」シーンのカテゴリとして「雪、冬、白」を取得する。続いて、映像解析部22は、楽曲部分Xにおける「雪が多い」シーンの登場時間(例えば10分)を計算する。そして、映像解析部22は、カテゴリ「雪、冬、白」それぞれの登場時間を10分とし、これらをカウント用DB14cに格納する。
 また、映像解析部22は、楽曲部分Xの映像を解析しても「イルミネーションがある」シーンを取得できない場合には、「イルミネーションがある」シーンに対応するカテゴリ「夜、クリスマス」それぞれの登場時間を0分としてカウント用DB14cに格納する。
 この映像解析部22は、楽曲部分から得られたシーン全てについて上述した処理を実行し、各カテゴリが楽曲全体で登場した総時間を計測する。つまり、映像解析部22は、上記例に加え、楽曲部分から得られた他のシーンのカテゴリが「雪」であった場合、この他のシーンの登場時間(例えば5分)を計測する。そして、映像解析部22は、上記例で取得した「雪、10分」に新たに計測した「5分」を加えた「雪、15分」をカウント用DB14cに格納する。
 文字情報抽出部23は、楽曲検出部21によって抽出された楽曲部分の文字部分を抽出して解析し、楽曲の情報を取得する。そして、文字情報抽出部23は、取得した楽曲の情報を、楽曲検出部21が楽曲情報DB14dに格納したファイル名、楽曲の開始位置と楽曲の終了位置とに対応付けて格納する。また、文字情報抽出部23は、楽曲部分から抽出した文字部分を単語解析部24に出力する。
 例えば、文字情報抽出部23は、楽曲部分の文字部分から「楽曲のタイトル、楽曲の演者、楽曲の作詞家、楽曲の作曲家、楽曲の歌詞」を取得して、楽曲情報DB14dに格納する。なお、ここで取得される情報は、楽曲情報DB14dが記憶する情報に従って任意に変更できる。また、文字情報抽出部23は、楽曲部分の文字部分から取得できなかった情報については、「無題」や「取得不可」などの情報を格納する。
 単語解析部24は、文字情報抽出部23によって抽出された楽曲の文字部分を単語に分解してカテゴリを生成する。そして、単語解析部24は、カテゴリの生成が完了すると、完了通知を出現率計算部26に出力する。例えば、単語解析部24は、文字情報抽出部23によって抽出された「楽曲のタイトル」と「歌詞」のそれぞれを単語に分解する。また、単語解析部24は、得られた総単語数を出現率計算部26に出力する。
 一例として、単語解析部24が、ファイル名Aの番組の楽曲部分Xにおける「楽曲のタイトル」と「歌詞」を解析して、単語「雪」を得たとする。この場合、単語解析部24は、単語DB14bを参照し、単語「雪」のカテゴリとして「雪、冬、白」を取得する。続いて、単語解析部24は、楽曲部分Xにおける単語「雪」の登場回数(例えば5回)を計算する。そして、単語解析部24は、カテゴリ「雪、冬、白」それぞれの登場回数を5回とし、これらをカウント用DB14cに格納する。
 また、単語解析部24は、楽曲部分Xの文字部分を解析しても単語「夢」を取得できない場合には、単語「夢」に対応するカテゴリそれぞれの登場時間を0分としてカウント用DB14cに格納する。
 この単語解析部24は、文字部分から得られた単語全てについて上述した処理を実行し、各カテゴリが楽曲全体で登場した総回数を計測する。つまり、単語解析部24は、上記例に加え、文字部分から単語「サンタクロース」を得たとする。この場合、単語解析部24は、単語DB14bを参照し、単語「サンタクロース」のカテゴリとして「クリスマス、冬」を取得する。続いて、単語解析部24は、楽曲部分Xにおける単語「サンタクロース」の登場回数(例えば7回)を計算する。そして、単語解析部24は、カテゴリ「雪、冬、白」の登場回数を7回とし、これらをカウント用DB14cに格納する。このとき、単語解析部24は、上記例で取得した「冬、5回」を計測しているので、両方を加算した「冬、12回」をカウント用DB14cに格納することとなる。
 したがって、映像解析部22と単語解析部24との両方で取得されたカテゴリについては、登場時間と登場回数との両方がカウント用DB14cに格納される。また、映像解析部22では取得されたが単語解析部24では取得されなかったカテゴリについては、登場回数=0と計測された登場時間とがカウント用DB14cに格納される。また、映像解析部22では取得されなかったが単語解析部24では取得されたカテゴリについては、登場時間=0と計測された登場回数とがカウント用DB14cに格納される。
 番組情報抽出部25は、楽曲検出部21から受信した映像データから番組情報を取得する。そして、番組情報抽出部25は、番組情報の取得が完了すると、完了通知を出現率計算部26に出力する。例えば、番組情報抽出部25は、映像データがテレビ番組や録画番組、DVDなどの情報である場合に、映像データから「番組タイトル、放送日時」を取得する。そして、番組情報抽出部25は、取得した「番組タイトル、放送日時」を、楽曲検出部21が楽曲情報DB14dに格納したファイル名、楽曲の開始位置と楽曲の終了位置とに対応付けて格納する。
 出現率計算部26は、カウント用DB14cに格納されたカテゴリについて、登場回数や登場時間を用いて重み付けする。例えば、出現率計算部26は、カウント用DB14cに登録されるカテゴリが検出された楽曲の演奏時間を楽曲情報DB14dから算出する。具体的には、出現率計算部26は、カテゴリ「冬」が検出された楽曲「ファイル名=A」の楽曲開始位置と楽曲終了位置とを取得して、これらによって演奏時間を算出する。また、出現率計算部26は、カテゴリ「冬」が検出された楽曲から得られた総単語数を単語解析部24から受信する。
 そして、出現率計算部26は、カテゴリの「登場回数=n2」、「登場時間=m2」、カテゴリを含む楽曲の「総演奏時間=n1」、楽曲の「総単語数=m1」とした場合、「(m2+n2)/(m1+n1)×100」で算出した値を重み付けとする。また、出現率計算部26は、カウント用DB14cに格納されたカテゴリについて上記演算式を計算して重みを算出する。そして、出現率計算部26は、カテゴリと重みとを対応付けたカテゴリ情報を当該カテゴリが取得されたファイル名に対応付けて楽曲情報DB14dに格納する。
 例えば、ファイル名=Aの楽曲から取得されたカテゴリ「冬」の「登場回数が14」、「登場時間が10」、カテゴリを含む楽曲の「総演奏時間=5」、楽曲の「総単語数=25」であるとする。この場合、出現率計算部26は、カテゴリ「冬」の重みとして、「(14+10)/(5+25)×100=80」を算出する。そして、出現率計算部26は、ファイル名=Aのカテゴリとして「冬、80%」を楽曲情報DB14dに格納する。
 曲リスト表示部27は、ユーザからの要求に応じて、楽曲情報DB14dに記憶される情報から曲リストを生成して表示部13に表示出力する。例えば、曲リスト表示部27は、ユーザから曲リスト表示指示が入力部12によって受け付けられた場合、図7に示すような曲リスト画面を表示する。図7に示す画面例は、楽曲情報DB14dに記憶される楽曲のタイトルを表示する画面である。曲リスト表示部27は、楽曲情報DB14dに記憶される情報から「タイトル、楽曲の演者、番組放送日時、番組タイトル、カテゴリ」を取得し、これらに「詳細データ表示」ボタンを付加して図7の画面を生成する。なお、曲リスト表示部27は、「楽曲を追加」や「楽曲情報の編集」ボタンを設けることで、ユーザによる編集操作を可能にする。つまり、ユーザは、「楽曲を追加」や「楽曲情報の編集」ボタンをクリックすることで、楽曲情報DB14dに記憶される情報を編集することができる。
 また、曲リスト表示部27は、ユーザによって図7の画面の「詳細データ表示」ボタンがクリックされた場合、図8に示すような楽曲の詳細情報を表示する。つまり、曲リスト表示部27は、楽曲の詳細情報として、楽曲情報DB14dに記憶される情報そのものを表示する。
 また、曲リスト表示部27は、ユーザから曲リスト表示指示が入力部12によって受け付けられた場合、図9に示すようなメニュー画面を表示することもできる。曲リスト表示部27は、このメニュー画面を表示することで、ユーザが所望する情報で並び替えた画面を提供することができる。例えば、曲リスト表示部27は、図9に示すメニュー画面の「カテゴリ別表示」がクリックされた場合、楽曲情報DB14dからカテゴリを取得し、図10に示すように、取得したカテゴリ「冬」、「別れ」それぞれについて楽曲のタイトルを表示する。
 具体的には、曲リスト表示部27は、楽曲情報DB14dからカテゴリを取得し、取得したカテゴリごとに当該カテゴリを要するタイトルを取得する。そして、曲リスト表示部27は、取得したカテゴリごとに、取得したタイトルに対応するレコードを表示する。なお、図7は、曲リスト画面の例を示す図であり、図8は、曲リストの詳細画面の例を示す図であり、図9は、曲リストのメニュー画面の例を示す図であり、図10は、カテゴリ別の曲リスト画面の例を示す図である。
[カテゴリ生成装置による処理の流れ]
 次に、図11~図13を用いて、カテゴリ生成装置による処理の流れを説明する。図11は、実施例2に係るカテゴリ生成装置の処理の流れを示すフローチャートであり、図12は、単語解析処理の流れを示すフローチャートであり、図13は、映像解析処理の流れを示すフローチャートである。
(カテゴリ生成装置の処理の流れ)
 図11に示すように、カテゴリ生成装置10の楽曲検出部21は、映像データを受け付けると(ステップS101肯定)、映像データから楽曲部分を抽出する(ステップS102)。
 続いて、単語解析部24は、抽出された楽曲の文字部分について単語解析処理を実行してカテゴリを生成してカウント用DB14cに格納する(ステップS103)。なお、このとき、文字情報抽出部23は、楽曲から文字情報として「楽曲のタイトル、楽曲の演者、楽曲の作詞家、楽曲の作曲家、楽曲の歌詞」を取得して、楽曲情報DB14dに格納する。
 続いて、映像解析部22は、楽曲検出部21によって抽出された楽曲部分の映像部分を抽出して解析し、映像特徴よりカテゴリを生成してカウント用DB14cに格納する(ステップS104)。なお、このとき、番組情報抽出部25は、楽曲から「番組タイトル、放送日時」を取得して、楽曲情報DB14dに格納する。
 そして、出現率計算部26は、カウント用DB14cに格納されたカテゴリについて、登場回数や登場時間を用いて重み付けを生成し、カウント用DB14cに格納する(ステップS105)。
 その後、出現率計算部26は、カウント用DB14cに格納したカテゴリごとの登場回数や登場時間、重みを楽曲情報DB14dに格納する(ステップS106)。そして、出現率計算部26は、カウント用DB14cをクリアする(ステップS107)。
(単語解析処理の流れ)
 次に、図11のステップS103で実行される単語解析処理について説明する。図12に示すように、カテゴリ生成装置10の単語解析部24は、楽曲から文字情報を抽出し(ステップS201)、抽出した文字情報を単語に分解する(ステップS202)。なお、単語解析対象の文字情報が文字情報抽出部23によって抽出されている場合には、ステップS201を実行する必要はない。
 続いて、単語解析部24は、文字情報から得られた総単語数をカウントし(ステップS203)、得られた単語1つを取得する(ステップS204)。そして、単語解析部24は、取得した単語が単語DB14bに登録されているか否かを判定する(ステップS205)。
 そして、単語解析部24は、取得した単語が単語DB14bに登録されている場合(ステップS205肯定)、当該単語に対応付けられたカテゴリを単語DB14bから取得する(ステップS206)。続いて、単語解析部24は、取得したカテゴリがカウント用DB14cに登録されているか否かを判定する(ステップS207)。
 そして、単語解析部24は、取得したカテゴリがカウント用DB14cに登録されている場合(ステップS207肯定)、当該カテゴリの登場回数をインクリメントする(ステップS208)。一方、単語解析部24は、取得したカテゴリがカウント用DB14cに登録されていない場合(ステップS207否定)、当該カテゴリのレコードをカウント用DB14cに新たに生成して、登場回数をインクリメントする(ステップS209)。
 また、ステップS205において、取得した単語が単語DB14bに登録されていない場合(ステップS205否定)、単語解析部24は、ステップS205~ステップS208の処理が実行されていない単語が存在するか否かを判定する(ステップS210)。
 そして、単語解析部24は、未処理の単語が存在する場合(ステップS210肯定)、未処理の単語を取得してステップS205以降の処理を実行する。一方、単語解析部24は、未処理の単語が存在しない場合(ステップS210否定)、単語解析処理を終了する。
(映像解析処理の流れ)
 次に、図11のステップS104で実行される映像解析処理について説明する。図13に示すように、カテゴリ生成装置10の映像解析部22は、楽曲から映像情報を抽出し(ステップS301)、楽曲の総時間を取得する(ステップS302)。続いて、映像解析部22は、抽出した映像情報を特徴ごと(シーンごと)に分解する(ステップS303)。
 続いて、映像解析部22は、映像情報から得られたシーン1つを取得し(ステップS304)、当該シーンがシーンDB14aに登録されているか否かを判定する(ステップS305)。
 そして、映像解析部22は、取得したシーンがシーンDB14aに登録されている場合(ステップS305肯定)、当該シーンに対応付けられたカテゴリをシーンDB14aから取得する(ステップS306)。続いて、映像解析部22は、取得したカテゴリがカウント用DB14cに登録されているか否かを判定する(ステップS307)。
 そして、映像解析部22は、取得したカテゴリがカウント用DB14cに登録されている場合(ステップS307肯定)、当該カテゴリの登場時間を計数する(ステップS308)。一方、映像解析部22は、取得したカテゴリがカウント用DB14cに登録されていない場合(ステップS307否定)、当該カテゴリのレコードをカウント用DB14cに新たに生成して、登場時間を計数する(ステップS309)。
 また、取得したシーンがシーンDB14aに登録されていない場合(ステップS305否定)、映像解析部22は、ステップS305~ステップS308の処理が実行されていないシーンが存在するか否かを判定する(ステップS310)。
 そして、映像解析部22は、未処理のシーンが存在する場合(ステップS310肯定)、未処理のシーンを取得してステップS305以降の処理を実行する。一方、映像解析部22は、未処理のシーンが存在しない場合(ステップS310否定)、映像解析処理を終了する。
[実施例2による効果]
 このように、実施例2によれば、楽曲にメタ情報が乏しい場合でも、映像情報を持っている場合は、その映像の特徴から楽曲のイメージを表すカテゴリを作成し、そのメタデータを使うことにより楽曲を分類することができる。さらに、ユーザがあらかじめメタデータを楽曲に付与するという手間を省くことができる。
 従来は、楽曲が含まれる映像を保管しても、メタデータをユーザが自力で入力した上で整理をしない限り、好きな曲を探し出してその映像を再生することが難しかった。そのため、音楽を楽しむために映像を集めて活用するということが気軽にできなかった。実施例1によれば、メタデータをユーザが入力するという手間を省くだけでなく、楽曲タイトルだけでは想像しにくかった曲の内容までわかるようなカテゴリをメタデータとして追加することができるので、分類、整理が簡単にできる。この結果、扱いにくかった映像データが、音楽を気軽に楽しめるデータとなり新しい価値を提供できる。
 さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下に異なる実施例を説明する。
(重み付け)
 例えば、単語DB14bやシーンDB14aに記憶されるカテゴリに重み付けを行ってもよい。具体的には、単語=雪、カテゴリ1=雪×1.2、カテゴリ2=冬×1.0、カテゴリ3=白×0.8とする。そうして、登場回数を計算するときに、この重みを用いる。つまり、カテゴリ雪の登場回数が1.2倍、カテゴリ白の登場回数が0.8倍として計算される。なお、上述した実施例等のカテゴリの数はあくまで例であり、これに限定されるものではない。また、実施例では楽曲の映像データの検出を自動で行ったが、手動で任意の映像データを指定してから楽曲部分を検出して追加することもできることが望ましい。
(システム)
 また、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともできる。あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、例えば文字情報抽出部23と単語解析部24とを統合するなど各装置の分散・統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
(プログラム)
 ところで、上記の実施例で説明した各種の処理は、あらかじめ用意されたプログラムをパーソナルコンピュータやワークステーションなどのコンピュータシステムで実行することによって実現することができる。そこで、以下では、上記の実施例と同様の機能を有するプログラムを実行するコンピュータシステムの一例を説明する。
 図14は、カテゴリ生成プログラムを実行するコンピュータシステム100を示す図である。図14に示すように、コンピュータシステム100は、RAM101と、HDD102と、ROM103と、CPU104とを有する。ここで、ROM103には、上の実施例と同様の機能を発揮するプログラムがあらかじめ記憶されている。つまり、図14に示すように、楽曲検出プログラム103a、映像解析プログラム103b、文字情報抽出プログラム103c、単語解析プログラム103dがあらかじめ記憶されている。また、ROM103には、番組情報抽出プログラム103e、出現率計算プログラム103f、曲リスト表示プログラム103gがあらかじめ記憶されている。
 そして、CPU104には、これらのプログラム103a~103gを読み出して実行することで、図14に示すように、各プロセスとなる。つまり、楽曲検出プロセス104a、映像解析プロセス104b、文字情報抽出プロセス104c、単語解析プロセス104d、番組情報抽出プロセス104e、出現率計算プロセス104f、曲リスト表示プロセス104gとなる。
 なお、楽曲検出プロセス104aは、図2に示した楽曲検出部21に対応し、同様に、映像解析プロセス104bは、映像解析部22に対応する。また、文字情報抽出プロセス104cは、文字情報抽出部23に対応し、単語解析プロセス104dは、単語解析部24に対応する。また、番組情報抽出プロセス104eは、番組情報抽出部25に対応し、出現率計算プロセス104fは、出現率計算部26に対応し、曲リスト表示プロセス104gは、曲リスト表示部27に対応する。
 また、HDD102には、シーンテーブル102a、単語テーブル102b、カウント用テーブル102c、楽曲情報テーブル102dが設けられる。シーンテーブル102aは、図2に示したシーンDB14aに対応し、単語テーブル102bは、単語DB14bに対応し、カウント用テーブル102cは、カウント用DB14cに対応し、楽曲情報テーブル102dは、楽曲情報DB14dに対応する。
 ところで、上記したプログラム103a~103gは、必ずしもROM103に記憶させておく必要はない。例えば、コンピュータシステム100に挿入されるフレキシブルディスク(FD)、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に記憶させておくようにしてもよい。また、コンピュータシステム100の内外に備えられるハードディスクドライブ(HDD)などの「固定用の物理媒体」に記憶させておいてもよい。さらに、公衆回線、インターネット、LAN、WANなどを介してコンピュータシステム100に接続される「他のコンピュータシステム」に記憶させておいてもよい。そして、コンピュータシステム100がこれらからプログラムを読み出して実行するようにしてもよい。
 すなわち、この他の実施例でいうプログラムは、上記した「可搬用の物理媒体」、「固定用の物理媒体」、「通信媒体」などの記録媒体に、コンピュータ読み取り可能に記録されるものである。そして、コンピュータシステム100は、このような記録媒体からプログラムを読み出して実行することで上記した実施例と同様の機能を実現する。なお、この他の実施例でいうプログラムは、コンピュータシステム100によって実行されることに限定されるものではない。例えば、他のコンピュータシステムまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
 10 カテゴリ生成装置
 11 通信制御I/F部
 12 入力部
 13 表示部
 14 記憶部
 14a シーンDB
 14b 単語DB
 14c カウント用DB
 14d 楽曲情報DB
 20 制御部
 21 楽曲検出部
 22 映像解析部
 23 文字情報抽出部
 24 単語解析部
 25 番組情報抽出部
 26 出現率計算部
 27 曲リスト表示部

Claims (8)

  1.  楽曲を受け付ける楽曲受付手順と、
     前記楽曲受付手順により受け付けられた楽曲が有する映像情報を抽出し、抽出した映像情報を特徴ごとに分解する映像分解手順と、
     前記映像分解手順により分解された映像情報それぞれについて、当該映像情報の特徴を表すカテゴリを生成するカテゴリ生成手順と
     をコンピュータに実行させるためのカテゴリ生成プログラム。
  2.  前記カテゴリ生成手順は、前記生成したカテゴリそれぞれについて、当該カテゴリに分類された映像情報が前記楽曲で登場する登場時間を計測し、前記カテゴリと登場時間とを対応付けることを特徴とする請求項1に記載のカテゴリ生成プログラム。
  3.  情報処理装置が、前記楽曲受付手順により受け付けられた楽曲の映像情報から文字情報を抽出する文字情報抽出手順と、
     前記文字情報抽出手順により抽出された文字情報を単語に分解する単語分解手順とを前記コンピュータにさらに実行させ、
     前記カテゴリ生成手順は、前記単語分解手順により得られた単語それぞれについて、当該単語が表すと連想できるカテゴリを生成することを特徴とする請求項1または2に記載のカテゴリ生成プログラム。
  4.  前記カテゴリ生成手順は、前記生成したカテゴリそれぞれについて、当該カテゴリに分類された単語が前記楽曲で登場する登場回数を計測し、前記カテゴリと登場回数とを対応付けることを特徴とする請求項3に記載のカテゴリ生成プログラム。
  5.  前記カテゴリ生成手順は、前記生成したカテゴリそれぞれと前記登場時間と前記登場回数とを対応付けることを特徴とする請求項1~4のいずれか一つに記載のカテゴリ生成プログラム。
  6.  前記カテゴリ生成手順は、前記生成したカテゴリそれぞれについて、前記登場時間と前記登場回数とを加算した値を、前記文字情報に含まれる総単語数と前記楽曲の総時間とを加算した値で除算した出現率を算出し、前記カテゴリと出現率とを対応付けることを特徴とする請求項1に記載のカテゴリ生成プログラム。
  7.  楽曲を受け付ける楽曲受付部と、
     前記楽曲受付部により受け付けられた楽曲が有する映像情報を抽出し、抽出した映像情報を特徴ごとに分解する映像分解部と、
     前記映像分解部により分解された映像情報それぞれについて、当該映像情報の特徴を表すカテゴリを生成するカテゴリ生成部と
     を有することを特徴とするカテゴリ生成装置。
  8.  情報処理装置により実行される方法において、
     楽曲を受け付ける楽曲受付ステップと、
     前記楽曲受付ステップにより受け付けられた楽曲が有する映像情報を抽出し、抽出した映像情報を特徴ごとに分解する映像分解ステップと、
     前記映像分解ステップにより分解された映像情報それぞれについて、当該映像情報の特徴を表すカテゴリを生成するカテゴリ生成ステップと
     を含んだことを特徴とするカテゴリ生成方法。
PCT/JP2010/055451 2010-03-26 2010-03-26 カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法 WO2011118037A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP10848430.4A EP2551780A4 (en) 2010-03-26 2010-03-26 CATEGORIES CREATING DEVICE, CATEGORIES CREATING DEVICE AND CREATING CATEGORIES
JP2012506747A JP5516720B2 (ja) 2010-03-26 2010-03-26 カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法
KR1020127024744A KR101469021B1 (ko) 2010-03-26 2010-03-26 카테고리 생성 프로그램, 카테고리 생성 장치 및 카테고리 생성 방법
CN201080065677.3A CN102870109B (zh) 2010-03-26 2010-03-26 类别生成装置以及类别生成方法
PCT/JP2010/055451 WO2011118037A1 (ja) 2010-03-26 2010-03-26 カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法
US13/614,143 US9047916B2 (en) 2010-03-26 2012-09-13 Recording medium, category creating apparatus, and category creating method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/055451 WO2011118037A1 (ja) 2010-03-26 2010-03-26 カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/614,143 Continuation US9047916B2 (en) 2010-03-26 2012-09-13 Recording medium, category creating apparatus, and category creating method

Publications (1)

Publication Number Publication Date
WO2011118037A1 true WO2011118037A1 (ja) 2011-09-29

Family

ID=44672626

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/055451 WO2011118037A1 (ja) 2010-03-26 2010-03-26 カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法

Country Status (6)

Country Link
US (1) US9047916B2 (ja)
EP (1) EP2551780A4 (ja)
JP (1) JP5516720B2 (ja)
KR (1) KR101469021B1 (ja)
CN (1) CN102870109B (ja)
WO (1) WO2011118037A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10002136B2 (en) * 2015-07-27 2018-06-19 Qualcomm Incorporated Media label propagation in an ad hoc network
US10127943B1 (en) 2017-03-02 2018-11-13 Gopro, Inc. Systems and methods for modifying videos based on music
US11017811B1 (en) * 2020-01-09 2021-05-25 Lenovo (Singapore) Pte. Ltd. Playback speed optimization
US11797548B2 (en) * 2021-09-22 2023-10-24 Entres LLC Achievement based rating system and methods with a dynamic taxonomy

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11265396A (ja) * 1998-03-18 1999-09-28 Nippon Telegr & Teleph Corp <Ntt> 音楽映像分類方法、装置および音楽映像分類プログラムを記録した記録媒体
JP2006515099A (ja) 2003-01-02 2006-05-18 キャッチ・メディア・インコーポレイティッド デジタル音楽ライブラリ自動作成装置
JP2006190010A (ja) * 2005-01-05 2006-07-20 Brother Ind Ltd コンテンツ配信装置、コンテンツ配信方法、コンテンツ配信プログラム及びそれを記憶した記憶媒体
JP2007026425A (ja) 2005-06-16 2007-02-01 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6690391B1 (en) * 2000-07-13 2004-02-10 Sony Corporation Modal display, smooth scroll graphic user interface and remote command device suitable for efficient navigation and selection of dynamic data/options presented within an audio/visual system
US7640563B2 (en) * 2002-04-16 2009-12-29 Microsoft Corporation Describing media content in terms of degrees
KR100925256B1 (ko) * 2007-05-03 2009-11-05 인하대학교 산학협력단 음성 및 음악을 실시간으로 분류하는 방법
JP5238418B2 (ja) * 2008-09-09 2013-07-17 株式会社東芝 情報推薦装置および情報推薦方法
JP4788810B2 (ja) * 2009-08-17 2011-10-05 ソニー株式会社 楽曲同定装置及び方法、楽曲同定配信装置及び方法
JP4999015B2 (ja) * 2009-08-27 2012-08-15 株式会社Kddi研究所 動画像データの分類装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11265396A (ja) * 1998-03-18 1999-09-28 Nippon Telegr & Teleph Corp <Ntt> 音楽映像分類方法、装置および音楽映像分類プログラムを記録した記録媒体
JP2006515099A (ja) 2003-01-02 2006-05-18 キャッチ・メディア・インコーポレイティッド デジタル音楽ライブラリ自動作成装置
JP2006190010A (ja) * 2005-01-05 2006-07-20 Brother Ind Ltd コンテンツ配信装置、コンテンツ配信方法、コンテンツ配信プログラム及びそれを記憶した記憶媒体
JP2007026425A (ja) 2005-06-16 2007-02-01 Sony Corp 情報処理装置、情報処理方法、およびプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
See also references of EP2551780A4 *
YUJI MOGI: "News Eizochu no Moji Ninshiki ni Motozuku Kiji no Sakuinzuke", IEICE TECHNICAL REPORT, vol. 95, no. 582, 15 March 1996 (1996-03-15), pages 33 - 40 *

Also Published As

Publication number Publication date
JPWO2011118037A1 (ja) 2013-07-04
KR20120137376A (ko) 2012-12-20
EP2551780A1 (en) 2013-01-30
KR101469021B1 (ko) 2014-12-04
JP5516720B2 (ja) 2014-06-11
US9047916B2 (en) 2015-06-02
CN102870109B (zh) 2016-03-02
US20130071089A1 (en) 2013-03-21
CN102870109A (zh) 2013-01-09
EP2551780A4 (en) 2013-09-04

Similar Documents

Publication Publication Date Title
US7707231B2 (en) Creating standardized playlists and maintaining coherency
JP4469891B2 (ja) 情報処理装置及び情報処理プログラム
US20090217804A1 (en) Music steering with automatically detected musical attributes
JP2008217254A (ja) プレイリスト作成装置、およびプレイリスト作成方法
JP5706718B2 (ja) 動画合成システム及び方法並びに動画合成プログラム及びその記憶媒体
JP2011043710A (ja) 音声処理装置、音声処理方法及びプログラム
JP4560544B2 (ja) 楽曲検索装置、楽曲検索方法および楽曲検索プログラム
JP4364838B2 (ja) 楽曲リミックス可能な音楽再生装置ならびに楽曲リミックス方法およびプログラム
JP2012247957A (ja) データ処理装置およびプログラム
JP5516720B2 (ja) カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法
WO2006048988A1 (ja) コンテンツデータ検索装置
JP4898272B2 (ja) プレイリスト検索装置およびプレイリスト検索方法
JP4196052B2 (ja) 楽曲検索再生装置、及びそのシステム用プログラムを記録した媒体
CN109410972A (zh) 生成音效参数的方法、装置及存储介质
JP5034599B2 (ja) 楽曲紹介文生成装置、ナレーション付加装置およびプログラム
JP5344756B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20090144253A1 (en) Method of processing a set of content items, and data- processing device
CN111753127B (zh) 音乐信息处理、推荐方法及装置
JP2010165160A (ja) 楽曲分類装置、楽曲検索システム及びコンピュータプログラム
JPH11167391A (ja) カラオケ装置
JP2012159717A (ja) 楽曲データの変化点検出装置、楽曲データの変化点検出方法及び楽曲データの変化点検出プログラム
JP4447540B2 (ja) カラオケ唱歌録音作品の鑑賞システム
JP2008210382A (ja) 楽曲データ処理装置
JP5521094B2 (ja) 楽曲分類装置および楽曲検索システム
JP2008033349A (ja) 通信カラオケシステム、ホスト装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080065677.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10848430

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012506747

Country of ref document: JP

ENP Entry into the national phase

Ref document number: 20127024744

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2010848430

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE