WO2006134866A1 - 情報処理装置、方法、およびプログラム - Google Patents

情報処理装置、方法、およびプログラム Download PDF

Info

Publication number
WO2006134866A1
WO2006134866A1 PCT/JP2006/311742 JP2006311742W WO2006134866A1 WO 2006134866 A1 WO2006134866 A1 WO 2006134866A1 JP 2006311742 W JP2006311742 W JP 2006311742W WO 2006134866 A1 WO2006134866 A1 WO 2006134866A1
Authority
WO
WIPO (PCT)
Prior art keywords
cluster
music
content
identified
metadata
Prior art date
Application number
PCT/JP2006/311742
Other languages
English (en)
French (fr)
Inventor
Noriyuki Yamamoto
Kei Tateno
Mari Saito
Tomohiro Tsunoda
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to CN2006800008473A priority Critical patent/CN101044484B/zh
Priority to EP06766604A priority patent/EP1804182A4/en
Priority to US11/660,313 priority patent/US7953735B2/en
Publication of WO2006134866A1 publication Critical patent/WO2006134866A1/ja

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/51Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs

Definitions

  • the present invention relates to an information processing apparatus, an information processing method, and a program, and in particular, classifies content into clusters, manages content features using clusters into which content is classified, and searches and recommends content.
  • CBF content-based filtering
  • the preference information of the user is obtained by regarding the metadata of the music as a feature vector and adding the feature vectors of the music according to the user's operation (play, record, skip, delete, etc.) for the music. It was generated. For example, the feature vector of the reproduced music is multiplied by 1, the feature vector of the recorded music is multiplied by 2, the feature vector of the skipped music is multiplied by 1, and the feature vector of the erased music is multiplied by two. .
  • Patent Document 1 Japanese Patent Application Laid-Open No. 2004-194107
  • the present invention has been made in view of such a situation, and the user is able to search for the content similar to the content of the user's preference or the content similar to the designated content with a smaller amount of calculation, It is something that can be presented.
  • An information processing apparatus is an information processing apparatus for selecting a content satisfying a predetermined condition from the power of a content group, wherein each content constituting the content group is divided into content meta of content.
  • Content classification means for classifying into each of a plurality of first clusters in each layer according to data, and the first cluster in the layer into which each content and each content are classified
  • Holding means for holding a database indicating a correspondence relationship with the above, and the first corresponding to the predetermined condition for each hierarchy.
  • the present invention is characterized in that it comprises specifying means for specifying a cluster of and specifying content corresponding to the specified first cluster, and presenting means for presenting the content specified by the specifying means.
  • a storage unit is further provided which stores a preference value indicating a degree of preference of the user in association with each first cluster in which the content is classified by the content classification unit, and the identification unit includes the storage
  • the first cluster can be specified based on the preference value stored by the means, and the content corresponding to the specified first cluster can be specified.
  • the content may be music, and the metadata may include at least one of tempo, beat, or rhythm of the music.
  • the metadata may include review text for the corresponding content.
  • Metadata classification means for classifying the metadata of the content into any one of a plurality of second clusters and assigning the hierarchy to the second cluster, the content classification means assigning each content In each of the layers, the plurality of first clusters can be classified.
  • the identification means further indicates the content with a degree of similarity with the content serving as the similarity source. Can be identified.
  • the content is identified by the similarity weighted by the weight for each hierarchy according to the weight of attribution of the content as the similarity source to the first cluster. Can.
  • An information processing method is an information processing method of an information processing apparatus for selecting a content satisfying a predetermined condition from the power of a content group, and each content constituting the content group is A database that shows the correspondence between the content and the clusters in the hierarchy into which each content and each content were classified, and the classification step of classifying the content into a group of multiple clusters in each of the layers according to content metadata. And a step of specifying the content corresponding to the designated cluster, and specifying the content corresponding to the designated cluster. And providing a presentation step.
  • a program is a program for selecting a content that satisfies a predetermined condition from the power of a content group, wherein each content constituting the content group is a content metadata And storing a database indicating a correspondence between each content and each cluster in the hierarchy into which each content is classified.
  • a process including a step, a specifying step of specifying the cluster corresponding to the predetermined condition for each hierarchy, specifying a content corresponding to the specified cluster, and a presenting step of presenting the specified content Running on a computer.
  • each content forming a content group is classified into! / ⁇ of a plurality of clusters in each of the layers according to the metadata of the content, and each content is And a database indicating the correspondence with the cluster in the hierarchy into which each content is classified is held, the cluster corresponding to the predetermined condition is designated for each hierarchy, and the cluster corresponds to the designated cluster.
  • Content is identified and the identified content is presented.
  • FIG. 1 is a block diagram showing a configuration example of a recommendation system to which the present invention is applied.
  • FIG. 2 A diagram showing the concept of clusters for classifying metadata and a cluster layer.
  • FIG. 3 is a diagram showing an example of cluster information.
  • FIG. 4 is a diagram showing an example of HD information.
  • FIG. 5 is a diagram showing an example of preference information.
  • FIG. 6 is a diagram for explaining a method of selecting two types of methods from the first to fourth methods of clustering.
  • FIG. 7 is a diagram for explaining a method of selecting two types of methods from the first to fourth methods of clustering.
  • FIG. 8 is a diagram for explaining a method of selecting two types of clustering from the first to fourth methods.
  • FIG. 9 is a diagram for explaining a method of selecting two types of clustering from the first to fourth methods.
  • FIG. 10 is a diagram for explaining a method of selecting two types of methods from the first to fourth methods of clustering.
  • FIG. 11 is a flowchart illustrating a first similar music search process.
  • FIG. 12 is a flowchart illustrating a second similar music search process.
  • FIG. 13 is a flowchart for explaining third similar music search processing.
  • FIG. 14 is a flowchart illustrating a first music recommendation process.
  • FIG. 15 is a flowchart illustrating a second music recommendation process.
  • FIG. 16 is a block diagram showing a configuration example of a general-purpose personal computer.
  • FIG. 17 is a block diagram showing an example of another configuration of a recommendation system according to an embodiment of the present invention.
  • FIG. 18 is a flowchart illustrating an example of pre-processing when offline.
  • FIG. 19 is a diagram showing an example of metadata of each music piece subjected to soft clustering.
  • FIG. 20 is a diagram showing an example of metadata of each music.
  • FIG. 21 is a diagram showing an example of cluster information.
  • FIG. 22 is a flow chart for explaining a fourth similar music search process.
  • FIG. 23 is a diagram showing an example of cluster information.
  • FIG. 24 is a diagram showing an example of the degree of similarity.
  • FIG. 25 is a flowchart illustrating a fifth similar music search process.
  • FIG. 26 is a flowchart illustrating a third music recommendation process.
  • FIG. 27 shows an example of preference values.
  • FIG. 28 is a diagram showing an example of cluster information.
  • FIG. 29 is a diagram showing an example of the degree of similarity.
  • FIG. 30 is a diagram showing an example of weights.
  • FIG. 31 is a diagram showing an example of the degree of similarity.
  • FIG. 32 is a flowchart illustrating a fourth music recommendation process.
  • FIG. 33 is a diagram showing an example of preference values.
  • FIG. 34 is a diagram showing an example of the degree of similarity.
  • FIG. 1 shows an example of the configuration of a recommendation system according to an embodiment of the present invention.
  • the recommendation system 1 searches for music that matches the user's preference or music similar to a user-specified music, and presents the search to the user.
  • the recommendation system 1 can also be applied to the case of recommending content other than music, such as television programs, movies, books, and the like.
  • the recommendation system 1 is configured to easily record metadata of many songs to be searched.
  • the music database (DB) 11 each music recorded in the music database 11 is clustered based on metadata of the music!
  • the keyword setting part 13 which sets the keyword which shows the characteristic of each cluster, respectively, and cluster information database (DB) 14 holding the cluster information of each music are comprised.
  • the recommendation system 1 includes a search music specification unit 21 for specifying a music that is a similar source of music to be searched (hereinafter referred to as an original music), a conventional cluster identification with metadata of the original music.
  • a cluster mapping unit 22 that maps to an optimal cluster using a method (classification method), a music extraction unit 23 that extracts one or more musics to be presented to the user, and preference information indicating the preference of the user is recorded.
  • Preference information database (DB) 24 a preference input unit 25 for inputting user's preferences, a random selection unit 26 for randomly selecting one song from the middle power of the extracted songs, the extracted song and the original song or user
  • the similarity calculation unit 27 calculates the similarity with the preference of the user, selects the music with the highest similarity, generates a selection reason statement indicating the reason for selection in the random selection unit 26 or the similarity calculation unit 27 That election and-option reason generating unit 28, composed from the music Hisage radical 113 29 to present a selection statement of the reason the song was selected by the user.
  • the music database (DB) 11 corresponds to CDDB (CD Data Base), Music Navi, or the like, which is a data server on the Internet that supplies metadata of music recorded on music CDs.
  • CDDB CD Data Base
  • Music Navi or the like, which is a data server on the Internet that supplies metadata of music recorded on music CDs.
  • the clustering unit 12 shows each item (title, artist name, genre, review text, tempo, beat, rhythm, etc.) of the metadata of the music for all the music in the music database 11 as shown in FIG.
  • the music is classified (clustered) into any one of a plurality of clusters provided in the cluster layer where the actual information of each item is classified into one of the cluster layers (layers 1 to n).
  • one music piece may be classified into a plurality of clusters.
  • the distance between clusters (indicating the degree of similarity) existing in the same cluster layer shall be known.
  • the clustering method will be described later.
  • Cluster information is generated and output to the cluster information database 14.
  • each cluster is arbitrary and can encompass multiple songs.
  • a cluster may be provided which can classify only a single piece of music.
  • the ID (artist ID, album ID, title ID) of the real information of the music that can be classified only as the cluster ID of the cluster may be used.
  • the cluster information database 14 holds cluster information of each music generated by the clustering unit 12. Also, the cluster information database 14 generates cluster ID song ID information indicating the song ID of the song whose metadata has been classified into each cluster based on the cluster information held and holds this. Further, the cluster information database 14 also holds keywords set for each cluster layer and each cluster set by the keyword setting unit 13.
  • FIG. 3 shows an example of cluster information.
  • FIG. 4 shows an example of cluster music ID information corresponding to the cluster information shown in FIG.
  • the processes of the clustering unit 12, the keyword setting unit 13, and the cluster information database 14 need to be performed in advance before the similar music search process and the music recommendation process (described later) are performed.
  • the search music specification unit 21 outputs the music ID and metadata of the original music specified by the user to the cluster mapping unit 22.
  • the cluster mapping unit 22 selects the optimum cluster using the existing cluster identification method (classification method) for the metadata of the original music input from the search music specification unit 21.
  • classification method k-Near est-Neighbor method etc. can be applied.
  • cluster information of the original music is already If it exists in the star information database 14, it is read out and supplied to the music extraction unit 23.
  • the music extraction unit 23 refers to the cluster information database 14 based on the cluster information of the original music supplied from the cluster mapping unit 22 and acquires the music IDs of the music classified into the same cluster as the original music. It is acquired and supplied to the random selection unit 26 or the similarity calculation unit 27. In addition, the music extraction unit 23 refers to the cluster information database 14 based on the preference information in the preference information database 24 to acquire a music ID of a song that matches the user's preference, and selects the random selection unit 26 or the similarity calculation unit. Supply to 27.
  • the preference information database 24 stores preference information indicating the preference of the user.
  • preference values indicating the degree of preference of the user for each cluster are recorded. This preference value is a normalized value, and is updated by the preference input unit 25. Further, the preference information database 24 calculates the variance of preference values in each cluster layer, and detects a cluster layer in which the variance of preference values is the smallest (that is, the user preference is concentrated on a specific cluster).
  • FIG. 5 shows an example of preference information.
  • the preference value for the cluster CL11 is 0.5.
  • the preference value for cluster CL32 is 0.1.
  • the preference input unit 25 updates the preference value corresponding to each cluster based on the history of the user's operation (play, record, skip, delete, etc.) on the music. Further, the preference input unit 25 notifies the cluster information database 14 of the cluster layer that the user emphasizes based on the setting from the user.
  • the random selection unit 26 randomly selects one music ID as the medium power of the music extracted by the music extraction unit 23 and outputs the music ID to the selection reason generation unit 28.
  • the similarity calculation unit 27 calculates the similarity between the music extracted by the music extraction unit 23 and the original music or the preference of the user, selects the music with the highest similarity, and outputs it to the selection reason generation unit 28. .
  • the random selection unit 26 and the similarity calculation unit 27 need only operate either one or the other.
  • the selection reason generation unit 28 also supports the cluster information database 14 in the cluster layer and the cluster.
  • the corresponding keyword is acquired, and a selected reason sentence indicating the reason for selection is generated using the acquired keyword or the like, and is output to the music presentation unit 29 together with the music ID of the selected music.
  • the selection reason statement is generated as follows. For example, when selecting similar songs or songs matching the preference, the keywords of the cluster layer or the keyword of the cluster set in the priority cluster layer are used. Specifically, when giving priority to the cluster layer corresponding to the review text, “Summer appearing in the review text, and“ seafront ”are not favorite? Generate selected reason sentences such as "". Alternatively, the review text of the selected song is referred to as the selection reason sentence as it is, or a selection reason sentence is generated using a word extracted from the review text of the selected song. Note that Tf / idlf-past can be applied to extract words used for selection reason sentences from review texts.
  • the music presentation unit 29 includes, for example, a display, and presents the user with the music of the music ID input from the selection reason generation unit 28 and the selection reason sentence.
  • the clustering method may be any method, but the clustering method and the distance measure that are most suitable for each cluster layer are selected. For example, if actual information in the metadata is a numerical value, in the case of a title, etc., make a numerical value by using a quantitative method such as principal component analysis, define a distance measure such as Euclidean distance, and cluster. become.
  • Typical clustering methods include K-means method and hierarchical clustering method.
  • clustering for example, constrained clustering reflecting preference distance.
  • a partial survey of correct answers a set of near-preferred real information, a set of distant real information, etc.
  • a numerical expression, distance, and clustering method will be used.
  • it is desirable to select a clustering method ie, a clustering method with different characteristics in which the independence of each formed cluster layer is high.
  • first to fourth methods a method of selecting two types of clustering methods having different characteristics with respect to the intermediate force of four types of clustering methods (hereinafter referred to as first to fourth methods) will be described.
  • first to fourth methods two types of clustering methods having different characteristics with respect to the intermediate force of four types of clustering methods
  • the artists A to C are clustered in the cluster CL 1
  • the artists D to G are clustered in the cluster CL 2
  • Is cluster CL1 artist C to F is cluster CL2, and artist 0 3 ⁇ 4 [is cluster to cluster CL3.
  • artists A, D, G, J are cluster CL1, artist E, H Are clustered in cluster CL2, artists C, F, and I are clustered in cluster CL3, and artists D, I, J are clustered in cluster CL1, artists E to G are clustered in cluster CL2, artists A to C and H in the fourth method.
  • Force S Cluster Suppose that it is clustered in CL3.
  • the duplication rate (%) of the results according to the first to fourth methods is as shown in FIG. That is, the overlap rate of the first method and the second method is 0.8, the overlap rate of the first method and the third method is 0.3, and the overlap rate of the first method and the fourth method is 0.4, The overlap rate of the second and third methods is 0.3, the overlap rate of the second and fourth methods is 0.3, and the overlap rate of the third and fourth methods is 0.4.
  • the characteristics of the two methods are considered to differ as the overlapping rate shown in FIG. 7 decreases, so that the combination of the first and third methods with the overlapping rate of 0.3 as the second method, the second method It is desirable to adopt a combination of the third method and the second method and the fourth method.
  • the result shown in FIG. 8 is obtained when the user himself / herself determines whether or not two of the artists Yano 3 [2] should be classified into the same cluster.
  • 1 means that it should be classified into the same cluster
  • 0 means that it should be classified into a different cluster. That is, in the same figure, for example, it is indicated that it is judged that the taste A should be classified into the same cluster as the artist B, C, F, H, I.
  • the artist B is the artist C , D, E, J are shown to be classified into the same cluster.
  • the accuracy rates of the above-described first to fourth methods are as shown in FIG. That is, the correct rate of the first method is 62.2%, the correct rate of the second method is 55.6%, and the correct rate of the third method is 40.0%, the fourth The accuracy rate of the method is 66.7%.
  • the overlap rates of the first to fourth methods are calculated as shown in FIG.
  • the accuracy rate is extremely low from the results shown in Fig. 9!
  • a specific method is identified, and the specified method is not included!
  • the duplication rate of the accuracy rate among the combinations is the lowest.
  • the third method is identified as a method with an extremely low accuracy rate, and the combination of the second method and the fourth method is regarded as the one with the lowest overlapping rate of correct answers among combinations not including the third method. It is selected.
  • an absolute threshold may be specified for the above-mentioned duplication rate or accuracy rate, and a ⁇ method that can not satisfy the threshold may be excluded!
  • a comprehensive index such as the following two examples is created based on two indices (the overlapping rate and the correct answer rate), and a clustering method of You may choose to select a combination.
  • the clustering unit 12, the keyword setting unit 13, and the cluster information database 14 are operating as pre-processing for performing similar music search processing and music recommendation processing described below, and the cluster information database 14 has already been operated. Are set for each cluster layer and each cluster set by the cluster information set by the clustering unit 12, the cluster music ID information generated by the cluster information database 14, and the cluster music ID information set by the keyword setting unit 13. Keywords will be retained.
  • FIG. 11 is a flow chart for explaining the first similar music search process.
  • the cluster information database 14 is input from the preference input unit 25 as pre-processing of the first similar music search processing. It is assumed that the layer numbers of higher priority layers are sequentially renumbered to 1, 2, ⁇ , n according to the priority of the user to which the user is to be applied.
  • step S 1 the search music designation unit 21 outputs the music ID and the metadata of the original music designated by the user to the cluster mapping unit 22.
  • the cluster mapping unit 22 maps the metadata of the input original music to the optimum cluster using the conventional cluster identification method, and supplies the result (hereinafter referred to as optimum cluster information) to the music extraction unit 23. .
  • step S 2 the music extracting unit 23 refers to the cluster information database 14 and assumes a set C having elements of the music IDs of all the music pieces for which the cluster information is held in the cluster information database 14.
  • step S3 the music extraction unit 23 initializes the layer number i to one.
  • step S4 the music extracting unit 23 determines whether the layer number W (n is the total number of cluster layers) or less. If it is determined that the layer number is equal to or less than three, the process proceeds to step S5. In step S5, based on the optimum cluster information of the original music input from the cluster mapping unit 22, the music extraction unit 23 identifies which cluster the original music belongs to in the i-th layer. The identified cluster is called CLix.
  • step S 6 the music extraction unit 23 refers to the cluster 1 music I ⁇ f blue report of the cluster information database 14 and acquires the music ID of the music belonging to the specified cluster CLix.
  • step S7 the music extraction unit 23 assumes a set A having the music ID acquired in the process of step S6 as an element.
  • step S8 the music extraction unit 23 extracts an element (music ID) common to the set C and the set A, and in step S9, the power / power with which the common music ID exists (ie, in step S8). Then, determine whether it has been possible to extract a song ID common to Set C and Set A).
  • step S10 If it is determined that set C and set A have a common song ID, the process proceeds to step S10, and the elements of set C are reduced to only the common song IDs extracted in step S8.
  • step S11 the music extraction unit 23 increments the layer number i by one, returns to step S4, and repeats the subsequent processing.
  • step S10 If it is determined in step S9 that there is no music ID common to the sets C and A, step S10 is skipped, and the process proceeds to step S11.
  • the elements (music ID) of the set C are reduced by repeating the processes of steps S4 to Sl l.
  • step S4 When it is determined in step S4 that the number is larger than the layer number and is not n or less, the process proceeds to step S12.
  • step S 12 the music extraction unit 23 outputs the elements of the set C (music ID) to the random selection unit 26.
  • the random selection unit 26 randomly selects one piece of music of the set C and outputs it to the selection reason generation unit 28. Note that the random selection unit 26 may output the elements (music ID) of the set C to the similarity calculation unit 27 which is not included, and the similarity calculation unit 27 may select one music.
  • step S13 the selection reason generation unit 28 generates a selection reason sentence indicating the reason why the music selected by the random selection unit 26 (or the similarity calculation unit 27) is selected, and the selected music Output to the music presentation unit 29 together with the music ID of the
  • step S14 the music presentation unit 29 presents the user with the music of the music ID input from the selection reason generation unit 28 and the selection reason sentence.
  • FIG. 12 is a flowchart for explaining the second similar music search process.
  • the preference information database 24 calculates the variance of the preference value in each cluster layer, and the variance of the preference value is the smallest (that is, the user preference is for a particular cluster). It is assumed that cluster layers are detected in a concentrated manner, and clusters are identified with concentrated preferences.
  • the layer number of the cluster layer is P, and the cluster is CLpp.
  • step S 31 preference information database 24 calculates the variance of preference values in each cluster layer, and the variance of preference values is the smallest (that is, the user preference is set to a specific cluster).
  • Cluster layer is detected and designated as the P layer is an integer from 1 to n). Furthermore, the preference is concentrated in the layer P, and the cluster is identified as CLpp.
  • step S 32 the search music designation unit 21 outputs the music ID and metadata of the original music designated by the user to the cluster mapping unit 22.
  • the cluster mapping unit 22 optimizes the input metadata of the original music using the conventional cluster identification method. , And this optimal cluster information is generated and supplied to the music extraction unit 23.
  • step S 33 the music extracting unit 23 refers to the cluster information database 14 and assumes a set C having elements of the music IDs of all the music pieces for which cluster information is held in the cluster information database 14.
  • step S34 the music extraction unit 23 initializes the layer number i to one.
  • step S35 the music extracting unit 23 determines whether the layer number i is less than or equal to n (n is the total number of cluster layers). If it is determined that the layer number is equal to or less than three, the process proceeds to step S36.
  • step S36 the music extraction unit 23 determines whether or not P and the layer number i match in step S31, and if it is determined that they match, the process proceeds to step S37, and the processing target in the next step 39 is Identify cluster CLpp.
  • step S36 determines whether P and the layer number i identified in step S31 do not match. If it is determined in step S36 that P and the layer number i identified in step S31 do not match, the process proceeds to step S38.
  • step S 38 based on the optimum cluster information of the original music input from the cluster mapping unit 22, the music extraction unit 23 identifies to which cluster the original music belongs to the i-th layer. The identified cluster is called CLix.
  • step S 39 the music extracting unit 23 refers to the cluster of the cluster information database 14-music HD information, and the cluster CLpp specified in the process of step S 37 or the music belonging to the cluster CLix specified in the process of step S 38 Get the song ID of
  • step S40 the music extraction unit 23 assumes a set A having the music IDs acquired in the process of step S39 as elements.
  • step S41 the music extraction unit 23 extracts an element (music ID) common to the set and the set A, and in step S42, whether or not there is a common music ID (ie, in the process of step S41) Determine whether a song ID common to Set C and Set A can be extracted. If it is determined that set C and set A have a common song ID, the process proceeds to step S43, and the elements of set C are reduced to the common song ID extracted in step S41.
  • step S44 the music extraction unit 23 increments the layer number i by one, returns to step S35, and repeats the subsequent processing.
  • step S43 is skipped, and the process proceeds to the step S44.
  • the elements (music ID) of the set C are reduced.
  • step S45 the process proceeds to step S45.
  • step S 45 the music extraction unit 23 outputs the elements of the set C (music ID) to the random selection unit 26.
  • the random selection unit 26 randomly selects one piece of music of the set C and outputs it to the selection reason generation unit 28. Note that the random selection unit 26 may output the elements (music ID) of the set C to the similarity calculation unit 27 which is not included, and the similarity calculation unit 27 may select one music.
  • step S46 the selection reason generation unit 28 generates a selection reason sentence indicating the reason why the music selected by the random selection unit 26 (or the similarity calculation unit 27) is selected, and selects the selected music Output to the music presentation unit 29 together with the music ID of the
  • step S47 the music presentation unit 29 presents the user with the music of the music ID input from the selection reason generation unit 28 and the selection reason sentence.
  • the second similar music search processing described above it is not necessary to calculate the distance between the feature vector of the original music and the feature vector of the other music, and the cluster having a high preference value indicating the user's preference It is possible to present a song that belongs to and similar to the original song.
  • FIG. 13 is a flowchart for explaining the third similar music search process.
  • step S 61 the search music designation unit 21 outputs the music ID of the original music designated by the user and the metadata to the cluster mapping unit 22.
  • the cluster mapping unit 22 maps the metadata of the input original music to the optimum cluster using the conventional cluster identification method, and supplies this optimum cluster information to the music extraction unit 23.
  • step S62 the music piece extraction unit 23 initializes a group C having the music piece ID to which the evaluation value is added as an element. That is, at this point, the set C is an empty set.
  • step S63 the music extraction unit 23 initializes the layer number i to one.
  • step S 64 the music extracting unit 23 determines whether the layer number i is equal to or less than n (n is the total number of cluster layers). If it is determined that the layer number is equal to or less than three, the process proceeds to step S65.
  • step S 65 the music extraction unit 23 receives the request from the cluster mapping unit 22. Based on the input optimum cluster information of the original music, it is specified to which cluster the original music belongs in the i-th layer. The identified cluster is called CLix.
  • step S 66 the music piece extraction unit 23 refers to the preference information database 24 to acquire the preference value of the user for the cluster CLix identified in the process of step S 65, and based on the acquired preference value! / Decide the evaluation value to be given to the music belonging to cluster CLix.
  • step S 67 the music extraction unit 23 refers to the cluster-music HD information of the cluster information database 14 and acquires the music ID of the music belonging to the specified cluster CLix.
  • step S68 the music extraction unit 23 assigns the evaluation value determined in the process of step S66 to the music ID acquired in the process of step S67. Then, assume a set A having a music piece ID with an evaluation value as an element.
  • step S69 the music extraction unit 23 adds the elements of the set A (song ID with evaluation value) to the set C.
  • the music extracting unit 23 increments the layer number i by one, returns to step S64, and repeats the subsequent processing.
  • step S64 By repeating the processes of steps S64 to S70, the elements of the set C (music IDs with evaluation values) increase.
  • step S64 determines that the layer number is larger than n and it is determined that the number is not less than n.
  • step S 71 the music extraction unit 23 selects the one with the highest evaluation value from the elements of the set C (music ID with evaluation value), and selects the random selection unit 26 (or the similarity calculation unit 2). 7) Output to the selection reason generation unit 28 via
  • step S 72 the selection reason generation unit 28 generates a selection reason sentence indicating the reason why the music selected by the music extraction unit 23 is selected, and the music ID of the selected music and the selected music. Output to the presentation unit 29.
  • step S 73 the music presentation unit 29 presents the user with the music of the music ID input from the selection reason generation unit 28 and the selection reason sentence.
  • music is used as a search condition.
  • the similar music search process can be performed by specifying an artist, an album, etc.
  • the song ID in Figures 3 and 4 can be replaced with the artist ID or album ID.
  • cluster layers corresponding to titles, albums, genres, etc. related to the artist in FIG. 2 are used.
  • FIG. 14 is a flowchart illustrating the first music recommendation process.
  • the cluster information database 14 sequentially receives layers from the higher priority cluster layer according to the user's priority for each cluster layer input from the preference input unit 25. It is assumed that the numbers have been rearranged to 1, 2, ⁇ , n.
  • step S 91 the music extracting unit 23 refers to the cluster information database 14 and assumes a set C having the music IDs of all the music pieces whose cluster information is held in the cluster information database 14 as an element.
  • step S92 the music extracting unit 23 initializes the layer number i to one.
  • step S 93 the music extraction unit 23 determines whether the layer number is equal to or less than W3 (n is the total number of cluster layers). If it is determined that the layer number is equal to or less than three, the process proceeds to step S94.
  • step S 94 the music piece extraction unit 23 refers to the preference information database 24 and specifies, among the clusters in the i-th layer, a cluster having the largest user preference value. The identified cluster is called CLix.
  • step S 95 the music extraction unit 23 refers to the cluster-music HD information of the cluster information database 14, and acquires the music IDs of the music belonging to the specified cluster CLix.
  • step S96 the music extraction unit 23 assumes a set A having the music IDs acquired in the process of step S95 as an element.
  • step S97 the music extraction unit 23 extracts an element (music ID) common to the set C and the collection A, and in step S98, whether or not there is a common music ID (ie, in step S97) Then, determine whether it has been possible to extract a song ID common to the sets C and A).
  • step S99 If it is determined that set C and set A have a common song ID, the process proceeds to step S99, and the elements of set C are reduced to only the common song IDs extracted in step S97.
  • step S100 the music extraction unit 23 increments the layer number i by 1 and returns to step S93 to repeat the subsequent processing.
  • step S99 is skipped, and the process proceeds to step S100.
  • step S93 By repeating the processing of steps S93 to S100, the elements of the set C (music ID) are reduced. Then, if it is determined in step S93 that the number is larger than the layer number and not less than n, the process proceeds to step S101.
  • step S101 the music extraction unit 23 outputs the elements of the set C (music ID) to the random selection unit 26.
  • the random selection unit 26 randomly selects one piece of music of the set C and outputs it to the selection reason generation unit 28.
  • the random selection unit 26 may output the elements (music ID) of the set C to the similarity calculation unit 27 which is similar to the similarity calculation unit 27 and one similarity may be selected by the similarity calculation unit 27.
  • step S102 the selection reason generation unit 28 generates a selection reason sentence indicating the reason why the music selected by the random selection unit 26 (or the similarity calculation unit 27) is selected, and the selected music is selected.
  • Output to the music presentation unit 29 together with the music ID of the the music presentation unit 29 presents the user with the music of the music ID input from the selection reason generation unit 28 and the selection reason.
  • the first music recommendation process described above it is not necessary to calculate the distance between the feature vector corresponding to the user's preference and the music feature vector, and the priority of the user for each cluster layer is determined. It is possible to recommend to the user a song that matches the user's preferences while taking into consideration.
  • FIG. 15 is a flowchart for explaining the second music recommendation process.
  • step S121 the music piece extraction unit 23 initializes a set C assuming the music piece ID to which the evaluation value is attached as an element. That is, at this point, the set C is an empty set.
  • step S122 the music extraction unit 23 initializes the layer number i to one.
  • step S123 the music extracting unit 23 determines whether the layer number i is equal to or less than n (n is the total number of cluster layers). If it is determined that the layer number is 3 ⁇ 4 or less, the process proceeds to step S124.
  • step S 124 the music extraction unit 23 refers to the preference information database 24 and identifies clusters in the i-th layer whose preference value corresponding to the preference of the user is equal to or greater than a predetermined value. The specified one is called a cluster group CLix.
  • step S 125 the music piece extraction unit 23 applies the music piece belonging to each cluster in the cluster group CLix based on the preference value for each cluster in the cluster group CLix specified in the process in step S 124. Determine the evaluation value to be given.
  • step S 126 the music extraction unit 23 refers to the cluster music HD information of the cluster information database 14 and acquires the music IDs of the music belonging to each cluster of the specified cluster group CLix.
  • step S127 the music extraction unit 23 assigns the evaluation value determined in the process of step S125 to the music ID acquired in the process of step S126. Then, assume a set A having elements of music IDs with evaluation values.
  • step S1208 the music extraction unit 23 adds the elements of the set A (song ID with evaluation value) to the set C. At this time, if the set C has the same music ID, the evaluation values are added.
  • step S129 the music extraction unit 23 increments the layer number i by 1 and returns to step S123 to repeat the subsequent processing.
  • step S123 By repeating the processes of steps S123 to S129, the elements of the set C (music IDs with evaluation values) increase.
  • step S123 determines that the layer number i is greater than n and is not less than or equal to n.
  • step S130 the music extraction unit 23 selects the one with the highest evaluation value from the elements of the set C (song ID with evaluation value), and selects the random selection unit 26 (or the similarity calculation unit 2). 7) Output to the selection reason generation unit 28 via
  • step S131 the selection reason generation unit 28 generates a selection reason sentence indicating the reason why the music selected by the music extraction unit 23 is selected, and the music presentation unit 29 together with the music ID of the selected music.
  • step S132 the music presentation unit 29 presents the user with the music of the music ID input from the selection reason generation unit 28 and the selection reason sentence to the user.
  • calculation of the distance between the feature vector corresponding to the user's preference and the feature vector of the music is not essential, and it is given according to the user's preference. It is possible to recommend the user the music with the highest evaluation value.
  • the feature vector corresponding to the original music or the preference of the user, and the search object It is possible to select a song to be presented before calculating the distance (such as cosine correlation) with the feature vector of the song.
  • the preference of the user can be prioritized, so that the degree of satisfaction of the user with respect to the search or recommendation can be improved.
  • cluster layers may be divided into groups and partially used. For example, ⁇ related artist layer, artist genre layer, artist review text layer ⁇ as a group for artist search recommendation, and ⁇ music feature amount layer (tempo, rhythm, etc), song genre layer, song review text layer ⁇ Let's define it as a search recommendation group.
  • the above-described series of processes can also be executed by software that can be executed by hardware.
  • a series of processes are executed by software, it is possible to execute various functions by installing a computer built in the hardware dedicated to the program power constituting the software or various programs. For example, it is installed from a recording medium on a general-purpose personal computer configured as shown in FIG.
  • the personal computer 100 incorporates a CPU (Central Processing Unit) 101.
  • An input / output interface 105 is connected to the CPU 101 via a bus 104.
  • the ROM 104 is connected to a read only memory (ROM) 102 and a random access memory (RAM) 103.
  • the input / output interface 105 includes an input unit 106 including an input device such as a keyboard and a mouse through which a user inputs an operation command, a CRT (Cathode Ray Tube) or an LCD (Liquid Crystal Display) for displaying a screen. Etc., and a storage unit 108 such as a hard disk drive for storing programs and various data, a modem, a LAN (Local Area Network) adapter, etc., and communication via a network represented by the Internet.
  • a communication unit 109 that executes processing is connected.
  • Optical disk including lexible disk
  • optical disk including compact disc-read only memory (CD-ROM), digital versatile disc (DVD)
  • magneto-optical disc including mini disk (MD)
  • semiconductor memory etc.
  • a drive 110 for reading and writing data to the recording medium 111 is connected.
  • a program for causing the personal computer 100 to execute the series of processes described above is supplied to the personal computer 100 in a state of being stored in the recording medium 111, read by the drive 110, and incorporated in the storage unit 108. Installed on the drive.
  • the program installed in the storage unit 108 is loaded from the storage unit 108 to the RAM 103 and executed according to a command from the CPU 101 corresponding to a command from the user input to the input unit 106.
  • FIG. 17 is a block diagram showing an example of another configuration of the recommendation system 1 according to the embodiment of this invention.
  • the same parts as those in FIG. 1 are denoted by the same reference numerals, and the description thereof will be omitted.
  • the recommendation system 1 shown in FIG. 17 includes a music DB 11, a keyword setting unit 13, a cluster information DB 14, a search music specification unit 21, a cluster mapping unit 22, a music extraction unit 23, a preference information database 24, and a preference input unit.
  • the metadata clustering unit 201 clusters metadata of each music recorded in the music database 11. That is, the metadata clustering unit 201 classifies the metadata of music as content into any one of a plurality of clusters, and assigns a hierarchy to the clusters.
  • the metadata clustering unit 201 supplies the result of clustering of metadata of each music to the music clustering unit 202.
  • the music clustering unit 202 clusters each music and generates cluster information of each music based on the clustering result of the metadata of each music by the metadata clustering unit 201. Do. In other words, the music clustering unit 202 generates cluster information corresponding to the result of clustering of each music and transmits the generated cluster information to the cluster information DB 14. Output.
  • the metadata clustering unit 201 acquires metadata of a music from the music DB 11, and compresses the dimension of the acquired metadata.
  • the metadata clustering unit 201 is the next to the metadata of the music obtained from the music DB 11, LbA ⁇ the latent semantic analysis), PLbA ⁇ the probabilistic latent semantic analysis), or quantification Compress by a method such as Class III.
  • step S 201 the metadata clustering unit 201 may process the metadata of music piece as vector.
  • step S202 the metadata clustering unit 201 clusters metadata of each music.
  • the metadata clustering unit 201 performs soft clustering on metadata of each music.
  • the metadata clustering unit 201 is configured such that, in each layer, the sum of the belonging weight to each cluster of the item is 1, Perform soft clustering of music metadata.
  • the first cluster, the second cluster, the third cluster, and the fourth cluster in the first layer (layer number 1) of the metadata of the music identified by the music ID that is ABC123 The generic weights are 0. 0, 0. 8, 0. 0, and 0. 2 respectively.
  • the belonging weights to the fifth cluster, the sixth cluster, the seventh cluster, and the eighth cluster in the second layer (layer number 2) of the metadata of the music identified by the music ID that is ABC123 are respectively , 0.4, 0.6, 0. 0, and 0. 0. 0.
  • the belonging weights to the ninth cluster, the tenth cluster, and the eleventh cluster in the third layer (layer number 3) of the metadata of the music identified by the music ID that is ABC123 are each 0. 0, 0. 0, and 1. 0.
  • the belonging weights to each of the four clusters in the nth layer (layer number n) of the metadata of the music identified by the music ID of ABC123 are 1.0, 0.0, and 0, respectively. , And 0. 0. 0.
  • the belonging weights to the first cluster, the second cluster, the third cluster, and the fourth cluster in the first layer of the metadata of the music identified by the music ID that is CTH 863 are , 1. 0, 0. 0, 0. 0, and 0. 0, respectively.
  • Attribution weights to the fifth cluster, the sixth cluster, the seventh cluster, and the eighth cluster in the second hierarchy of the metadata of the song identified by the song ID that is CTH 863 are respectively 0, 0, 0, 0.5, 0.5, and 0. 0. 0.
  • the belonging weights to the ninth cluster, the tenth cluster, and the eleventh cluster in the third layer of the metadata of the music identified by the music ID, which is CTH 863 are 0.7, 0.3, and 0.3, respectively. 0. 0
  • the belonging weights to each of the four clusters in the nth layer of the metadata of the music identified by the music ID which is CTH 863 are respectively 0. 0, 0. 8, 0. 2, and 0. 0. is there.
  • the belonging weights to the first cluster, the second cluster, the third cluster, and the fourth cluster in the first layer of the metadata of the music identified by the music ID which is XYZ567 are respectively , 0, 0, 0, 4, 0, 6, and 0. 0.
  • the attribution weight to the fifth cluster, the sixth cluster, the seventh cluster, and the eighth cluster in the second layer of the metadata of the music identified by the music ID which is XYZ567 is 0. 0, respectively. 0. 0, 0. 0, and 1.0.
  • the belonging weights to the ninth cluster, the tenth cluster, and the eleventh cluster in the third layer of the metadata of the music identified by the music ID that is XYZ567 are 0.9, 0.0, and 0.9, respectively. It is 0.1.
  • the belonging weights to each of the four clusters in the nth layer of the metadata of the music identified by the music ID that is XYZ567 are 0.3, 0.0, 0. 0, and 0.7, respectively. is there.
  • the soft clustering of the metadata of each music is not limited to an item, that is, the sum of the belonging weights of the music to each cluster is 1, in each layer. Also, each item may not belong to any cluster in each layer.
  • step S203 the metadata clustering unit 201 allocates layers of clusters.
  • FIG. 20 is a diagram showing an example of metadata.
  • the metadata shown in FIG. 20 is categorical data of either 0 or 1 for simplicity.
  • Meta group 1 as a high-order classification includes Metadata 1, Metadata 2, and Metadata.
  • the third group belongs, and the metagroup 2 as a high-order classification includes metadata 4, metadata 5, and metadata 6.
  • meta group 1 includes metadata about an artist
  • metadata 1 indicates the appearance of the artist
  • metadata 2 indicates that it is a group.
  • meta-group 2 has metadata relating to the genre
  • metadata 4 indicates that it is a pop
  • metadata 5 indicates that it is a lock.
  • Metadata 1 to metadata 6 are 1, 0, 1, 1, 0, 0, respectively.
  • metadata 1 regarding the music identified by the music ID identified by ABC123 or the music identified by the song ID identified by OPQ 385 is regarded as a vector.
  • each of the metadata 2 to the metadata 6 is regarded as a vector for the music identified by the music ID that is ABC123 or the music identified by the music ID that is OPQ 385. That is, the value of one metadata for a plurality of songs is regarded as a vector.
  • metadata 1 considered as a vector
  • metadata 3 and metadata 4 represent clusters within the Manhattan distance 1
  • metadata 2 represent clusters within the Manhattan distance 2
  • metadata 5 and metadata 6 are clinging to other clusters within 1 Manhattan distance.
  • these clusters are set as a new metadata hierarchy. That is, metadata is allocated closer to each layer in the hierarchy.
  • FIG. 21 shows an example of metadata that is thus clustered and layer allocated.
  • metadata 1, metadata 3 and metadata 4 belong to the first layer
  • metadata 2 belong to the second layer
  • each layer is formed of a collection of highly correlated metadata, and music clustering is performed in that layer, genres and artists are made hierarchical as they are. It is possible to reflect in the cluster the differences between subtle pieces of music that can not be expressed by ordinary hierarchy division.
  • step S 204 the music clustering unit 202 clusters the music for each layer, and the process ends. That is, the music clustering unit 202 classifies each content into! /! Of a plurality of clusters in each of the assigned layers.
  • music can be clustered so that subtle differences between music can be well expressed.
  • step S221 the search music designation unit 21 sets an original music as a similarity source. That is, for example, in step S221, the search music specification unit 21 outputs the music ID of the original music to the music extraction unit 23 according to the user specification via the cluster mapping unit 22. Set the music.
  • step S222 the similarity calculation unit 27 calculates the similarity between the original music and each of all the music other than the original music from the belonging weight of each cluster.
  • the music extraction unit 23 also reads the cluster information database 14 power of the cluster information of the original music identified by the music ID and the cluster information of all the music other than the original music. Then, the music extraction unit 23 supplies the read cluster information to the similarity calculation unit 27.
  • the similarity calculation unit 27 calculates the similarity between the original music and all the music other than the original music from the belonging weight of each cluster indicated by the cluster information of the original music and all the music other than the original music. calculate.
  • the music clustering unit 202 soft-clusters each music within each layer, and stores it in the cluster information force S cluster information database 14 indicating the belonging weight of each cluster. .
  • FIG. 23 is a diagram illustrating an example of cluster information indicating belonging weights of clusters.
  • a cluster in the first hierarchy a cluster identified by a cluster ID of CL11, a cluster identified by a cluster ID of CL12, a cluster identified by a cluster ID of CL13, and CL14
  • the belonging weights of the music identified by the music ID, which is ABC123, to the cluster identified by the cluster ID are 0. 0, 1.0, 0. 0, and 0. 2, respectively.
  • a cluster in the second hierarchy a cluster identified by a cluster ID CL21, a cluster identified by a cluster ID CL22, a cluster identified by a cluster ID CL23, and a cluster ID CL24
  • the belonging weights of the music identified by the music ID, which is ABC123, to the cluster to be cluster are 0.6, 0.8, 0.0, and 0. 0 respectively.
  • the attribution weights of the songs identified by the song ID are 0, 0, 0, 0, and 1.0, respectively.
  • a cluster in the fourth hierarchy a cluster identified by a cluster ID of CL 41, a cluster identified by a cluster ID of CL 42, a cluster identified by a cluster ID of CL 43, and a cluster ID of CL 44
  • the belonging weights of the music identified by the music ID of ABC123 to the identified cluster are: 1. 0, 0. 0, 0. 0, and 0. 0, respectively.
  • a cluster in the first hierarchy a cluster identified by a cluster ID that is CL11, a cluster identified by a cluster ID that is CL12, a cluster identified by a cluster ID that is CL13, and CL14
  • the belonging weights of the song identified by the song ID, which is CTH 863, to the cluster identified by the cluster ID are 1. 0, 0. 0, 0. 0, and 0. 0, respectively.
  • a cluster in the second hierarchy a cluster identified by a cluster ID CL21, a cluster identified by a cluster ID CL22, a cluster identified by a cluster ID CL23, and a cluster ID CL24
  • the belonging weights of the music identified by the music ID, which is CTH 863, to the cluster to be processed are 0. 0, 0. 7, 0. 7, and 0. 0, respectively.
  • a cluster in the third hierarchy a cluster identified by a cluster ID of CL31, a cluster identified by a cluster ID of CL32, and a cluster ID of CL33
  • the belonging weights of the music identified by the music ID, which is CTH 863, to the cluster being processed are 0.9, 0.4, and 0. 0, respectively.
  • a cluster identified by a cluster ID of CL41 which is a cluster in the fourth hierarchy, a cluster identified by a cluster ID of CL42, a cluster identified by a cluster ID of CL43, and a CL44
  • the belonging weights of the song identified by the song ID CTH 863 to the cluster identified by a cluster ID are 0. 0, 1. 0, 0. 0.3, and 0. 0, respectively.
  • a cluster identified by a cluster ID CL11 which is a cluster in the first hierarchy
  • a cluster identified by a cluster ID CL12 a cluster identified by a cluster ID CL13
  • CL14 The belonging weights of the music identified by the music ID, which is XYZ567, to the cluster identified by the cluster ID are 0. 0, 0. 6, 0. 8, and 0. 0, respectively.
  • a cluster in the second hierarchy a cluster identified by a cluster ID CL21, a cluster identified by a cluster ID CL22, a cluster identified by a cluster ID CL23, and a cluster ID CL24
  • the attribute weights of the music identified by the music ID, which is XYZ 567, to the cluster being processed are 0. 0, 0. 0, 0. 0, and 1.0, respectively.
  • a cluster in the third hierarchy that is, a cluster identified by a cluster ID that is CL31, a cluster that is identified by a cluster ID that is CL32, and a cluster that is identified by a cluster ID that is CL33
  • the attribution weights of the songs identified by the song ID are: 1. 0, 0. 0, and 0. 1, respectively.
  • a cluster identified by a cluster ID of CL41 which is a cluster in the fourth hierarchy, a cluster identified by a cluster ID of CL42, a cluster identified by a cluster ID of CL43, and a CL44
  • the belonging weights of the music identified by music ID, which is XYZ567, to the cluster identified by a cluster ID are 0.5, 0, 0, 0, 0, and 0, 9, respectively.
  • a cluster identified by a cluster ID CL11 which is a cluster in the first hierarchy
  • a cluster identified by a cluster ID CL12 a cluster identified by a cluster ID CL13
  • a CL14 The attribution weights of the music identified by the music ID, which is the EKF 534, to the cluster identified by the cluster ID are 0.9, 0.0, 0, 0, and 0.5, respectively.
  • a class identified by a cluster ID which is a cluster in the second hierarchy, that is CL21 To the cluster identified by the cluster ID that is CL22, the cluster identified by the cluster ID that is CL23, and the cluster identified by the cluster ID that is CL24 attributable to the song that is identified by the song ID that is EKF 534
  • the weights are 0. 0, 0. 6, 0. 0, and 0. 8 respectively.
  • a cluster identified by a cluster ID of CL31, a cluster identified by a cluster ID of CL32, and a cluster identified by a cluster ID of CL33 The attribution weights of the songs identified by the song ID are: 0.7, 0. 0, and 0. 7, respectively.
  • a cluster identified by a cluster ID of CL41 which is a cluster in the fourth hierarchy, a cluster identified by a cluster ID of CL42, a cluster identified by a cluster ID of CL43, and a CL44
  • the attribution weights of the songs identified by the song ID EKF 534 to the cluster identified by a cluster ID are 0.0, 0.9, 0.4, and 0.3, respectively.
  • a cluster identified by a cluster ID CL11 which is a cluster in the first hierarchy
  • a cluster identified by a cluster ID CL12 a cluster identified by a cluster ID CL13
  • a CL14 The attribution weights of the song identified by the song ID that is OPQ 385 to the cluster identified by the cluster ID are 0.7, 0.2, 0.6, and 0.0, respectively.
  • a cluster in the second hierarchy a cluster identified by a cluster ID CL21, a cluster identified by a cluster ID CL22, a cluster identified by a cluster ID CL23, and a cluster ID CL24
  • the attribute weights of the song identified by the song ID, which is OPQ 385, to the cluster being clustered are 1. 0, 0. 0, 0. 0, and 0. 0, respectively.
  • OPQ 385 to clusters in the third hierarchy a cluster identified by a cluster ID of CL31, a cluster identified by a cluster ID of CL32, and a cluster identified by a cluster ID of CL33.
  • the attribution weights of the songs identified by the song ID are 0, 0, 1.0, and 0. 0 respectively.
  • a cluster identified by a cluster ID of CL41 which is a cluster in the fourth hierarchy, a cluster identified by a cluster ID of CL42, a cluster identified by a cluster ID of CL43, and a CL44
  • the belonging weights of the songs identified by the song ID of OPQ 385 to the cluster identified by a cluster ID are , 0.4, 0.9, 0.0, and 0. 0. 0.
  • the similarity calculation unit 27 determines the similarity sim (i, j) between the original music identified by the music ID of i and the music identified by the music ID of j It is calculated by the operation shown in equation (1) from the belonging weight to the cluster.
  • sim (i, j) ⁇ w ilc w ilc ... (1)
  • L is a value indicating the number of layers, and 1 is a value identifying the layers.
  • C (l) indicates the entire cluster, and c is a value that identifies the cluster.
  • w is the song ID which is i
  • w indicates the belonging weight of the first cluster c in the first layer of the song identified by the song ID that is j.
  • FIG. 24 is a diagram showing an example of the degree of similarity calculated by the calculation shown in equation (1) from the cluster information of FIG. 23 showing the belonging weights of clusters.
  • the similarity of each of the songs identified by the song IDs CTH 863 to OPQ 385 to the original song identified by the song ID ABC123 is shown.
  • the music identified by the music IDs of CTH 863 to OPQ 385 is The similarity of each of the songs identified by the song ID of each of CTH 863 to OPQ 385 as follows: 0.57, 1.18, 1.27, 1 It will be 20.
  • step S222 similarity calculation section 27 calculates 0.535, 1.18, 1.27, and 1.20 according to the calculation shown in equation (1), respectively, using ABC123.
  • the similarity of each of the songs identified by the song ID of CTH 863 to OPQ 385 to the original song identified by the song ID is calculated.
  • step S223 the similarity calculation unit 27 sorts all the songs other than the original music in the order of similarity to the original music based on the similarity.
  • the similarity calculation unit 27 associates the music similarity obtained as a result of the calculation with the music ID of the music, and based on the similarity, it is similar to the original music. Songs in order of music By rearranging D, all songs other than the original music are sorted in order of similarity to the original music.
  • step S224 the similarity calculating unit 27 selects an arbitrary number of higher rank songs from the sorted songs.
  • the similarity calculation unit 27 supplies the music selection ID of the selected music to the selection reason generation unit 28.
  • step S224 the similarity calculating unit 27 selects the top music and supplies the music ID of the top music to the selection reason generating unit 28.
  • the similarity calculation unit 27 selects the top 10 songs, and supplies the selection ID of the top 10 songs to the selection reason generation unit 28.
  • step S 225 selection reason generation unit 28 generates a selection reason sentence indicating the reason why the music piece selected by similarity calculation unit 27 is selected, and presents the music together with the music ID of the selected music. Output to section 29.
  • the music presentation unit 29 presents the music of the music ID input from the selection reason generation unit 28 and the selection reason sentence to the user, and the process ends.
  • Steps S241 to S 251 are the same as steps S 1 to S 11 in FIG. 11, and thus the description thereof will be omitted.
  • step S 252 similarity calculation unit 27 determines, from the attribution weight of each cluster, the original music and set C, based on the element of collection C (music ID) supplied from music extraction unit 23. Calculate the degree of similarity with each of the songs. For example, in step S252, the similarity calculation unit 27 calculates the similarity between each of the original music and the music of the set C by the calculation shown in equation (1).
  • step S 253 the similarity calculating unit 27 sorts the music of the set C in the order of similarity to the original music based on the similarity.
  • the similarity calculating unit 27 associates the degree of similarity obtained as a result of the calculation with the music ID of the music of the set C, and based on the similarity, the music of the set C. Sort the songs in Set C by sorting the song IDs in order of similarity to the original song.
  • step S224 similarity calculating section 27 determines any number of the sorted music pieces. Select the top songs of the. The similarity calculation unit 27 supplies the music selection ID of the selected music to the selection reason generation unit 28.
  • step S224 the similarity calculation unit 27 selects the top music and supplies the music ID of the top music to the selection reason generation unit 28.
  • the similarity calculation unit 27 selects the top 10 songs, and supplies the selection ID of the top 10 songs to the selection reason generation unit 28.
  • step S 225 selection reason generation unit 28 generates a selection reason sentence indicating the reason why the music selected by similarity calculation unit 27 is selected, and presents the music together with the music ID of the selected music. Output to section 29.
  • the music presentation unit 29 presents the music of the music ID input from the selection reason generation unit 28 and the selection reason sentence to the user, and the process ends.
  • step S 271 the similarity calculating unit 27 sets the preference value of the user indicating the belonging weight of each cluster based on the element of the group C (music ID) supplied from the music extracting unit 23, and sets The degree of similarity with the cluster information indicating the belonging weight of each cluster, which is the cluster information of each song of C, is calculated.
  • the preference information database 24 is soft-clustered, and a preference value indicating attribution weight of each cluster is recorded in each layer.
  • FIG. 27 is a diagram showing an example of preference values indicating attribution weights of clusters.
  • a cluster identified by a cluster ID CL11 which is a cluster in the first hierarchy
  • a cluster identified by a cluster ID CL12 a cluster identified by a cluster ID CL13
  • a CL14 The belonging weights of the preference value of the user identified by the user ID, which is U001, to the cluster identified by the cluster ID are respectively: 0. 0, 0. 8, 0. 0, and 0. 6 It is.
  • the cluster in the second hierarchy identified by the cluster ID, which is CL21 To the cluster identified by the cluster ID that is CL22, the cluster identified by the cluster ID that is CL23, and the cluster identified by the cluster ID that is CL24 by the user identified by the user ID that is U001.
  • the membership weights of preference values are 0.4, 0.6, 0.7, and 0.0, respectively.
  • a cluster identified by the cluster ID CL31, a cluster identified by the cluster ID CL32, and a cluster identified by the cluster ID CL33, U001 The belonging weights of the preference value of the user specified by the user ID that is are 0.7, 0.5, and 0.5, respectively.
  • the attribution weights of the preference value of the user identified by the user ID, which is U001, to the cluster identified by are respectively: 0. 0, 0. 5, 0. 4 and 0. 0. 0.
  • FIG. 28 is a diagram showing an example of cluster information indicating attribution weight of each cluster.
  • a cluster identified by a cluster ID CL11 which is a cluster in the first hierarchy
  • a cluster identified by a cluster ID CL12 a cluster identified by a cluster ID CL13, and CL14
  • the belonging weights of the music identified by the music ID, which is ABC123, to the cluster identified by the cluster ID are 0. 0, 1.0, 0. 0, and 0. 2, respectively.
  • a cluster in the second hierarchy a cluster identified by a cluster ID CL21, a cluster identified by a cluster ID CL22, a cluster identified by a cluster ID CL23, and a cluster ID CL24
  • the belonging weights of the music identified by the music ID, which is ABC123, to the cluster to be cluster are 0.6, 0.8, 0.0, and 0. 0 respectively.
  • the attribution weights of the songs identified by the song ID are 0, 0, 0, 0, and 1.0, respectively.
  • a cluster in the fourth hierarchy a cluster identified by a cluster ID of CL 41, a cluster identified by a cluster ID of CL 42, a cluster identified by a cluster ID of CL 43, and a cluster ID of CL 44 specific
  • the attribution weights of the music identified by the music ID, which is ABC123, to the cluster to be cluster are 1. 0, 0. 0, 0. 0, and 0. 0, respectively.
  • a cluster identified by a cluster ID CL11 which is a cluster in the first hierarchy
  • a cluster identified by a cluster ID CL12 a cluster identified by a cluster ID CL13
  • a CL14 The belonging weights of the song identified by the song ID, which is CTH 863, to the cluster identified by the cluster ID are 1. 0, 0. 0, 0. 0, and 0. 0, respectively.
  • a cluster in the second hierarchy a cluster identified by a cluster ID CL21, a cluster identified by a cluster ID CL22, a cluster identified by a cluster ID CL23, and a cluster ID CL24
  • the belonging weights of the music identified by the music ID, which is CTH 863, to the cluster to be processed are 0. 0, 0. 7, 0. 7, and 0. 0, respectively.
  • CTH 863 to a cluster in the third hierarchy a cluster identified by a cluster ID of CL 31, a cluster identified by a cluster ID of CL 32, and a cluster identified by a cluster ID of CL 33.
  • the attribution weights of the songs identified by the song ID are 0.9, 0.4, and 0. 0 respectively.
  • a cluster identified by a cluster ID of CL41 which is a cluster in the fourth hierarchy, a cluster identified by a cluster ID of CL42, a cluster identified by a cluster ID of CL43, and a CL44
  • the belonging weights of the song identified by the song ID CTH 863 to the cluster identified by a cluster ID are 0. 0, 1. 1, 0. 3, and 0. 0, respectively.
  • a cluster in the first hierarchy a cluster identified by a cluster ID that is CL11, a cluster identified by a cluster ID that is CL12, a cluster identified by a cluster ID that is CL13, and CL14
  • the belonging weights of the music identified by the music ID, which is XYZ567, to the cluster identified by the cluster ID are 0. 0, 0. 6, 0. 8, and 0. 0, respectively.
  • a cluster in the second hierarchy a cluster identified by a cluster ID CL21, a cluster identified by a cluster ID CL22, a cluster identified by a cluster ID CL23, and a cluster ID CL24
  • the attribute weights of the music identified by the music ID, which is XYZ 567, to the cluster being processed are 0. 0, 0. 0, 0. 0, and 1.0, respectively.
  • the cluster identified by the cluster ID CL31, the cluster identified by the cluster ID CL32, and the cluster identified by the cluster ID CL33, XYZ567 The attribution weights of the songs identified by the song ID are: 1. 0, 0. 0, and 0. 1, respectively.
  • a cluster identified by a cluster ID of CL41, which is a cluster in the fourth hierarchy a cluster identified by a cluster ID of CL42, a cluster identified by a cluster ID of CL43, and a CL44
  • the belonging weights of the music identified by the music ID, which is XYZ567, to the cluster identified by a cluster ID are 0.4, 0, 0, 0, 0, and 0, 7, respectively.
  • the similarity calculation unit 27 uses the belonging weight to the cluster in the preference value of the user, and the belonging weight to the cluster in the cluster information of the music identified by the music ID that is i, Calculate the similarity sim (u, i) by the operation shown in.
  • L is a value indicating the number of layers, and 1 is a value identifying the layers.
  • C (l) indicates the entire cluster, and c is a value that identifies the cluster.
  • w is the song ID which is i
  • h denotes the belonging weight of the 1st cluster of the 1st layer of the preference value of the user u.
  • FIG. 29 is an example of the similarity calculated by the operation shown in equation (2) from the preference value indicating the belonging weight of the cluster in FIG. 27 and the cluster information indicating the belonging weight of the cluster in FIG. FIG.
  • belonging weights of the preference value of the user specified by the user ID which is U001 among the belonging weights of the first layer and the belonging weight of the cluster information of the music specified by the music ID which is ABC123.
  • belonging weight of the first layer are multiplied by the corresponding belonging weights, and when the multiplied results are integrated, the value arranged in the first layer for the music ID, which is ABC123 in FIG. Is required.
  • the belonging weight of the preference value of the user specified by the user ID U001 and the cluster information of the music specified by the music ID ABC123 Attribution weight is multiplied by corresponding attribution weight and multiplied
  • the results are accumulated, and the values assigned to the second, third, and fourth layers, respectively, for the song ID of ABC123 in FIG. 29 are 0.67, 0.53 and 0.00, respectively. Is required.
  • the similarity between the preference value of the user identified by the user ID U001 and the cluster information of the song identified by the song ID ABC123 is 1st layer, 2nd layer, 2nd layer
  • the third and fourth layers are considered to be the value 2.11 which is the value obtained by calculating 0.9.1, 0.67, 0.53 and 0.00, respectively, which were calculated by the following procedure.
  • the value 0100 is a value arranged in the first layer for the music ID which is CTH 863 in FIG. Is required.
  • each of the second, third, and fourth layers for the music ID which is CTH 863 in FIG.
  • the assigned values of 0.92, 0.82, and 0.63 are obtained.
  • the similarity between the preference value of the user specified by the user ID U001 and the cluster information of the music specified by the music ID CTH 863 is 1st layer, 2nd layer, 2nd layer
  • the third and fourth layers are calculated as the value 2.37, which is the value obtained by calculating the values of 0.00, 0.92, 0.82, and 0.63 obtained by the following procedure.
  • each of the second, third, and fourth layers for the music ID which is XYZ567 in FIG.
  • the assigned values of 0.00, 0.72, and 0.00 are obtained.
  • the similarity between the preference value of the user identified by the user ID U001 and the cluster information of the song identified by the music ID XYZ567 is 1st layer, 2nd layer, 2nd layer It is considered 1.15 that is the value obtained by calculating the values of 0.44, 0. 00, 0. 72, and 0. 00, which have been calculated by using the 3rd and 4th layers, respectively.
  • the similarity may be calculated using the weight based on the distribution of the belonging weight of the user's preference value in each layer.
  • the similarity calculation unit 27 uses the belonging weight to the cluster in the preference value of the user, and the belonging weight to the cluster in the cluster information of the music identified by the music ID that is i, Calculate the similarity sim (u, i) by the operation shown in.
  • L is a value indicating the number of layers, and 1 is a value identifying the layers.
  • C (l) indicates the entire cluster, and c is a value that identifies the cluster.
  • w is the song ID which is i
  • the weight of the first layer is shown.
  • FIG. 30 is a diagram illustrating an example of weights for each hierarchy, which is the distribution of attribution weight of each hierarchy of the preference value of the user.
  • the weight of the first layer, the weight of the second layer, the weight of the third layer, and the weight of the fourth layer for the user identified by the user ID which is U001 are respectively 0. 0. 17, 0. 0, 0. 01, and 0. 06.
  • FIG. 31 is represented by Expression (3) from the preference value indicating the belonging weight of the cluster in FIG. 27, the cluster information indicating the belonging weight of the cluster in FIG. 28, and the weight for each hierarchy in FIG. It is a figure which shows the example of the similarity calculated by calculation.
  • the degree of similarity shown in FIG. 30 is 10 times the result calculated by the calculation shown in equation (3).
  • the cluster information of the music identified by the music ID which is ABC123, corresponding to the belonging weight of the first layer of the preference value of the user specified by the user ID that is U001 and the belonging weight of the user preference value.
  • the attribution weight of the first layer is multiplied by the weight of the first layer, and the multiplied result is integrated. Then, a value of 1.27, which is the value allocated to the first layer for the music ID that is ABC123 in FIG. 31, is obtained.
  • it is ABC123 corresponding to the belonging weight of the preference value of the user specified by the user ID of U001 and the belonging weight of the user preference value.
  • the diagram is obtained.
  • the value obtained by placing each of the second, third, and fourth layers with respect to the song ID, which is ABC123 of 31, is calculated as 0.49, 0. 03, 0, 00, respectively.
  • the similarity between the preference value of the user identified by the user ID U001 and the cluster information of the song identified by the song ID ABC123 is 1st layer, 2nd layer, 2nd layer It is considered 1.79, which is the value obtained by calculating 1.27, 0. 49, 0. 03, and 0. 00, which were calculated by the following procedure: 3rd layer and 4th layer.
  • Cluster information of the music identified by the music ID, CTH 863 corresponding to the belonging weight of the first layer of the preference value of the user specified by the user ID being U001 and the belonging weight of the preference value of the user
  • the belonging weight of the first layer and the weight of the first layer are multiplied and the multiplied results are integrated, it is a value placed in the first layer for the music ID which is CTH 863 in FIG. 00 is required.
  • CTH 863 corresponds to the belonging weight of the preference value of the user specified by the user ID of U001 and the belonging weight of the user preference value.
  • the diagram is obtained.
  • the result is 0.65, 0. 04, 0.27 power S, which is a value placed in each of the second, third, and fourth layers for the music ID which is CTH 863 of 31.
  • the similarity between the preference value of the user specified by the user ID U001 and the cluster information of the music specified by the music ID CTH 863 is 1st layer, 2nd layer, 2nd layer
  • the third and fourth layers, respectively, are calculated as the value 0.96, which is the value obtained by calculating the values of 00, 0.65, 0.04 and 0.27.
  • the cluster information of the music identified by the music ID which is XYZ 567, corresponding to the belonging weight of the first layer of the preference value of the user specified by the user ID being U001 and the belonging weight of the user preference value.
  • the attribution weight of the first layer is multiplied by the weight of the first layer, and the multiplied result is integrated. Then, the value 0.55 assigned to the first layer for the music ID, which is XYZ567 in FIG. 31, is obtained.
  • it is XYZ567 corresponding to the belonging weight of the preference value of the user specified by the user ID of U001 and the belonging weight of the user preference value.
  • the diagram is obtained. It is calculated by the values 0.000, 0. 04, 0, 00 which are values respectively assigned to the second layer, the third layer, and the fourth layer for the music ID which is XYZ567 of 31.
  • the similarity between the preference value of the user specified by the user ID U001 and the cluster information of the music specified by the music ID XYZ567 is 1st layer, 2nd layer, 2nd layer
  • the third and fourth layers, respectively, are calculated as the result of calculating 0.50, 0.50, 0. 04, and 0. 00, which are calculated by the following procedure.
  • the value of the belonging weight of the preference value of the user identified by the user ID U001 is lower in the first layer than in the second to fourth layers. Since there is a large change, the value of each element of the first layer is predicted to be related to the preference of the user specified by the user ID of U001, as compared with the second to fourth layers.
  • the similarity is more likely to change depending on the value that is predicted to be more related to the user's preference than to the value that is predicted to be less related to the user's preference. Can be detected, so that the user's favorite music can be detected more accurately.
  • step S 272 the similarity calculating unit 27 sorts the music of the set C in the order of similarity to the preference of the user based on the similarity.
  • the similarity calculation unit 27 associates the degree of similarity obtained as a result of the calculation with the music ID of the music of the set C, and based on the similarity, the music of the set C. By rearranging the music IDs of, the music of set C is sorted in order of similarity to the user's preference.
  • step S273 the similarity calculating unit 27 selects an arbitrary number of higher rank songs from among the sorted songs.
  • the similarity calculation unit 27 supplies the music selection ID of the selected music to the selection reason generation unit 28.
  • the similarity is calculated by the operation shown in equation (2), and the music ID is ABC123
  • the similarity for the identified song is 2.11
  • the similarity for the song identified by the song ID CTH 863 is 2.37
  • the similarity for the song identified by the song ID XYZ567 When the degree is set to 1.15, when one music is selected, the music specified by the music ID of CTH 863 having the highest similarity will be selected.
  • the similarity is calculated using the weight based on the distribution of the a posteriori weight of the user's preference value in each layer by the calculation shown in equation (3), and the music ID is ABC123
  • the similarity for the identified song is 1.79
  • the similarity for the song identified by the song ID CTH 863 is 0. 96
  • the similarity for the song identified by the song ID is XYZ567 If is set to 0.57, when one music is selected, the music specified by the music ID of ABC123 with the highest similarity will be selected.
  • step S274 the selection reason generation unit 28 generates a selection reason sentence indicating the reason why the music piece selected by the similarity calculation unit 27 is selected, and presents the music together with the music ID of the selected music. Output to section 29.
  • step S 275 the music presentation unit 29 presents the music of the music ID input from the selection reason generation unit 28 and the selection reason sentence to the user, and the process ends.
  • step S281 to step S284 is similar to each of step S121 to step S124 of FIG. 15, the description thereof will be omitted.
  • step S285 the music extraction unit 23 determines an evaluation value based on the preference value corresponding to each of the identified clusters and the weight of the i-th layer.
  • FIG. 33 is a diagram showing an example of preference values that are also belonging weight strengths equal to or greater than a threshold value of 0.6 among belonging weights of preference values shown in FIG.
  • the belonging weight which is less than 0.6 is replaced with 0. 0, whereby the preference value shown in FIG. 33 is obtained.
  • a cluster identified by a cluster ID CL11 which is a cluster in the first hierarchy
  • a cluster identified by a cluster ID CL12 a cluster identified by a cluster ID CL13
  • CL14 The belonging weights of the preference value of the user specified by the user ID, which is U001, to the cluster specified by the cluster ID are respectively: 0, 0, 0, 8, 0, 0, And 0.6.
  • a cluster in the second hierarchy a cluster identified by a cluster ID CL21, a cluster identified by a cluster ID CL22, a cluster identified by a cluster ID CL23, and a cluster ID CL24
  • the belonging weights of the preference value of the user specified by the user ID, which is U001, to the cluster are 0. 0, 0. 6, 0. 7, and 0. 0, respectively.
  • a cluster identified by the cluster ID CL31, a cluster identified by the cluster ID CL32, and a cluster identified by the cluster ID CL33 U001
  • the belonging weights of the preference value of the user specified by the user ID that is are 0.7, 0.0, and 0. 0 respectively.
  • the cluster identified in the fourth hierarchy the cluster identified by the cluster ID CL41, the cluster identified by the cluster ID CL42, the cluster identified by the cluster ID CL43, and the cluster ID CL44
  • the attribution weights of the preference value of the user identified by the user ID, which is U001, to the cluster identified by are 0. 0, 0. 0, 0. 0, and 0. 0, respectively.
  • step S285 the music extracting unit 23 determines that the music belonging to the cluster has a weight attributable to the cluster at the preference value which also has an attribute weighting power equal to or higher than the threshold and From the weight, the similarity is calculated by the operation shown in equation (3). That is, among the belonging weights of the original preference value, a value obtained by multiplying the belonging weight less than the threshold, for example, 0.6, is not added to the similarity, and of the belonging weights of the original preference value. The value obtained by multiplying with the membership weight which is equal to or higher than the threshold value is added to the similarity.
  • FIG. 34 shows Equation (3) based on preference values including belonging weights equal to or higher than the threshold in FIG. 33, cluster information indicating belonging weights of clusters in FIG. 28, and weights for each hierarchy in FIG. It is a figure which shows the example of the similarity calculated by the shown calculation.
  • the preference value of the user identified by the user ID that is U001 which corresponds to the attribution weight of the first layer of the preference value whose belonging weight is equal to or greater than the threshold, and the attribution weight of the user preference value
  • the belonging weight of the first layer of the cluster information of the music identified by the music ID which is ABC123
  • the weight of the first layer are multiplied and the multiplied result is integrated, it is easy to be ABC123 of FIG.
  • a value of 0.15 allocated to the first layer for the song ID is obtained.
  • the second and third layers And the fourth layer is the preference value of the user specified by the user ID of U001, corresponding to the belonging weight of the preference value consisting of the belonging weight or more of the threshold and the belonging weight of the user preference value,
  • the belonging weight of the cluster information of the music identified by the music ID which is ABC123 is multiplied by the weight of that layer among the second, third, and fourth layers, and the multiplication result is integrated.
  • the similarity between the preference value of the user identified by the user ID U001 and the cluster information of the song identified by the song ID ABC123 is 1st layer, 2nd layer, 2nd layer
  • the third and fourth layers, respectively, are calculated as the caluculated values of 0. 15, 0. 05, 0. 00, and 0. 00, which have been determined by the following procedure.
  • the preference value of the user identified by the user ID that is U001 which corresponds to the attribution weight of the first layer of the preference value whose belonging weight is equal to or greater than the threshold and the attribution weight of the user preference value,
  • the belonging weight of the first layer of the cluster information of the music identified by the music ID which is CTH 863 is multiplied by the weight of the first layer and the multiplied result is integrated, it is easy to be CTH 863 of FIG.
  • the value 0. 00 assigned to the first layer for the song ID is obtained.
  • the preference value of the user identified by the user ID of U001 is the preference value of the user identified by the user ID of U001, and the belonging weight of the preference value consisting of the belonging weight or more of the threshold and the user's
  • the belonging weight of the cluster information of the music identified by the music ID which is CTH 863 corresponding to the belonging weight of the preference value is multiplied by the weight of that layer among the second, third or fourth layer. And the multiplied results are integrated, the values placed in the second, third, and fourth layers for the song ID of CTH 863 in FIG. 34 are 0.10, 0. 00, 0, respectively. 00 is required.
  • the similarity between the preference value of the user specified by the user ID U001 and the cluster information of the music specified by the music ID CTH 863 is 1st layer, 2nd layer, 2nd layer
  • the third layer and the fourth layer are calculated as the value of 0.10, which is the value obtained by calculating 0000, 0.10. 0, 00, and 0. 00, which were calculated by the following procedure.
  • the preference value of the user identified by the user ID that is U001 which corresponds to the attribution weight of the first layer of the preference value that is equal to or greater than the threshold and the attribution weight of the user preference value,
  • the belonging weight of the first layer of the cluster information of the music identified by the music ID which is XYZ567, and the first The weight of the layer is multiplied, and the multiplied results are integrated to obtain 0. 07 which is the value arranged in the first layer for the music ID, which is XYZ567 in FIG.
  • the preference value of the user identified by the user ID of U001 is the preference value of the user identified by the user ID of U001, and the belonging weight of the preference value consisting of the belonging weight or more of the threshold and the user's
  • the belonging weight of the cluster information of the music identified by the music ID which is XYZ567, corresponding to the belonging weight of the preference value is multiplied by the weight of that layer among the second, third, or fourth layer. And the multiplied results are integrated, the values stored in layers 2, 3, and 4 for the music ID, which are XYZ 567 in FIG. , 0,00 force S required.
  • the similarity between the preference value of the user specified by the user ID U001 and the cluster information of the music specified by the music ID XYZ567 is 1st layer, 2nd layer, 2nd layer
  • the third layer and the fourth layer are calculated as the value 08.08, which is the caluculated value of 0. 07, 0. 00, 0. 00, and 0. 00, respectively, which were obtained by calculation.
  • steps S286 to S292 is the same as each of steps S126 to S132 in FIG. 15, and thus the description thereof will be omitted.
  • the present invention is not limited to this, and it is possible to calculate the weight with a larger value when the variance of the belonging weight in the layer is large.
  • the entropy H may be calculated by equation (4), and a weight may be calculated which is a value obtained as a result of bowing I entropy from 1!
  • the amount of calculation for selecting appropriate content can be reduced while minimizing the loss of information.
  • the program may be processed by one computer, or a plurality of programs may be processed. Processing may be distributed by a computer. Furthermore, the program may be transferred to a remote computer for execution.
  • a system refers to an entire apparatus configured by a plurality of apparatuses.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

本発明は、ユーザの嗜好情報に合致したコンテンツあるいは指定されるコンテンツに類似したコンテンツを、より少ない演算量で検索してユーザに提示することができる情報処理装置、情報処理方法、およびプログラムに関する。楽曲のメタデータの各項目(タイトル、アーティスト名、ジャンル、レビューテキスト、テンポ、ビート、リズムなど)をクラスタ層(第1乃至n層)のいずれかに分類し、各項目の実情報を分類したクラスタ層に設けられる複数のクラスタのいずれかに分類(クラスタリング)する。そして、メタデータの代わりに楽曲の特徴を示す情報として、メタデータの各項目の実情報を分類したクラスタのクラスタID(図2におけるCL11など)から成るクラスタ情報をデータベース化する。本発明は、楽曲データのようなコンテンツの購入を勧めるホームページのサーバ、テレビジョン番組の録画予約を薦めるビデオレコーダなどに適用することができる。

Description

明 細 書
情報処理装置、 方法、 およびプログラム 技術分野
[0001] 本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、コンテ ンッをクラスタに分類し、コンテンツが分類されたクラスタを用いてコンテンツの特徴を 管理し、コンテンツの検索や推薦に利用するようにした情報処理装置、情報処理方 法、およびプログラムに関する。
背景技術
[0002] 従来、ユーザの嗜好に基づ ヽてテレビジョン番糸且、楽曲などのコンテンツを検索し、 ユーザに推薦する(いわゆる、コンテンツパーソナライゼーシヨン)ための発明が提案 されている(例えば、特許文献 1参照)。
[0003] コンテンツパーソナライゼーシヨンには、コンテントベーストフィルタリング (CBF)と称 される手法が広く使われている。 CBF手法では、コンテンツに対して配信側や販売側 によって予め付与されているメタデータが直接的に嗜好の抽出やコンテンツの推薦 に利用されていた。例えばコンテンツが楽曲である場合、各楽曲にはメタデータとし てタイトル、アーティスト名、ジャンル、レビューテキストなどが予め付与されている。予 め付与されている情報の他、楽曲のテンポ、リズムなどを検出してメタデータを追カロ する場合もある。
[0004] ユーザの嗜好情報は、楽曲のメタデータを特徴ベクトルとみなし、楽曲に対するュ 一ザの操作 (再生、録音、スキップ、消去など)に応じて楽曲の特徴ベクトルを足し合 わせることにより生成していた。例えば、再生した楽曲の特徴ベクトルは 1倍、録音し た楽曲の特徴ベクトルは 2倍、スキップした楽曲の特徴ベクトルは 1倍、消去した楽 曲の特徴ベクトルは 2倍にして足し合わされて 、た。
[0005] ユーザの嗜好に合致した楽曲を推薦する場合、ユーザの嗜好を示す特徴ベクトル と、候補となる各楽曲の特徴べ外ルとの距離 (余弦相関など)を算出し、算出された 距離の短い楽曲がユーザの嗜好に合致したものとして推薦されるようになされていた [0006] 特許文献 1 :特開 2004— 194107号公報
発明の開示
発明が解決しょうとする課題
[0007] し力しながら、上述したようにユーザの嗜好情報を楽曲の嗜好ベクトルの足し合わ せによって生成した場合、嗜好の特徴が埋もれてしまう、いわゆる、嗜好の足し合わ せによるなまりの問題が生じ、ユーザの嗜好に合致しないものが推薦されてしまうこと かあつた。
[0008] 例えば、ユーザがアップテンポでリズミカルなロックの楽曲を好み、かつ、スローテン ポでスロービートのジャズの楽曲も好むような場合、この 2つの好みを足し合わせると 、アップテンポとスローテンポ、リズミカルとスロービート、ロックとジャズがいずれも好 きとなり、ユーザの嗜好に合致しな 、アップテンポなジャズの楽曲が推薦される可能 性があった。
[0009] また、楽曲のメタデータのうち、数値によって表現されるものは名義尺度化して特徴 ベクトルの要素とされることが一般的であるが、この場合、名義尺度化する際の閾値 を挟む二つの値がそれぞれ異なる値に変換されてしま 、、変換前の二つの値が数値 的に近 ヽと 、う関係が消失してしまうと 、う問題もある。
[0010] さらに、ユーザの嗜好を示す特徴ベクトルと候補となる各楽曲の特徴ベクトルとの距 離を計算するに際し、その計算量の削減が望まれている。
[0011] 本発明はこのような状況に鑑みてなされたものであり、ユーザの嗜好情報に合致し たコンテンツあるいは指定されるコンテンツに類似したコンテンツを、より少な 、演算 量で検索してユーザに提示できるようにするものである。
課題を解決するための手段
[0012] 本発明の一側面の情報処理装置は、コンテンツ群のな力から所定の条件を満たす コンテンツを選択する情報処理装置であって、前記コンテンツ群を構成する各コンテ ンッを、コンテンッのメタデータに応じた階層のそれぞれにお 、て複数の第 1のクラス タのいずれかに分類するコンテンツ分類手段と、各コンテンツと各コンテンツのそれ ぞれが分類された前記階層における前記第 1のクラスタとの対応関係を示すデータ ベースを保持する保持手段と、前記階層毎に前記所定の条件に対応する前記第 1 のクラスタを指定し、指定した前記第 1のクラスタに対応するコンテンツを特定する特 定手段と、前記特定手段によって特定された前記コンテンツを提示する提示手段と を含むことを特徴とする。
[0013] 前記コンテンツ分類手段によって前記コンテンツが分類される各第 1のクラスタに、 ユーザの嗜好の程度を示す嗜好値を対応付けて記憶する記憶手段をさらに設け、 前記特定手段には、前記記憶手段によって記憶されて 、る嗜好値に基づ!、て前記 第 1のクラスタを指定し、指定した前記第 1のクラスタに対応するコンテンツを特定さ せることができる。
[0014] 前記特定手段には、指定した前記第 1のクラスタに対応するコンテンツの中から、前 記嗜好値に応じた階層毎の重みにより重み付けした、ユーザのコンテンツの嗜好の 度合 、を示す評価値で、さらにコンテンツを特定させることができる。
[0015] 前記コンテンツ分類手段によって前記コンテンツが分類される各第 1のクラスタに対 してキーワードを設定する設定手段と、前記設定手段によって設定されたキーワード を用い、コンテンツの提示理由を表す理由文を生成する生成手段とをさらに設け、前 記提示手段には、前記理由文も提示させることができる。
[0016] 前記コンテンツは楽曲であり、前記メタデータには、楽曲のテンポ、ビート、またはリ ズムのうちの少なくとも 1つが含まれるようにすることができる。
[0017] 前記メタデータには、対応するコンテンツに対するレビューテキストが含まれるように することができる。
[0018] コンテンツのメタデータを複数の第 2のクラスタのいずれかに分類し、第 2のクラスタ に前記階層を割り当てるメタデータ分類手段をさらに設け、前記コンテンツ分類手段 には、各コンテンツを、割り当てられた前記階層のそれぞれにおいて複数の第 1のク ラスタの 、ずれかに分類させることができる。
[0019] 前記特定手段には、類似元となるコンテンツが分類される前記第 1のクラスタに対 応するコンテンツの中から、類似元となるコンテンツとの類似の度合いを示す類似度 で、さらにコンテンツを特定させることができる。
[0020] 前記特定手段には、類似元となるコンテンツの前記第 1のクラスタへの帰属の重み に応じた階層毎の重みにより重み付けした前記類似度でコンテンツを特定させること ができる。
[0021] 本発明の一側面の情報処理方法は、コンテンツ群のな力から所定の条件を満たす コンテンツを選択する情報処理装置の情報処理方法であって、前記コンテンツ群を 構成する各コンテンツを、コンテンツのメタデータに応じた階層のそれぞれにおいて 複数のクラスタの ヽずれかに分類する分類ステップと、各コンテンツと各コンテンツの それぞれが分類された前記階層における前記クラスタとの対応関係を示すデータべ ースを保持する保持ステップと、前記階層毎に前記所定の条件に対応する前記クラ スタを旨定し、 旨定した前記クラスタに対応するコンテンツを特定する特定ステップと 、特定された前記コンテンツを提示する提示ステップとを含むことを特徴とする。
[0022] 本発明の一側面のプログラムは、コンテンツ群のな力から所定の条件を満たすコン テンッを選択するためのプログラムであって、前記コンテンツ群を構成する各コンテン ッを、コンテンツのメタデータに応じた階層のそれぞれにおいて複数のクラスタのい ずれかに分類する分類ステップと、各コンテンツと各コンテンツのそれぞれが分類さ れた前記階層における前記クラスタとの対応関係を示すデータベースを保持する保 持ステップと、前記階層毎に前記所定の条件に対応する前記クラスタを指定し、指定 した前記クラスタに対応するコンテンツを特定する特定ステップと、特定された前記コ ンテンッを提示する提示ステップとを含む処理をコンピュータに実行させることを特徴 とする。
[0023] 本発明の一側面においては、コンテンツ群を構成する各コンテンツが、コンテンツ のメタデータに応じた階層のそれぞれにお ヽて複数のクラスタの!/ヽずれかに分類さ れ、各コンテンツと各コンテンツのそれぞれが分類された前記階層における前記クラ スタとの対応関係を示すデータベースが保持され、前記階層毎に前記所定の条件に 対応する前記クラスタが指定され、指定された前記クラスタに対応するコンテンツが 特定され、特定された前記コンテンツが提示される。
発明の効果
[0024] 本発明によれば、ユーザの嗜好情報に合致したコンテンツあるいは指定されるコン テンッに類似したコンテンツを、より少な 、演算量で検索してユーザに提示すること が可能となる。 図面の簡単な説明
[図 1]本発明を適用した推薦システムの構成例を示すブロック図である。
[図 2]メタデータを分類するクラスタとクラスタ層の概念を示す図である。
[図 3]クラスタ情報の一例を示す図である。
[図 4]クラスタ—楽曲 HD情報の一例を示す図である。
[図 5]嗜好情報の一例を示す図である。
[図 6]クラスタリング第 1乃至 4手法から 2種類の手法を選択する方法を説明するため の図である。
[図 7]クラスタリング第 1乃至 4手法から 2種類の手法を選択する方法を説明するため の図である。
[図 8]クラスタリング第 1乃至 4手法から 2種類の手法を選択する方法を説明するため の図である。
[図 9]クラスタリング第 1乃至 4手法から 2種類の手法を選択する方法を説明するため の図である。
[図 10]クラスタリング第 1乃至 4手法から 2種類の手法を選択する方法を説明するため の図である。
[図 11]第 1の類似楽曲検索処理を説明するフローチャートである。
[図 12]第 2の類似楽曲検索処理を説明するフローチャートである。
[図 13]第 3の類似楽曲検索処理を説明するフローチャートである。
[図 14]第 1の楽曲推薦処理を説明するフローチャートである。
[図 15]第 2の楽曲推薦処理を説明するフローチャートである。
[図 16]汎用パーソナルコンピュータの構成例を示すブロック図である。
[図 17]本発明の一実施の形態の推薦システムの他の構成の例を示すブロック図であ る。
[図 18]オフライン時の前処理の例を説明するフローチャートである。
[図 19]ソフトクラスタリングされた各楽曲のメタデータの例を示す図である。
[図 20]各楽曲のメタデータの例を示す図である。
[図 21]クラスタ情報の例を示す図である。 [図 22]第 4の類似楽曲検索処理を説明するフローチャートである。
[図 23]クラスタ情報の例を示す図である。
[図 24]類似度の例を示す図である。
[図 25]第 5の類似楽曲検索処理を説明するフローチャートである。
[図 26]第 3の楽曲推薦処理を説明するフローチャートである。
[図 27]嗜好値の例を示す図である。
[図 28]クラスタ情報の例を示す図である。
[図 29]類似度の例を示す図である。
[図 30]重みの例を示す図である。
[図 31]類似度の例を示す図である。
[図 32]第 4の楽曲推薦処理を説明するフローチャートである。
[図 33]嗜好値の例を示す図である。
[図 34]類似度の例を示す図である。
符号の説明
[0026] 1 推薦システム, 11 楽曲データベース, 12 クラスタリング部, 13 キーワード 設定部, 14 クラスタ情報データベース, 21 検索楽曲指定部, 22 クラスタマツ ビング部, 23 楽曲抽出部, 24 嗜好情報データベース, 25 嗜好入力部, 26 ランダム選択部, 27 類似度算出部, 28 選択理由生成部, 29 楽曲提示部 , 201 メタデータクラスタリング部, 202 楽曲クラスタリング部
発明を実施するための最良の形態
[0027] 以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細 に説明する。
[0028] 図 1は本発明の一実施の形態である推薦システムの構成例を示している。この推薦 システム 1は、ユーザの嗜好に合致した楽曲、あるいはユーザが指定した楽曲に類 似した楽曲を検索し、ユーザに提示するものである。なお、推薦システム 1は、楽曲以 外のコンテンツ、例えばテレビジョン番組、映画、書籍などを推薦する場合にも適用 することが可能である。
[0029] 推薦システム 1は、検索の対象となる数多くの楽曲のメタデータが記録されている楽 曲データベース(DB) 11、楽曲データベース 11に記録されている各楽曲を、楽曲の メタデータに基づ!/ヽてクラスタリングして各楽曲のクラスタ情報を生成するクラスタリン グ部 12、各クラスタ層および各クラスタの特徴をそれぞれ示すキーワードを設定する キーワード設定部 13、および、各楽曲のクラスタ情報を保持するクラスタ情報データ ベース(DB) 14から構成される。
[0030] さらに、推薦システム 1は、検索しょうとする楽曲の類似元となる楽曲(以下、元楽曲 と称する)を指定する検索楽曲指定部 21、元楽曲のメタデータを従来力 あるクラス タ識別手法 (クラシフィケーシヨン手法)を用いて最適なクラスタにマッピングするクラ スタマッピング部 22、ユーザに提示する楽曲を 1以上抽出する楽曲抽出部 23、ユー ザの嗜好を示す嗜好情報が記録されている嗜好情報データベース (DB) 24、ユー ザの嗜好を入力する嗜好入力部 25、抽出された楽曲の中力もランダムに 1つの楽曲 を選択するランダム選択部 26、抽出された楽曲と元楽曲またはユーザの嗜好との類 似度を算出して最も類似度の高い楽曲を選択する類似度算出部 27、ランダム選択 部 26または類似度算出部 27における選択の理由を示す選択理由文を生成する選 択理由生成部 28、および、選択した楽曲と選択理由文をユーザに提示する楽曲提 示部 29から構成される。
[0031] 楽曲データベース(DB) 11は、音楽 CDに収録されている楽曲のメタデータを供給 するインタネット上のデータサーバである CDDB(CD Data Base)や Music Naviなどに 相当する。
[0032] クラスタリング部 12は、楽曲データベース 11の全ての楽曲に対し、楽曲のメタデー タの各項目(タイトル、アーティスト名、ジャンル、レビューテキスト、テンポ、ビート、リ ズムなど)を、図 2に示すようなクラスタ層(第 1乃至 n層)のいずれかに分類し、各項 目の実情報を分類したクラスタ層に設けられる複数のクラスタのいずれかに楽曲を分 類 (クラスタリング)する。
[0033] なお、 1つの楽曲を複数のクラスタに分類してもよい。同一クラスタ層に存在するクラ スタ間の距離 (類似の程度を示す)は既知であるものとする。このクラスタリングの手法 については後述する。そして、メタデータの代わりに楽曲の特徴を示す情報として、メ タデータの各項目の実情報を分類したクラスタのクラスタ ID (図 2における CL11など )から成るクラスタ情報を生成してクラスタ情報データベース 14に出力する。
[0034] なお、分類に適したクラスタが存在しな 、場合、新たにクラスタを新設してもよ ヽ。各 クラスタのサイズは任意であって複数の楽曲を包含できるものである。なお、単一の 楽曲だけしか分類することができないクラスタを設けてもよい。この場合、当該クラスタ のクラスタ IDに唯一分類可能な楽曲の実情報の ID (アーティスト ID、アルバム ID、タ ィトル ID)を用いてもよい。
[0035] クラスタ情報データベース 14は、クラスタリング部 12によって生成された各楽曲のク ラスタ情報を保持している。また、クラスタ情報データベース 14は、保持するクラスタ 情報に基づき、各クラスタにメタデータが分類された楽曲の楽曲 IDを示すクラスタ一 楽曲 ID情報を生成し、これを保持している。さらに、クラスタ情報データベース 14は、 キーワード設定部 13によって設定された各クラスタ層や各クラスタに対して設定され たキーワードも保持して ヽる。
[0036] 図 3はクラスタ情報の一例を示している。同図においては、例えば、楽曲 ID=ABC1 23の楽曲のクラスタ†青報は、 (CL12, CL21, CL35, CL47, CL52, · ··, CLn2)で あることを示している。また例えば、楽曲 ID = CTH863の楽曲のクラスタ情報は、クラ スタ ID (CL11、 CL25, CL31, CL42, CL53, · ··, CLnl)であることを示して! /、る。
[0037] 図 4は、図 3に示されたクラスタ情報に対応するクラスター楽曲 ID情報の一例を示し ている。同図においては、例えば、クラスタ ID = CL11には、楽曲 ID = CTH863が対 応することを示している。また例えば、クラスタ ID=CL21には、楽曲 ID=ABC123が 対応することを示している。
[0038] なお、クラスタリング部 12、キーワード設定部 13、およびクラスタ情報データベース 14の処理は、類似楽曲検索処理や楽曲推薦処理 (後述)を実行する以前に予め実 行する必要がある。
[0039] 図 1に戻る。検索楽曲指定部 21は、ユーザによって指定される元楽曲の楽曲 IDと メタデータをクラスタマッピング部 22に出力する。クラスタマッピング部 22は、検索楽 曲指定部 21から入力された元楽曲のメタデータを、既存のクラスタ識別手法 (クラシ フィケーシヨン手法)を用いて最適クラスタを選ぶ。クラスタ識別手法としては、 k-Near est-Neighbor法などを適用することができる。なお、元楽曲のクラスタ情報が既にクラ スタ情報データベース 14に存在する場合、それを読み出して楽曲抽出部 23に供給 するようにしてちょい。
[0040] 楽曲抽出部 23は、クラスタマッピング部 22から供給される元楽曲のクラスタ情報に 基づ 、てクラスタ情報データベース 14を参照し、元楽曲と同じクラスタに分類されて いる楽曲の楽曲 IDを取得してランダム選択部 26または類似度算出部 27に供給する 。また、楽曲抽出部 23は、嗜好情報データベース 24の嗜好情報に基づいてクラスタ 情報データベース 14を参照して、ユーザの嗜好に合致する楽曲の楽曲 IDを取得し てランダム選択部 26または類似度算出部 27に供給する。
[0041] 嗜好情報データベース 24は、ユーザの嗜好を示す嗜好情報が記録されている。嗜 好情報には、各クラスタに対するユーザの嗜好の程度を示す嗜好値が記録されて 、 る。この嗜好値は正規ィ匕された値であり、嗜好入力部 25によって更新される。また、 嗜好情報データベース 24は、各クラスタ層における嗜好値の分散を演算し、嗜好値 の分散が最も小さい(すなわち、ユーザの嗜好が特定のクラスタに集中している)クラ スタ層を検出する。
[0042] 図 5は嗜好情報の一例を示している。同図においては、例えばクラスタ CL11に対 する嗜好値が 0. 5であることを示している。また例えば、クラスタ CL32に対する嗜好 値が 0. 1であることを示している。
[0043] 嗜好入力部 25は、楽曲に対するユーザの操作 (再生、録音、スキップ、消去など) の履歴に基づいて各クラスタにそれぞれ対応する嗜好値を更新する。また、嗜好入 力部 25は、ユーザからの設定に基づき、ユーザが重視しているクラスタ層をクラスタ 情報データベース 14に通知する。
[0044] ランダム選択部 26は、楽曲抽出部 23によって抽出された楽曲の中力もランダムに 楽曲 IDを 1つ選択して選択理由生成部 28に出力する。類似度算出部 27は、楽曲抽 出部 23によって抽出された楽曲と元楽曲またはユーザの嗜好との類似度を算出し、 最も類似度の高い楽曲を選択して選択理由生成部 28に出力する。なお、ランダム選 択部 26と類似度算出部 27は、双方が動作する必要はなぐいずれか一方が動作す ればよい。
[0045] 選択理由生成部 28は、クラスタ情報データベース 14力もクラスタ層やクラスタに対 応するキーワードを取得し、取得したキーワードなどを用いて選択の理由を示す選択 理由文を生成し、選択された楽曲の楽曲 IDとともに楽曲提示部 29に出力する。
[0046] 選択理由文は以下のように生成する。例えば、類似した楽曲や嗜好に合致した楽 曲を選択するときに優先したクラスタ層に設定されたキーワードやクラスタのキーヮー ドを用いる。具体的には、レビューテキストに対応するクラスタ層を最も優先した場合 、「レビューテキストに出てくる「夏」、「海辺」がお気に入りじやない?」などの選択理 由文を生成する。あるいは、選択された楽曲のレビューテキストをそのまま選択理由 文として引用したり、選択された楽曲のレビューテキストから抽出した単語を用いて選 択理由文を生成する。なお、レビューテキストから選択理由文に用いる単語を抽出す るには Tf/idlf去を適用することができる。
[0047] 楽曲提示部 29は、例えばディスプレイなどからなり、選択理由生成部 28から入力さ れる楽曲 IDの楽曲と選択理由文とをユーザに提示する。
[0048] 次に、クラスタリング部 12によるメタデータの分類 (クラスタリング)について説明する
[0049] クラスタリング手法はいかなる手法でもかまわないが、クラスタ層毎に最適なクラスタ リング手法、距離尺度を選ぶようにする。例えば、メタデータの実情報が数値であるな らばそのまま、タイトルなどの場合は主成分分析等の数量ィ匕手法を用いて数値にし て、ユークリッド距離などの距離尺度を定義してクラスタリングすることになる。代表的 なクラスタリング手法としは、 K-means法、階層クラスタリング法などを挙げることができ る。
[0050] この際、嗜好距離を反映したクラスタリング (例えば、制約付きクラスタリング)によつ て実施することが望ましい。そのためには、事前調査により部分的な正解集 (嗜好的 に近い実情報の集合、遠い実情報の集合など)を作り、それに適合する数値表現、 距離、クラスタリング手法を用いるものとする。またさらに、形成される各クラスタ層の 独立性が高くなるクラスタリング手法 (すなわち、特性の異なるクラスタリング手法)を 選ぶことが望ましい。
[0051] 例えば 4種類のクラスタリング手法 (以下、第 1乃至 4手法と称する)の中力も特性の 異なる 2種類のクラスタリング手法を選択する方法について、図 6乃至図 10を参照し て説明する。
[0052] まず、第 1乃至 4手法によってメタデータの実情報であるアーティスト八乃¾ [をクラス タリングする。そして図 6に示すような結果が得られたとする。
[0053] すなわち、第 1手法により、アーティスト A乃至 Cがクラスタ CL1に、アーティスト D乃 至 Gがクラスタ CL2に、アーティスト 11乃¾ [がクラスタ CL3にクラスタリングされ、第 2 手法により、アーティスト A, Bがクラスタ CL1に、アーティスト C乃至 Fがクラスタ CL2 に、アーティスト 0乃¾ [がクラスタ CL3にクラスタリングされ、第 3手法により、アーティ スト A, D, G, Jがクラスタ CL1に、アーティストお E, Hがクラスタ CL2に、アーティス C, F, Iがクラスタ CL3にクラスタリングされ、第 4手法により、アーティスト D, I, Jがク ラスタ CL1に、アーティスト E乃至 Gがクラスタ CL2に、アーティスト A乃至 Cおよび H 力 Sクラスタ CL3にクラスタリングされたとする。
[0054] この場合、第 1乃至 4手法による結果の重複率(%)は図 7に示すとおりである。すな わち、第 1手法と第 2手法の重複率は 0. 8、第 1手法と第 3手法の重複率は 0. 3、第 1手法と第 4手法の重複率は 0. 4、第 2手法と第 3手法の重複率は 0. 3、第 2手法と 第 4手法の重複率は 0. 3、第 3手法と第 4手法の重複率は 0. 4である。
[0055] 図 7に示された重複率が小さいほど 2つの手法の特性が異なると考えられるので、 重複率が最小値の 0. 3である第 1手法と第 3手法の組み合わせ、第 2手法と第 3手法 の組み合わせ、または第 2手法と第 4手法の組み合わせを採用することが望ま 、。
[0056] 一方、ユーザ自身によってアーティスト八乃¾ [のうちの二人が同じクラスタに分類さ れるべきである力否かを判定させた場合、図 8に示すような結果が得られたとする。た だし、同図において、 1は同じクラスタに分類されるべきであることを、 0は異なるクラス タに分類されるべきであることを意味する。すなわち、同図においては、例えば、ァー テイスト Aがアーティスト B, C, F, H, Iと同じクラスタに分類されるべきであると判断さ れたが示されており、アーティスト Bがアーティスト C, D, E, Jと同じクラスタに分類さ れるべきであることが示されて 、る。
[0057] 図 8に示された結果と正解として理想的なクラスタリング結果であるとするならば、上 述した第 1乃至 4手法の正解率は図 9に示すとおりである。すなわち、第 1手法の正 解率は 62. 2%、第 2手法の正解率は 55. 6%、第 3手法の正解率は 40. 0%、第 4 手法の正解率は 66. 7%である。
[0058] したがって、正解率を重視するならば、正解率が高い第 1手法と第 4手法の組み合 わせを採用することが望ましい。
[0059] さらに、重複率と正解率を加味したクラスタリング手法の組み合わせを求めるため、 第 1乃至 4手法の正解の重複率を算出すれば、図 10に示すとおりとなる。図 9に示さ れた結果から正解率が極端に低!ヽ手法を特定し、特定した当該手法を含まな!/ヽ組 み合わせのうちの正解率の重複率が最も低 、組み合わせを採用すればよ!、。すな わち、正解率が極端に低い手法として第 3手法が特定され、第 3手法を含まない組み 合わせのうちの正解の重複率が最も低いものとして第 2手法と第 4手法の組み合わせ が選択される。
[0060] なお、上述した重複率や正解率にっ 、ては絶対的な閾値を指定して、それ閾値を 満たすことができな ヽ手法を除外してもよ!/ヽし、バランスがとれた手法を採用するため に、 2つの指標(重複率と正解率)に基づいて例えば、以下に示す 2例のような総合 的な指標を作成し、総合的な指標に基づいてクラスタリングの手法の組み合わせを 選択するようにしてもよ ヽ。
総合的な指標 =正解率 X ( 1—重複率)
総合的な指標 = a ·正解率 X |8 ( 1—重複率) ( a , 13は所定の係数)
[0061] 次に、元楽曲に類似した楽曲を提示する 3種類の類似楽曲検索処理と、ユーザの 嗜好に合致する楽曲を提示する 2種類の楽曲推薦処理について説明する。
[0062] なお、以下に説明する類似楽曲検索処理や楽曲推薦処理が行われる前処理とし て、クラスタリング部 12、キーワード設定部 13、およびクラスタ情報データベース 14が 動作しており、既にクラスタ情報データベース 14には、クラスタリング部 12によって生 成された各楽曲のクラスタ情報と、クラスタ情報データベース 14が生成したクラスター 楽曲 ID情報と、キーワード設定部 13によって設定された各クラスタ層や各クラスタに 対して設定されたキーワードが保持されて 、るものとする。
[0063] まず、類似楽曲検索処理について説明する。
[0064] 図 11は、第 1の類似楽曲検索処理を説明するフローチャートである。第 1の類似楽 曲検索処理の前処理として、クラスタ情報データベース 14は、嗜好入力部 25から入 力されるユーザの各クラスタ層に対する優先度に応じ、優先順位が高い方のクラスタ 層力も順に、層番号を 1, 2, · ··, nまで振り直しているものとする。
[0065] ステップ S1において、検索楽曲指定部 21は、ユーザによって指定される元楽曲の 楽曲 IDとメタデータをクラスタマッピング部 22に出力する。クラスタマッピング部 22は 、入力された元楽曲のメタデータを、従来のクラスタ識別手法を用いて最適クラスタに マッピングし、この結果 (以下、最適クラスタ情報と称する)を楽曲抽出部 23に供給す る。
[0066] ステップ S2において、楽曲抽出部 23は、クラスタ情報データベース 14を参照し、ク ラスタ情報データベース 14にクラスタ情報が保持されている全ての楽曲の楽曲 IDを 要素とする集合 Cを想定する。ステップ S3において、楽曲抽出部 23は、層番号 iを 1 に初期化する。
[0067] ステップ S4において、楽曲抽出部 23は、層番号 W (nはクラスタ層の総数)以下 であるか否かを判定する。層番号 ¾以下であると判定された場合、処理はステップ S5に進む。ステップ S5において、楽曲抽出部 23は、クラスタマッピング部 22から入 力された元楽曲の最適クラスタ情報に基づき、元楽曲が第 i層にお 、てどのクラスタ に属して 、るのかを特定する。特定したクラスタを CLixと称する。
[0068] ステップ S6において、楽曲抽出部 23は、クラスタ情報データベース 14のクラスタ一 楽曲 Iひ f青報を参照し、特定したクラスタ CLixに属する楽曲の楽曲 IDを取得する。ス テツプ S7において、楽曲抽出部 23は、ステップ S6の処理で取得した楽曲 IDを要素 とする集合 Aを想定する。ステップ S8において、楽曲抽出部 23は、集合 Cと集合 Aに 共通する要素(楽曲 ID)を抽出し、ステップ S9において、共通する楽曲 IDが存在す る力否力 (すなわち、ステップ S8の処理で、集合 Cと集合 Aに共通する楽曲 IDを抽出 できたか否か)を判定する。集合 Cと集合 Aに共通する楽曲 IDが存在すると判定した 場合、処理はステップ S 10に進み、集合 Cの要素を、ステップ S8で抽出した共通する 楽曲 IDだけに減少させる。ステップ S 11において、楽曲抽出部 23は、層番号 iを 1だ けインクリメントしてステップ S4に戻り、それ以降の処理を繰り返す。
[0069] なお、ステップ S9において、集合 Cと集合 Aに共通する楽曲 IDが存在しないと判定 された場合、ステップ S10はスキップされ、処理はステップ S 11に進む。 [0070] このステップ S4乃至 Sl lの処理が繰り返されることにより、集合 Cの要素(楽曲 ID) が減少されてゆく。そして、ステップ S4において、層番号 よりも大きくなり、 n以下 ではないと判定された場合、処理はステップ S 12に進む。
[0071] ステップ S12において、楽曲抽出部 23は、集合 Cの要素(楽曲 ID)をランダム選択 部 26に出力する。ランダム選択部 26は、集合 Cの中力もランダムに 1つの楽曲を選 択して選択理由生成部 28に出力する。なお、ランダム選択部 26ではなぐ類似度算 出部 27に集合 Cの要素(楽曲 ID)を出力し、類似度算出部 27により、 1つの楽曲を 選択するようにしてもよ ヽ。
[0072] ステップ S13において、選択理由生成部 28は、ランダム選択部 26 (または類似度 算出部 27)によって選択された楽曲が選択された理由を示す選択理由文を生成して 、選択された楽曲の楽曲 IDとともに楽曲提示部 29に出力する。ステップ S14におい て、楽曲提示部 29は、選択理由生成部 28から入力される楽曲 IDの楽曲と選択理由 文とをユーザに提示する。
[0073] 以上説明した第 1の類似楽曲検索処理によれば、元楽曲の特徴ベクトルと他の楽 曲の特徴ベクトルとの距離の算出を必須とせず、各クラスタ層に対するユーザの優先 順位を考慮しつつ、元楽曲に類似した楽曲を提示することが可能となる。
[0074] 図 12は、第 2の類似楽曲検索処理を説明するフローチャートである。第 2の類似楽 曲検索処理の前処理として、嗜好情報データベース 24は、各クラスタ層における嗜 好値の分散を演算し、嗜好値の分散が最も小さい (すなわち、ユーザの嗜好が特定 のクラスタに集中して 、る)クラスタ層を検出し、嗜好が集中して 、るクラスタを特定し ているものとする。当該クラスタ層の層番号を P、当該クラスタを CLppとする。
[0075] ステップ S31〖こお!/、て、嗜好情報データベース 24は、各クラスタ層における嗜好値 の分散を演算し、嗜好値の分散が最も小さい (すなわち、ユーザの嗜好が特定のクラ スタに集中して 、る)クラスタ層を検出して第 P層とする は 1乃至 nの整数)。さらに、 第 P層にお 、て嗜好が集中して 、るクラスタを特定して CLppとする。
[0076] ステップ S32において、検索楽曲指定部 21は、ユーザによって指定される元楽曲 の楽曲 IDとメタデータをクラスタマッピング部 22に出力する。クラスタマッピング部 22 は、入力された元楽曲のメタデータを、従来のクラスタ識別手法を用いて最適クラスタ にマッピングし、この最適クラスタ情報を生成し楽曲抽出部 23に供給する。
[0077] ステップ S33において、楽曲抽出部 23は、クラスタ情報データベース 14を参照し、 クラスタ情報データベース 14にクラスタ情報が保持されている全ての楽曲の楽曲 ID を要素とする集合 Cを想定する。ステップ S34において、楽曲抽出部 23は、層番号 i を 1に初期化する。
[0078] ステップ S35において、楽曲抽出部 23は、層番号 iが n(nはクラスタ層の総数)以下 であるか否かを判定する。層番号 ¾以下であると判定された場合、処理はステップ S36に進む。ステップ S36において、楽曲抽出部 23は、ステップ S31で特定した Pと 層番号 iがー致する力否かを判定し、一致すると判定した場合、ステップ S37に進み 、次のステップ 39における処理対象をクラスタ CLppに特定する。
[0079] 一方、ステップ S36において、ステップ S31で特定した Pと層番号 iがー致しないと 判定された場合、ステップ S38に進む。ステップ S38において、楽曲抽出部 23は、ク ラスタマッピング部 22から入力された元楽曲の最適クラスタ情報に基づき、元楽曲が 第 i層にお 、てどのクラスタに属して 、るのかを特定する。特定したクラスタを CLixと 称する。
[0080] ステップ S39において、楽曲抽出部 23は、クラスタ情報データベース 14のクラスタ —楽曲 HD情報を参照し、ステップ S37の処理で特定したクラスタ CLppまたはステツ プ S38の処理で特定したクラスタ CLixに属する楽曲の楽曲 IDを取得する。
[0081] ステップ S40において、楽曲抽出部 23は、ステップ S39の処理で取得した楽曲 ID を要素とする集合 Aを想定する。ステップ S41において、楽曲抽出部 23は、集合じと 集合 Aに共通する要素(楽曲 ID)を抽出し、ステップ S42において、共通する楽曲 ID が存在するか否か (すなわち、ステップ S41の処理で、集合 Cと集合 Aに共通する楽 曲 IDを抽出できたカゝ否か)を判定する。集合 Cと集合 Aに共通する楽曲 IDが存在す ると判定した場合、処理はステップ S43に進み、集合 Cの要素を、ステップ S41で抽 出した共通する楽曲 IDだけに減少させる。ステップ S44において、楽曲抽出部 23は 、層番号 iを 1だけインクリメントしてステップ S35に戻り、それ以降の処理を繰り返す。
[0082] なお、ステップ S42において、集合 Cと集合 Aに共通する楽曲 IDが存在しないと判 定された場合、ステップ S43はスキップされ、処理はステップ S44に進む。 [0083] このステップ S35乃至 S44の処理が繰り返されることにより、集合 Cの要素(楽曲 ID )が減少されてゆく。そして、ステップ S35において、層番号 よりも大きくなり、 n以 下ではな!/ヽと判定された場合、処理はステップ S45に進む。
[0084] ステップ S45において、楽曲抽出部 23は、集合 Cの要素(楽曲 ID)をランダム選択 部 26に出力する。ランダム選択部 26は、集合 Cの中力もランダムに 1つの楽曲を選 択して選択理由生成部 28に出力する。なお、ランダム選択部 26ではなぐ類似度算 出部 27に集合 Cの要素(楽曲 ID)を出力し、類似度算出部 27により、 1つの楽曲を 選択するようにしてもよ ヽ。
[0085] ステップ S46において、選択理由生成部 28は、ランダム選択部 26 (または類似度 算出部 27)によって選択された楽曲が選択された理由を示す選択理由文を生成して 、選択された楽曲の楽曲 IDとともに楽曲提示部 29に出力する。ステップ S47におい て、楽曲提示部 29は、選択理由生成部 28から入力される楽曲 IDの楽曲と選択理由 文とをユーザに提示する。
[0086] 以上説明した第 2の類似楽曲検索処理によれば、元楽曲の特徴ベクトルと他の楽 曲の特徴ベクトルとの距離の算出を必須とせず、ユーザの嗜好を示す嗜好値が高い クラスタに属する楽曲であって、かつ、元楽曲に類似した楽曲を提示することが可能 となる。
[0087] 図 13は、第 3の類似楽曲検索処理を説明するフローチャートである。
[0088] ステップ S61において、検索楽曲指定部 21は、ユーザによって指定される元楽曲 の楽曲 IDとメタデータをクラスタマッピング部 22に出力する。クラスタマッピング部 22 は、入力された元楽曲のメタデータを従来のクラスタ識別手法を用いて最適クラスタ にマッピングし、この最適クラスタ情報を楽曲抽出部 23に供給する。
[0089] ステップ S62において、楽曲抽出部 23は、評価値を付けた楽曲 IDを要素とする集 合 Cを想定して初期化する。すなわち、この時点で集合 Cは空集合である。ステップ S 63において、楽曲抽出部 23は、層番号 iを 1に初期化する。
[0090] ステップ S64において、楽曲抽出部 23は、層番号 iが n(nはクラスタ層の総数)以下 であるか否かを判定する。層番号 ¾以下であると判定された場合、処理はステップ S65に進む。ステップ S65において、楽曲抽出部 23は、クラスタマッピング部 22から 入力された元楽曲の最適クラスタ情報に基づき、元楽曲が第 i層においてどのクラス タに属して 、るのかを特定する。特定したクラスタを CLixと称する。
[0091] ステップ S66において、楽曲抽出部 23は、嗜好情報データベース 24を参照して、 ステップ S65の処理で特定したクラスタ CLixに対するユーザの嗜好値を取得し、取 得した嗜好値に基づ!/、て、クラスタ CLixに属する楽曲に対して付与する評価値を決 定する。
[0092] ステップ S67において、楽曲抽出部 23は、クラスタ情報データベース 14のクラスタ —楽曲 HD情報を参照し、特定したクラスタ CLixに属する楽曲の楽曲 IDを取得する。 ステップ S68において、楽曲抽出部 23は、ステップ S67の処理で取得した楽曲 IDに 、ステップ S66の処理で決定した評価値を付与する。そして、評価値付の楽曲 IDを 要素とする集合 Aを想定する。
[0093] ステップ S69において、楽曲抽出部 23は、集合 Cに集合 Aの要素 (評価値付の楽 曲 ID)を追加する。ステップ S70において、楽曲抽出部 23は、層番号 iを 1だけインク リメントしてステップ S64に戻り、それ以降の処理を繰り返す。
[0094] このステップ S64乃至 S70の処理が繰り返されることにより、集合 Cの要素(評価値 付の楽曲 ID)が増加してゆく。そして、ステップ S64において、層番号 よりも大き くなり、 n以下ではないと判定された場合、処理はステップ S71に進む。
[0095] ステップ S71において、楽曲抽出部 23は、集合 Cの要素 (評価値付の楽曲 ID)の 中から、評価値が最も高いものを選択し、ランダム選択部 26 (または類似度算出部 2 7)を介して選択理由生成部 28に出力する。
[0096] ステップ S72において、選択理由生成部 28は、楽曲抽出部 23によって選択された 楽曲が選択された理由を示す選択理由文を生成して、選択された楽曲の楽曲 IDとと もに楽曲提示部 29に出力する。ステップ S73において、楽曲提示部 29は、選択理 由生成部 28から入力される楽曲 IDの楽曲と選択理由文とをユーザに提示する。
[0097] 以上説明した第 3の類似楽曲検索処理によれば、元楽曲の特徴ベクトルと他の楽 曲の特徴ベクトルとの距離の算出を必須とせず、元楽曲に類似した楽曲のうち、ユー ザの嗜好に応じて付与された評価値が最も高いものを提示することが可能となる。
[0098] なお、上述した第 1乃至第 3の類似楽曲検索処理においては検索条件として楽曲 を指定したが、アーティスト、アルバム等を指定して類似楽曲検索処理を行うこともで きる。この場合、図 3, 4の楽曲 IDをアーティスト IDあるいはアルバム IDと読みかえれ ばよい。例えばアーティストを検索条件とする場合、図 2でアーティストの関わるタイト ル、アルバム、ジャンルなどに相当するクラスタ層を用いる。
[0099] 次に、楽曲推薦処理について説明する。
[0100] 図 14は、第 1の楽曲推薦処理を説明するフローチャートである。第 1の楽曲推薦処 理の前処理として、クラスタ情報データベース 14は、嗜好入力部 25から入力される ユーザの各クラスタ層に対する優先度に応じ、優先順位が高い方のクラスタ層から順 に、層番号を 1, 2, · ··, nまで振り直しているものとする。
[0101] ステップ S91において、楽曲抽出部 23は、クラスタ情報データベース 14を参照し、 クラスタ情報データベース 14にクラスタ情報が保持されている全ての楽曲の楽曲 ID を要素とする集合 Cを想定する。ステップ S92において、楽曲抽出部 23は、層番号 i を 1に初期化する。
[0102] ステップ S93において、楽曲抽出部 23は、層番号 W¾(nはクラスタ層の総数)以下 であるか否かを判定する。層番号 ¾以下であると判定された場合、処理はステップ S94に進む。ステップ S94において、楽曲抽出部 23は、嗜好情報データベース 24を 参照し、第 i層のクラスタのうち、ユーザの嗜好値が最大のクラスタを特定する。特定し たクラスタを CLixと称する。
[0103] ステップ S95において、楽曲抽出部 23は、クラスタ情報データベース 14のクラスタ —楽曲 HD情報を参照し、特定したクラスタ CLixに属する楽曲の楽曲 IDを取得する。 ステップ S96において、楽曲抽出部 23は、ステップ S95の処理で取得した楽曲 IDを 要素とする集合 Aを想定する。ステップ S97において、楽曲抽出部 23は、集合 Cと集 合 Aに共通する要素(楽曲 ID)を抽出し、ステップ S98において、共通する楽曲 IDが 存在するか否か (すなわち、ステップ S97の処理で、集合 Cと集合 Aに共通する楽曲 I Dを抽出できたか否か)を判定する。集合 Cと集合 Aに共通する楽曲 IDが存在すると 判定した場合、処理はステップ S99に進み、集合 Cの要素を、ステップ S97で抽出し た共通する楽曲 IDだけに減少させる。ステップ S 100において、楽曲抽出部 23は、 層番号 iを 1だけインクリメントしてステップ S93に戻り、それ以降の処理を繰り返す。 [0104] なお、ステップ S98において、集合 Cと集合 Aに共通する楽曲 IDが存在しないと判 定された場合、ステップ S99はスキップされ、処理はステップ S100に進む。
[0105] このステップ S93至 S100の処理が繰り返されることにより、集合 Cの要素(楽曲 ID) が減少されてゆく。そして、ステップ S93において、層番号 よりも大きくなり、 n以 下ではな!/ヽと判定された場合、処理はステップ S101に進む。
[0106] ステップ S101において、楽曲抽出部 23は、集合 Cの要素(楽曲 ID)をランダム選 択部 26に出力する。ランダム選択部 26は、集合 Cの中力もランダムに 1つの楽曲を 選択して選択理由生成部 28に出力する。なお、ランダム選択部 26ではなぐ類似度 算出部 27に集合 Cの要素 (楽曲 ID)を出力し、類似度算出部 27により、 1つの楽曲 を選択するようにしてもよ 、。
[0107] ステップ S102において、選択理由生成部 28は、ランダム選択部 26 (または類似度 算出部 27)によって選択された楽曲が選択された理由を示す選択理由文を生成して 、選択された楽曲の楽曲 IDとともに楽曲提示部 29に出力する。ステップ S103にお いて、楽曲提示部 29は、選択理由生成部 28から入力される楽曲 IDの楽曲と選択理 由文とをユーザに提示する。
[0108] 以上説明した第 1の楽曲推薦処理によれば、ユーザの嗜好に対応する特徴べタト ルと楽曲の特徴ベクトルとの距離の算出を必須とせず、各クラスタ層に対するユーザ の優先順位を考慮しつつ、ユーザの嗜好に合致した楽曲をユーザに推薦することが 可能となる。
[0109] 図 15は、第 2の楽曲推薦処理を説明するフローチャートである。
[0110] ステップ S121において、楽曲抽出部 23は、評価値を付けた楽曲 IDを要素とする 集合 Cを想定して初期化する。すなわち、この時点で集合 Cは空集合である。ステツ プ S122において、楽曲抽出部 23は、層番号 iを 1に初期化する。
[0111] ステップ S123において、楽曲抽出部 23は、層番号 iが n(nはクラスタ層の総数)以 下であるか否かを判定する。層番号 ¾以下であると判定された場合、処理はステツ プ S124に進む。ステップ S124において、楽曲抽出部 23は、嗜好情報データべ一 ス 24を参照し、第 i層のクラスタのうち、ユーザの嗜好に対応する嗜好値が所定の値 以上であるものを特定する。特定したものをクラスタ群 CLixと称する。 [0112] ステップ S125において、楽曲抽出部 23は、ステップ S 124の処理で特定したクラス タ群 CLixの各クラスタに対する嗜好値に基づ 、て、クラスタ群 CLixの各クラスタに属 する楽曲に対して付与する評価値を決定する。
[0113] ステップ S126において、楽曲抽出部 23は、クラスタ情報データベース 14のクラス ター楽曲 HD情報を参照し、特定したクラスタ群 CLixの各クラスタに属する楽曲の楽 曲 IDを取得する。ステップ S127において、楽曲抽出部 23は、ステップ S126の処理 で取得した楽曲 IDに、ステップ S 125の処理で決定した評価値を付与する。そして、 評価値付の楽曲 IDを要素とする集合 Aを想定する。
[0114] ステップ S128において、楽曲抽出部 23は、集合 Cに集合 Aの要素 (評価値付の楽 曲 ID)を追加する。この際、集合 Cに同じ楽曲 IDがあれば評価値を足し合わせる。ス テツプ S129において、楽曲抽出部 23は、層番号 iを 1だけインクリメントしてステップ S 123に戻り、それ以降の処理を繰り返す。
[0115] このステップ S123乃至 S129の処理が繰り返されることにより、集合 Cの要素(評価 値付の楽曲 ID)が増加してゆく。そして、ステップ S123において、層番号 iが nよりも 大きくなり、 n以下ではないと判定された場合、処理はステップ S130に進む。
[0116] ステップ S130において、楽曲抽出部 23は、集合 Cの要素 (評価値付の楽曲 ID)の 中から、評価値が最も高いものを選択し、ランダム選択部 26 (または類似度算出部 2 7)を介して選択理由生成部 28に出力する。
[0117] ステップ S131において、選択理由生成部 28は、楽曲抽出部 23によって選択され た楽曲が選択された理由を示す選択理由文を生成して、選択された楽曲の楽曲 ID とともに楽曲提示部 29に出力する。ステップ S132において、楽曲提示部 29は、選 択理由生成部 28から入力される楽曲 IDの楽曲と選択理由文とをユーザに提示する
[0118] 以上説明した第 2の楽曲推薦処理によれば、ユーザの嗜好に対応する特徴べタト ルと楽曲の特徴ベクトルとの距離の算出を必須とせず、ユーザの嗜好に応じて付与 された評価値が最も高い楽曲をユーザに推薦することが可能となる。
[0119] 以上説明した第 1乃至 3の類似楽曲検索処理、並びに第 1および第 2の楽曲推薦 処理によれば、元楽曲あるいはユーザの嗜好に対応する特徴ベクトルと、検索対象 の楽曲の特徴ベクトルとの距離 (余弦相関など)を算出することなぐ提示する楽曲を 選択することができる。また、いずれの処理においても、ユーザの嗜好を優先すること ができるので、検索や推薦に対するユーザの満足度を向上させることができる
[0120] クラスタ層毎に提示するための候補となる楽曲を選び出しているので、いわゆる嗜 好の足し合わせによるなまりの問題が生じないという利点がある。
[0121] さらに、楽曲のメタデータのうち、数値によって表現されるものは、それ力クラスタ間 の距離に反映されるように数値そのものが直接クラスタリングに使われるため、情報が 最大限活用される。
[0122] また、クラスタ層をグループに分けて部分的に用いてもよい。例えば {関連アーティ スト層、アーティストジャンル層、アーティストレビューテキスト層 }をアーティスト検索推 薦用グループに、 {楽曲特徴量層(テンポ、リズム、 etc) ,曲ジャンル層、曲レビューテ キスト層 }を楽曲検索推薦用グループとして定義するようにしてもょ 、。
[0123] ところで、上述した一連の処理は、ハードウェアにより実行させることもできる力 ソフ トウエア〖こより実行させることもできる。一連の処理をソフトウェアにより実行させる場合 には、そのソフトウェアを構成するプログラム力 専用のハードウェアに組み込まれて いるコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を 実行することが可能な、例えば図 16に示すように構成される汎用のパーソナルコンビ ユータなどに、記録媒体からインストールされる。
[0124] このパーソナルコンピュータ 100は、 CPU(Central Processing Unit)101を内蔵して いる。 CPU101にはバス 104を介して、入出力インタフェース 105が接続されている。 ノ ス 104には、 ROM(Read Only Memory)102および RAM(Random Access Memory) 103が接続されている。
[0125] 入出力インタフェース 105には、ユーザが操作コマンドを入力するキーボード、マウ ス等の入力デバイスよりなる入力部 106、画面を表示する CRT(Cathode Ray Tube)ま たは LCD(Liquid Crystal Display)等のディスプレイよりなる出力部 107、プログラムや 各種データを格納するハードディスクドライブなどよりなる記憶部 108、およびモデム 、 LAN (Local Area Network)アダプタなどよりなり、インタネットに代表されるネットヮー クを介した通信処理を実行する通信部 109が接続されている。また、磁気ディスク(フ レキシブルディスクを含む)、光ディスク(CD- ROM(Compact Disc-Read Only Memor y)、 DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、も しくは半導体メモリなどの記録媒体 111に対してデータを読み書きするドライブ 110 が接続されている。
[0126] このパーソナルコンピュータ 100に上述した一連の処理を実行させるプログラムは、 記録媒体 111に格納された状態でパーソナルコンピュータ 100に供給され、ドライブ 110によって読み出されて記憶部 108に内蔵されるハードディスクドライブにインスト ールされている。記憶部 108にインストールされているプログラムは、入力部 106に入 力されるユーザからのコマンドに対応する CPU101の指令によって、記憶部 108から RAM103にロードされて実行される。
[0127] 図 17は、本発明の一実施の形態の推薦システム 1の他の構成の例を示すブロック 図である。図 17において、図 1に示す場合と同様の部分には同一の符号を付してあ り、その説明は省略する。
[0128] 図 17に示される推薦システム 1は、楽曲 DB11、キーワード設定部 13、クラスタ情 報 DB14、検索楽曲指定部 21、クラスタマッピング部 22、楽曲抽出部 23、嗜好情報 データベース 24、嗜好入力部 25、ランダム選択部 26、類似度算出部 27、選択理由 生成部 28、楽曲提示部 29、メタデータクラスタリング部 201、および楽曲クラスタリン グ部 202から構成される。
[0129] メタデータクラスタリング部 201は、楽曲データベース 11に記録されている各楽曲 のメタデータをクラスタリングする。すなわち、メタデータクラスタリング部 201は、コン テンッである楽曲のメタデータを複数のクラスタの 、ずれかに分類し、クラスタに階層 を割り当てる。
[0130] メタデータクラスタリング部 201は、各楽曲のメタデータのクラスタリングの結果を楽 曲クラスタリング部 202に供給する。
[0131] 楽曲クラスタリング部 202は、メタデータクラスタリング部 201による各楽曲のメタデ ータのクラスタリングの結果を基に、クラスタリング部 12と同様に、各楽曲をクラスタリ ングして各楽曲のクラスタ情報を生成する。すなわち、楽曲クラスタリング部 202は、 各楽曲のクラスタリングの結果に応じたクラスタ情報を生成してクラスタ情報 DB14に 出力する。
[0132] 次に、図 18のフローチャートを参照して、図 17に示される推薦システム 1における、 楽曲を推薦する処理の準備であるオフライン時の前処理の例について説明する。
[0133] ステップ S201において、メタデータクラスタリング部 201は、楽曲 DB11から楽曲の メタデータを取得して、取得したメタデータの次元を圧縮する。例えば、ステップ S20 1において、メタデータクラスタリング部 201は、楽曲 DB11から取得した楽曲のメタデ ~~タの次兀 、 LbA {the latent semantic analysis)、 PLbA {the probabilistic latent se mantic analysis)、または数量化 III類などの手法により圧縮する。
[0134] なお、ステップ S201において、メタデータクラスタリング部 201は、楽曲のメタデー タをベクトルィ匕するようにしてもょ 、。
[0135] ステップ S202において、メタデータクラスタリング部 201は、各楽曲のメタデータを クラスタリングする。例えば、ステップ S 202において、メタデータクラスタリング部 201 は、各楽曲のメタデータをソフトクラスタリングする。
[0136] より具体的には、例えば、図 19で示されるように、メタデータクラスタリング部 201は 、それぞれの階層内において、アイテムの各クラスタへの帰属重みの和が 1となるよう に、各楽曲のメタデータをソフトクラスタリングする。
[0137] 例えば、 ABC123である楽曲 IDで特定される楽曲のメタデータの第 1階層(層番号 1 )における第 1のクラスタ、第 2のクラスタ、第 3のクラスタ、および第 4のクラスタへの帰 属重みは、それぞれ、 0. 0、 0. 8、 0. 0、および 0. 2である。 ABC123である楽曲 ID で特定される楽曲のメタデータの第 2階層(層番号 2)における第 5のクラスタ、第 6の クラスタ、第 7のクラスタ、および第 8のクラスタへの帰属重みは、それぞれ、 0. 4、 0. 6、 0. 0、および 0. 0である。 ABC123である楽曲 IDで特定される楽曲のメタデータの 第 3階層(層番号 3)における第 9のクラスタ、第 10のクラスタ、および第 11のクラスタ への帰属重みは、それぞれ、 0. 0、 0. 0、および 1. 0である。また、 ABC123である楽 曲 IDで特定される楽曲のメタデータの第 n階層(層番号 n)における 4つのクラスタの それぞれへの帰属重みは、それぞれ、 1. 0、 0. 0、 0. 0、および 0. 0である。
[0138] 例えば、 CTH863である楽曲 IDで特定される楽曲のメタデータの第 1階層における 第 1のクラスタ、第 2のクラスタ、第 3のクラスタ、および第 4のクラスタへの帰属重みは 、それぞれ、 1. 0、 0. 0、 0. 0、および 0. 0である。 CTH863である楽曲 IDで特定され る楽曲のメタデータの第 2階層における第 5のクラスタ、第 6のクラスタ、第 7のクラスタ 、および第 8のクラスタへの帰属重みは、それぞれ、 0. 0、 0. 5、 0. 5、および 0. 0で ある。 CTH863である楽曲 IDで特定される楽曲のメタデータの第 3階層における第 9 のクラスタ、第 10のクラスタ、および第 11のクラスタへの帰属重みは、それぞれ、 0. 7 、 0. 3、および 0. 0である。また、 CTH863である楽曲 IDで特定される楽曲のメタデー タの第 n階層における 4つのクラスタのそれぞれへの帰属重みは、それぞれ、 0. 0、 0 . 8、 0. 2、および 0. 0である。
[0139] 例えば、 XYZ567である楽曲 IDで特定される楽曲のメタデータの第 1階層における 第 1のクラスタ、第 2のクラスタ、第 3のクラスタ、および第 4のクラスタへの帰属重みは 、それぞれ、 0. 0、 0. 4、 0. 6、および 0. 0である。 XYZ567である楽曲 IDで特定され る楽曲のメタデータの第 2階層における第 5のクラスタ、第 6のクラスタ、第 7のクラスタ 、および第 8のクラスタへの帰属重みは、それぞれ、 0. 0、 0. 0、 0. 0、および 1. 0で ある。 XYZ567である楽曲 IDで特定される楽曲のメタデータの第 3階層における第 9の クラスタ、第 10のクラスタ、および第 11のクラスタへの帰属重みは、それぞれ、 0. 9、 0. 0、および 0. 1である。また、 XYZ567である楽曲 IDで特定される楽曲のメタデータ の第 n階層における 4つのクラスタのそれぞれへの帰属重みは、それぞれ、 0. 3、 0. 0、 0. 0、および 0. 7である。
[0140] なお、各楽曲のメタデータのソフトクラスタリングは、それぞれの階層内において、ァ ィテム、すなわち楽曲の各クラスタへの帰属重みの和が 1となるものに限られない。ま た、各アイテムが各階層において、いずれのクラスタに属さないものとしてもよい。
[0141] ステップ S203において、メタデータクラスタリング部 201は、クラスタの層を割り当て る。
[0142] ここで、図 20および図 21を参照して、メタデータのクラスタリングおよびクラスタの層 の割り当てについて説明する。図 20は、メタデータの例を示す図である。図 20で示さ れるメタデータは、簡単のため、 0または 1のいずれかの値のカテゴリカルデータとさ れている。
[0143] 高次の分類としてのメタグループ 1には、メタデータ 1、メタデータ 2、およびメタデー タ 3が属し、高次の分類としてのメタグループ 2には、メタデータ 4、メタデータ 5、およ びメタデータ 6が属する。例えば、メタグループ 1には、アーティストに関するメタデー タが属し、メタデータ 1は、アーティストの外観を示し、メタデータ 2は、グループである ことを示す。また、例えば、メタグループ 2には、ジャンルに関するメタデータが属し、 メタデータ 4は、ポップスであることを示し、メタデータ 5は、ロックであることを示す。
[0144] 図 20に示す例において、 ABC123である楽曲 IDで特定される楽曲のメタデータ 1乃 至メタデータ 6は、それぞれ、 1, 1, 1, 1, 1, 1であり、 CTH863である楽曲 IDで特定 される楽曲のメタデータ 1乃至メタデータ 6は、それぞれ、 0, 1, 0, 0, 1, 1であり、 XY Z567である楽曲 IDで特定される楽曲のメタデータ 1乃至メタデータ 6は、それぞれ、 1 , 1, 1, 1, 1, 1である。また、 EKF534である楽曲 IDで特定される楽曲のメタデータ 1 乃至メタデータ 6は、それぞれ、 1, 0, 1, 0, 0, 1であり、 OPQ385である楽曲 IDで特 定される楽曲のメタデータ 1乃至メタデータ 6は、それぞれ、 1, 0, 1, 1, 0, 0である。
[0145] このとき、 ABC123である楽曲 IDで特定される楽曲乃至 OPQ385である楽曲 IDで特 定される楽曲についての、メタデータ 1をベクトルとみなす。同様に、 ABC123である 楽曲 IDで特定される楽曲乃至 OPQ385である楽曲 IDで特定される楽曲についての、 メタデータ 2乃至メタデータ 6のそれぞれをベクトルとみなす。すなわち、複数の楽曲 についての 1つのメタデータの値をベクトルとみなす。
[0146] このベクトル同士の距離に注目する。
[0147] 図 20で示される例において、ベクトルとみなされたメタデータ 1、メタデータ 3、メタデ ータ 4が、マンハッタン距離 1以内のクラスタに、また、メタデータ 2、メタデータ 5、メタ データ 6が、マンハッタン距離 1以内の他のクラスタに、まとまつている。
[0148] そこで、これらのクラスタを、新たなメタデータの階層とする。すなわち、階層のそれ ぞれの層に、より近 、メタデータが割り付けられる。
[0149] 図 21は、このようにクラスタリングされ、層が割り付けられたメタデータの例を示す。
図 21に示す例において、第 1層には、メタデータ 1、メタデータ 3、およびメタデータ 4 が属し、第 2層には、メタデータ 2、メタデータ 5、およびメタデータ 6が属する。
[0150] このように、相関の高いメタデータの集まりでそれぞれの層が形成され、その中で楽 曲のクラスタリングが行われるので、ジャンルやアーティストなどをそのまま階層とする ような通常の階層分けでは表現しきれない微妙な楽曲間の差をクラスタに反映するこ とがでさる。
[0151] 図 18に戻り、ステップ S204において、楽曲クラスタリング部 202は、層毎に楽曲を クラスタリングして、処理は終了する。すなわち、楽曲クラスタリング部 202は、各コン テンッを、割り当てられた階層のそれぞれにお ヽて複数のクラスタの!/ヽずれかに分類 する。
[0152] このようにすることで、メタデータによる楽曲の表現の詳細度 (表現の詳細さの度合 い)を保ったまま、データ量および計算量を削減して、楽曲をクラスタリングすることが できる。
[0153] また、以上のように、メタデータを階層化することにより、楽曲間の微妙な相違がよく 表現されるように楽曲をクラスタリングすることができる。
[0154] 次に、図 22のフローチャートを参照して、第 4の類似楽曲検索処理を説明する。ス テツプ S221において、検索楽曲指定部 21は、類似元となる元楽曲を設定する。す なわち、例えば、ステップ S221において、検索楽曲指定部 21は、クラスタマッピング 部 22を介して、ユーザの指定に応じて、元楽曲の楽曲 IDを楽曲抽出部 23に出力す ることにより、元楽曲を設定する。
[0155] ステップ S222において、類似度算出部 27は、各クラスタの帰属重みから、元楽曲 と、元楽曲以外の全ての楽曲のそれぞれとの類似度を計算する。
[0156] 例えば、楽曲抽出部 23は、楽曲 IDで特定される元楽曲のクラスタ情報と、元楽曲 以外の全ての楽曲のクラスタ情報とを、クラスタ情報データベース 14力も読み出す。 そして、楽曲抽出部 23は、読み出したクラスタ情報を類似度算出部 27に供給する。 類似度算出部 27は、元楽曲と元楽曲以外の全ての楽曲とのクラスタ情報で示される 各クラスタの帰属重みから、元楽曲と、元楽曲以外の全ての楽曲のそれぞれとの類 似度を計算する。
[0157] より具体的には、例えば、楽曲クラスタリング部 202により、各楽曲が、それぞれの 階層内において、ソフトクラスタリングされ、各クラスタの帰属重みを示すクラスタ情報 力 Sクラスタ情報データベース 14に格納されて 、る。
[0158] 図 23は、クラスタの帰属重みを示すクラスタ情報の例を示す図である。 [0159] 例えば、第 1階層におけるクラスタである、 CL11であるクラスタ IDで特定されるクラ スタ、 CL12であるクラスタ IDで特定されるクラスタ、 CL 13であるクラスタ IDで特定さ れるクラスタ、および CL14であるクラスタ IDで特定されるクラスタへの、 ABC123であ る楽曲 IDで特定される楽曲の帰属重みは、それぞれ、 0. 0、 1. 0、 0. 0、および 0. 2 である。第 2階層におけるクラスタである、 CL21であるクラスタ IDで特定されるクラス タ、 CL22であるクラスタ IDで特定されるクラスタ、 CL23であるクラスタ IDで特定され るクラスタ、および CL24であるクラスタ IDで特定されるクラスタへの、 ABC123である 楽曲 IDで特定される楽曲の帰属重みは、それぞれ、 0. 6、 0. 8、 0. 0、および 0. 0 である。
[0160] また、第 3階層におけるクラスタである、 CL31であるクラスタ IDで特定されるクラスタ 、 CL32であるクラスタ IDで特定されるクラスタ、および CL33であるクラスタ IDで特定 されるクラスタへの、 ABC123である楽曲 IDで特定される楽曲の帰属重みは、それぞ れ、 0. 0、 0. 0、および 1. 0である。さらに、第 4階層におけるクラスタである、 CL41 であるクラスタ IDで特定されるクラスタ、 CL42であるクラスタ IDで特定されるクラスタ 、 CL43であるクラスタ IDで特定されるクラスタ、および CL44であるクラスタ IDで特定 されるクラスタへの、 ABC123である楽曲 IDで特定される楽曲の帰属重みは、それぞ れ、 1. 0、 0. 0、 0. 0、および 0. 0である。
[0161] 例えば、第 1階層におけるクラスタである、 CL11であるクラスタ IDで特定されるクラ スタ、 CL12であるクラスタ IDで特定されるクラスタ、 CL 13であるクラスタ IDで特定さ れるクラスタ、および CL14であるクラスタ IDで特定されるクラスタへの、 CTH863であ る楽曲 IDで特定される楽曲の帰属重みは、それぞれ、 1. 0, 0. 0、 0. 0、および 0. 0 である。第 2階層におけるクラスタである、 CL21であるクラスタ IDで特定されるクラス タ、 CL22であるクラスタ IDで特定されるクラスタ、 CL23であるクラスタ IDで特定され るクラスタ、および CL24であるクラスタ IDで特定されるクラスタへの、 CTH863である 楽曲 IDで特定される楽曲の帰属重みは、それぞれ、 0. 0、 0. 7、 0. 7、および 0. 0 である。
[0162] また、第 3階層におけるクラスタである、 CL31であるクラスタ IDで特定されるクラスタ 、 CL32であるクラスタ IDで特定されるクラスタ、および CL33であるクラスタ IDで特定 されるクラスタへの、 CTH863である楽曲 IDで特定される楽曲の帰属重みは、それぞ れ、 0. 9、 0. 4、および 0. 0である。さら〖こ、第 4階層〖こおけるクラスタである、 CL41 であるクラスタ IDで特定されるクラスタ、 CL42であるクラスタ IDで特定されるクラスタ 、 CL43であるクラスタ IDで特定されるクラスタ、および CL44であるクラスタ IDで特定 されるクラスタへの、 CTH863である楽曲 IDで特定される楽曲の帰属重みは、それぞ れ、 0. 0、 1. 0、 0. 3、および 0. 0である。
[0163] 例えば、第 1階層におけるクラスタである、 CL11であるクラスタ IDで特定されるクラ スタ、 CL12であるクラスタ IDで特定されるクラスタ、 CL 13であるクラスタ IDで特定さ れるクラスタ、および CL14であるクラスタ IDで特定されるクラスタへの、 XYZ567であ る楽曲 IDで特定される楽曲の帰属重みは、それぞれ、 0. 0、 0. 6、 0. 8、および 0. 0 である。第 2階層におけるクラスタである、 CL21であるクラスタ IDで特定されるクラス タ、 CL22であるクラスタ IDで特定されるクラスタ、 CL23であるクラスタ IDで特定され るクラスタ、および CL24であるクラスタ IDで特定されるクラスタへの、 XYZ567である 楽曲 IDで特定される楽曲の帰属重みは、それぞれ、 0. 0、 0. 0、 0. 0、および 1. 0 である。
[0164] また、第 3階層におけるクラスタである、 CL31であるクラスタ IDで特定されるクラスタ 、 CL32であるクラスタ IDで特定されるクラスタ、および CL33であるクラスタ IDで特定 されるクラスタへの、 XYZ567である楽曲 IDで特定される楽曲の帰属重みは、それぞ れ、 1. 0、 0. 0、および 0. 1である。さら〖こ、第 4階層〖こおけるクラスタである、 CL41 であるクラスタ IDで特定されるクラスタ、 CL42であるクラスタ IDで特定されるクラスタ 、 CL43であるクラスタ IDで特定されるクラスタ、および CL44であるクラスタ IDで特定 されるクラスタへの、 XYZ567である楽曲 IDで特定される楽曲の帰属重みは、それぞ れ、 0. 5、 0. 0、 0. 0、および 0. 9である。
[0165] 例えば、第 1階層におけるクラスタである、 CL11であるクラスタ IDで特定されるクラ スタ、 CL12であるクラスタ IDで特定されるクラスタ、 CL 13であるクラスタ IDで特定さ れるクラスタ、および CL14であるクラスタ IDで特定されるクラスタへの、 EKF534であ る楽曲 IDで特定される楽曲の帰属重みは、それぞれ、 0. 9、 0. 0、 0. 0、および 0. 5 である。第 2階層におけるクラスタである、 CL21であるクラスタ IDで特定されるクラス タ、 CL22であるクラスタ IDで特定されるクラスタ、 CL23であるクラスタ IDで特定され るクラスタ、および CL24であるクラスタ IDで特定されるクラスタへの、 EKF534である 楽曲 IDで特定される楽曲の帰属重みは、それぞれ、 0. 0、 0. 6、 0. 0、および 0. 8 である。
[0166] また、第 3階層におけるクラスタである、 CL31であるクラスタ IDで特定されるクラスタ 、 CL32であるクラスタ IDで特定されるクラスタ、および CL33であるクラスタ IDで特定 されるクラスタへの、 EKF534である楽曲 IDで特定される楽曲の帰属重みは、それぞ れ、 0. 7、 0. 0、および 0. 7である。さら〖こ、第 4階層〖こおけるクラスタである、 CL41 であるクラスタ IDで特定されるクラスタ、 CL42であるクラスタ IDで特定されるクラスタ 、 CL43であるクラスタ IDで特定されるクラスタ、および CL44であるクラスタ IDで特定 されるクラスタへの、 EKF534である楽曲 IDで特定される楽曲の帰属重みは、それぞ れ、 0. 0、 0. 9、 0. 4、および 0. 3である。
[0167] 例えば、第 1階層におけるクラスタである、 CL11であるクラスタ IDで特定されるクラ スタ、 CL12であるクラスタ IDで特定されるクラスタ、 CL 13であるクラスタ IDで特定さ れるクラスタ、および CL14であるクラスタ IDで特定されるクラスタへの、 OPQ385であ る楽曲 IDで特定される楽曲の帰属重みは、それぞれ、 0. 7、 0. 2、 0. 6、および 0. 0 である。第 2階層におけるクラスタである、 CL21であるクラスタ IDで特定されるクラス タ、 CL22であるクラスタ IDで特定されるクラスタ、 CL23であるクラスタ IDで特定され るクラスタ、および CL24であるクラスタ IDで特定されるクラスタへの、 OPQ385である 楽曲 IDで特定される楽曲の帰属重みは、それぞれ、 1. 0, 0. 0、 0. 0、および 0. 0 である。
[0168] また、第 3階層におけるクラスタである、 CL31であるクラスタ IDで特定されるクラスタ 、 CL32であるクラスタ IDで特定されるクラスタ、および CL33であるクラスタ IDで特定 されるクラスタへの、 OPQ385である楽曲 IDで特定される楽曲の帰属重みは、それぞ れ、 0. 0、 1. 0、および 0. 0である。さら〖こ、第 4階層〖こおけるクラスタである、 CL41 であるクラスタ IDで特定されるクラスタ、 CL42であるクラスタ IDで特定されるクラスタ 、 CL43であるクラスタ IDで特定されるクラスタ、および CL44であるクラスタ IDで特定 されるクラスタへの、 OPQ385である楽曲 IDで特定される楽曲の帰属重みは、それぞ れ、 0. 4、 0. 9、 0. 0、および 0. 0である。
[0169] 例えば、類似度算出部 27は、 iである楽曲 IDで特定される元楽曲と jである楽曲 ID で特定される楽曲との類似度 sim (i,j)を、それぞれの楽曲のクラスタへの帰属重みか ら、式(1)で示される演算で計算する。
[0170] [数 1]
s i m ( i , j ) = ∑ ∑ wi l cw i l c … ( 1 )
l eL ceC ( l )
[0171] 式(1)において、 Lは、階層の数を示す値であり、 1は、階層を特定する値である。 C(l )は、クラスタの全体を示し、 cは、クラスタを特定する値である。 w は、 iである楽曲 ID
ilc
で特定される元楽曲の、第 1層の第 cクラスタの帰属重みを示す。 w は、 jである楽曲 I Dで特定される楽曲の、第 1層の第 cクラスタの帰属重みを示す。
[0172] 図 24は、クラスタの帰属重みを示す図 23のクラスタ情報から、式(1)で示される演 算により計算された類似度の例を示す図である。なお、図 24において、 ABC123であ る楽曲 IDで特定される元楽曲に対する、 CTH863乃至 OPQ385のそれぞれの楽曲 ID で特定される楽曲のそれぞれにつ 、ての類似度が示されて 、る。
[0173] 図 24で示されるように、図 23のクラスタ情報を基に、 ABC123である楽曲 IDで特定 される元楽曲に対して、 CTH863乃至 OPQ385のそれぞれの楽曲 IDで特定される楽 曲のそれぞれの類似度を式(1)で示される演算で計算すると、 CTH863乃至 OPQ385 のそれぞれの楽曲 IDで特定される楽曲のそれぞれの類似度は、 0. 57、 1. 18、 1. 27、 1. 20となる。
[0174] 例えば、ステップ S222において、類似度算出部 27は、式(1)で示される演算によ り、それぞれ、 0. 57、 1. 18、 1. 27、 1. 20である、 ABC123である楽曲 IDで特定さ れる元楽曲に対する、 CTH863乃至 OPQ385のそれぞれの楽曲 IDで特定される楽曲 のそれぞれの類似度を計算する。
[0175] ステップ S223において、類似度算出部 27は、類似度を基に、元楽曲に類似して いる順に、元楽曲以外の全ての楽曲をソートする。
[0176] より具体的には、類似度算出部 27は、計算の結果得られた楽曲の類似度と、楽曲 の楽曲 IDとを対応付けて、類似度を基に、元楽曲に類似している順に楽曲の楽曲 I Dを並び替えることにより、元楽曲に類似している順に、元楽曲以外の全ての楽曲を ソートする。
[0177] ステップ S224において、類似度算出部 27は、ソートされた楽曲のうち、任意の数 の上位の楽曲を選択する。類似度算出部 27は、選択した楽曲の楽曲 IDを選択理由 生成部 28に供給する。
[0178] 例えば、ステップ S224において、類似度算出部 27は、最上位の楽曲を選択して、 最上位の楽曲の楽曲 IDを選択理由生成部 28に供給する。または、例えば、ステップ S224において、類似度算出部 27は、上位 10曲の楽曲を選択して、上位 10曲の楽 曲の楽曲 IDを選択理由生成部 28に供給する。
[0179] ステップ S225において、選択理由生成部 28は、類似度算出部 27によって選択さ れた楽曲が選択された理由を示す選択理由文を生成して、選択された楽曲の楽曲 I Dとともに楽曲提示部 29に出力する。ステップ S226において、楽曲提示部 29は、選 択理由生成部 28から入力される楽曲 IDの楽曲と選択理由文とをユーザに提示して 、処理は終了する。
[0180] 次に、図 25のフローチャートを参照して、第 5の類似楽曲検索処理を説明する。ス テツプ S241乃至ステップ S 251のそれぞれは、図 11のステップ S 1乃至ステップ S 11 のそれぞれと同様なので、その説明は省略する。
[0181] ステップ S252において、類似度算出部 27は、楽曲抽出部 23から供給された、集 合 Cの要素 (楽曲 ID)を基に、各クラスタの帰属重みから、元楽曲と、集合 Cの楽曲の それぞれとの類似度を計算する。例えば、ステップ S252において、類似度算出部 2 7は、式(1)で示される演算により、元楽曲と集合 Cの楽曲のそれぞれとの類似度を 計算する。
[0182] ステップ S253において、類似度算出部 27は、類似度を基に、元楽曲に類似して いる順に、集合 Cの楽曲をソートする。
[0183] より具体的には、類似度算出部 27は、計算の結果得られた類似度と、集合 Cの楽 曲の楽曲 IDとを対応付けて、類似度を基に、集合 Cの楽曲の楽曲 IDを並び替えるこ とにより、元楽曲に類似している順に、集合 Cの楽曲をソートする。
[0184] ステップ S224において、類似度算出部 27は、ソートされた楽曲のうち、任意の数 の上位の楽曲を選択する。類似度算出部 27は、選択した楽曲の楽曲 IDを選択理由 生成部 28に供給する。
[0185] 例えば、ステップ S224において、類似度算出部 27は、最上位の楽曲を選択して、 最上位の楽曲の楽曲 IDを選択理由生成部 28に供給する。または、例えば、ステップ S224において、類似度算出部 27は、上位 10曲の楽曲を選択して、上位 10曲の楽 曲の楽曲 IDを選択理由生成部 28に供給する。
[0186] ステップ S225において、選択理由生成部 28は、類似度算出部 27によって選択さ れた楽曲が選択された理由を示す選択理由文を生成して、選択された楽曲の楽曲 I Dとともに楽曲提示部 29に出力する。ステップ S226において、楽曲提示部 29は、選 択理由生成部 28から入力される楽曲 IDの楽曲と選択理由文とをユーザに提示して 、処理は終了する。
[0187] 次に、図 26のフローチャートを参照して、第 3の楽曲推薦処理を説明する。ステップ S261乃至ステップ S270のそれぞれは、図 14のステップ S91乃至ステップ S100の それぞれと同様なので、その説明は省略する。
[0188] ステップ S271において、類似度算出部 27は、楽曲抽出部 23から供給された、集 合 Cの要素(楽曲 ID)を基に、各クラスタの帰属重みを示すユーザの嗜好値と、集合 Cの楽曲のそれぞれのクラスタ情報であって、各クラスタの帰属重みを示すクラスタ情 報との類似度を計算する。
[0189] ここで、図 27乃至図 31を参照して、ユーザの嗜好値と、集合 Cの楽曲のそれぞれ のクラスタ情報との類似度を説明する。
[0190] 例えば、嗜好情報データベース 24は、ソフトクラスタリングされ、それぞれの階層内 にお 、て、各クラスタの帰属重みを示す嗜好値を記録して 、る。
[0191] 図 27は、各クラスタの帰属重みを示す嗜好値の例を示す図である。
[0192] 例えば、第 1階層におけるクラスタである、 CL11であるクラスタ IDで特定されるクラ スタ、 CL12であるクラスタ IDで特定されるクラスタ、 CL 13であるクラスタ IDで特定さ れるクラスタ、および CL14であるクラスタ IDで特定されるクラスタへの、 U001であるュ 一ザ IDで特定されるユーザの嗜好値の帰属重みは、それぞれ、 0. 0、 0. 8、 0. 0、 および 0. 6である。第 2階層におけるクラスタである、 CL21であるクラスタ IDで特定さ れるクラスタ、 CL22であるクラスタ IDで特定されるクラスタ、 CL23であるクラスタ IDで 特定されるクラスタ、および CL24であるクラスタ IDで特定されるクラスタへの、 U001 であるユーザ IDで特定されるユーザの嗜好値の帰属重みは、それぞれ、 0. 4、 0. 6 、 0. 7、および 0. 0である。
[0193] また、第 3階層におけるクラスタである、 CL31であるクラスタ IDで特定されるクラスタ 、 CL32であるクラスタ IDで特定されるクラスタ、および CL33であるクラスタ IDで特定 されるクラスタへの、 U001であるユーザ IDで特定されるユーザの嗜好値の帰属重み は、それぞれ、 0. 7、 0. 5、および 0. 5である。さらに、第 4階層におけるクラスタであ る、 CL41であるクラスタ IDで特定されるクラスタ、 CL42であるクラスタ IDで特定され るクラスタ、 CL43であるクラスタ IDで特定されるクラスタ、および CL44であるクラスタ I Dで特定されるクラスタへの、 U001であるユーザ IDで特定されるユーザの嗜好値の 帰属重みは、それぞれ、 0. 0、 0. 5、 0. 4、および 0. 0である。
[0194] 図 28は、各クラスタの帰属重みを示すクラスタ情報の例を示す図である。
[0195] 例えば、第 1階層におけるクラスタである、 CL11であるクラスタ IDで特定されるクラ スタ、 CL12であるクラスタ IDで特定されるクラスタ、 CL 13であるクラスタ IDで特定さ れるクラスタ、および CL14であるクラスタ IDで特定されるクラスタへの、 ABC123であ る楽曲 IDで特定される楽曲の帰属重みは、それぞれ、 0. 0、 1. 0、 0. 0、および 0. 2 である。第 2階層におけるクラスタである、 CL21であるクラスタ IDで特定されるクラス タ、 CL22であるクラスタ IDで特定されるクラスタ、 CL23であるクラスタ IDで特定され るクラスタ、および CL24であるクラスタ IDで特定されるクラスタへの、 ABC123である 楽曲 IDで特定される楽曲の帰属重みは、それぞれ、 0. 6、 0. 8、 0. 0、および 0. 0 である。
[0196] また、第 3階層におけるクラスタである、 CL31であるクラスタ IDで特定されるクラスタ 、 CL32であるクラスタ IDで特定されるクラスタ、および CL33であるクラスタ IDで特定 されるクラスタへの、 ABC123である楽曲 IDで特定される楽曲の帰属重みは、それぞ れ、 0. 0、 0. 0、および 1. 0である。さらに、第 4階層におけるクラスタである、 CL41 であるクラスタ IDで特定されるクラスタ、 CL42であるクラスタ IDで特定されるクラスタ 、 CL43であるクラスタ IDで特定されるクラスタ、および CL44であるクラスタ IDで特定 されるクラスタへの、 ABC123である楽曲 IDで特定される楽曲の帰属重みは、それぞ れ、 1. 0、 0. 0、 0. 0、および 0. 0である。
[0197] 例えば、第 1階層におけるクラスタである、 CL11であるクラスタ IDで特定されるクラ スタ、 CL12であるクラスタ IDで特定されるクラスタ、 CL 13であるクラスタ IDで特定さ れるクラスタ、および CL14であるクラスタ IDで特定されるクラスタへの、 CTH863であ る楽曲 IDで特定される楽曲の帰属重みは、それぞれ、 1. 0, 0. 0、 0. 0、および 0. 0 である。第 2階層におけるクラスタである、 CL21であるクラスタ IDで特定されるクラス タ、 CL22であるクラスタ IDで特定されるクラスタ、 CL23であるクラスタ IDで特定され るクラスタ、および CL24であるクラスタ IDで特定されるクラスタへの、 CTH863である 楽曲 IDで特定される楽曲の帰属重みは、それぞれ、 0. 0、 0. 7、 0. 7、および 0. 0 である。
[0198] また、第 3階層におけるクラスタである、 CL31であるクラスタ IDで特定されるクラスタ 、 CL32であるクラスタ IDで特定されるクラスタ、および CL33であるクラスタ IDで特定 されるクラスタへの、 CTH863である楽曲 IDで特定される楽曲の帰属重みは、それぞ れ、 0. 9、 0. 4、および 0. 0である。さら〖こ、第 4階層〖こおけるクラスタである、 CL41 であるクラスタ IDで特定されるクラスタ、 CL42であるクラスタ IDで特定されるクラスタ 、 CL43であるクラスタ IDで特定されるクラスタ、および CL44であるクラスタ IDで特定 されるクラスタへの、 CTH863である楽曲 IDで特定される楽曲の帰属重みは、それぞ れ、 0. 0、 1. 1、 0. 3、および 0. 0である。
[0199] 例えば、第 1階層におけるクラスタである、 CL11であるクラスタ IDで特定されるクラ スタ、 CL12であるクラスタ IDで特定されるクラスタ、 CL 13であるクラスタ IDで特定さ れるクラスタ、および CL14であるクラスタ IDで特定されるクラスタへの、 XYZ567であ る楽曲 IDで特定される楽曲の帰属重みは、それぞれ、 0. 0、 0. 6、 0. 8、および 0. 0 である。第 2階層におけるクラスタである、 CL21であるクラスタ IDで特定されるクラス タ、 CL22であるクラスタ IDで特定されるクラスタ、 CL23であるクラスタ IDで特定され るクラスタ、および CL24であるクラスタ IDで特定されるクラスタへの、 XYZ567である 楽曲 IDで特定される楽曲の帰属重みは、それぞれ、 0. 0、 0. 0、 0. 0、および 1. 0 である。 [0200] また、第 3階層におけるクラスタである、 CL31であるクラスタ IDで特定されるクラスタ 、 CL32であるクラスタ IDで特定されるクラスタ、および CL33であるクラスタ IDで特定 されるクラスタへの、 XYZ567である楽曲 IDで特定される楽曲の帰属重みは、それぞ れ、 1. 0、 0. 0、および 0. 1である。さら〖こ、第 4階層〖こおけるクラスタである、 CL41 であるクラスタ IDで特定されるクラスタ、 CL42であるクラスタ IDで特定されるクラスタ 、 CL43であるクラスタ IDで特定されるクラスタ、および CL44であるクラスタ IDで特定 されるクラスタへの、 XYZ567である楽曲 IDで特定される楽曲の帰属重みは、それぞ れ、 0. 4、 0. 0、 0. 0、および 0. 7である。
[0201] 例えば、類似度算出部 27は、ユーザの嗜好値におけるクラスタへの帰属重みと、 i である楽曲 IDで特定される楽曲のクラスタ情報におけるクラスタへの帰属重みとから 、式 (2)で示される演算で類似度 sim (u,i)を計算する。
[0202] [数 2] s i m ( u, i ) = ∑ L hu| cwM c … ( 2 )
l eL ceC ( l )
[0203] 式(2)において、 Lは、階層の数を示す値であり、 1は、階層を特定する値である。 C(l )は、クラスタの全体を示し、 cは、クラスタを特定する値である。 w は、 iである楽曲 ID
ilc
で特定される楽曲のクラスタ情報の、第 1層の第 cクラスタの帰属重みを示す。 h は、 ユーザ uの嗜好値の第 1層の第 cクラスタの帰属重みを示す。
[0204] 図 29は、図 27のクラスタの帰属重みを示す嗜好値と、図 28のクラスタの帰属重み を示すクラスタ情報とから、式 (2)で示される演算により計算された類似度の例を示す 図である。
[0205] U001であるユーザ IDで特定されるユーザの嗜好値の帰属重みのうちの、第 1層の 帰属重みと、 ABC123である楽曲 IDで特定される楽曲のクラスタ情報の帰属重みのう ちの、第 1層の帰属重みとが、対応する帰属重み同士で乗算され、乗算された結果 が積算されると、図 29の ABC123である楽曲 IDに対する第 1層に配置した値である 0 . 91が求められる。同様に、第 2層、第 3層、および第 4層について、 U001であるユー ザ IDで特定されるユーザの嗜好値の帰属重みと、 ABC123である楽曲 IDで特定され る楽曲のクラスタ情報の帰属重みとが、対応する帰属重み同士で乗算され、乗算さ れた結果が積算されると、図 29の ABC123である楽曲 IDに対する第 2層、第 3層、お よび第 4層のそれぞれに配置した値である 0. 67、 0. 53、 0. 00が求められる。
[0206] 最終的に、 U001であるユーザ IDで特定されるユーザの嗜好値と ABC123である楽 曲 IDで特定される楽曲のクラスタ情報との類似度は、第 1層、第 2層、第 3層、および 第 4層のそれぞれ【こつ!ヽて求められた 0. 91、 0. 67、 0. 53、および 0. 00をカロ算し た値である 2. 11とされる。
[0207] U001であるユーザ IDで特定されるユーザの嗜好値の帰属重みのうちの、第 1層の 帰属重みと、 CTH863である楽曲 IDで特定される楽曲のクラスタ情報の帰属重みのう ちの、第 1層の帰属重みとが、対応する帰属重み同士で乗算され、乗算された結果 が積算されると、図 29の CTH863である楽曲 IDに対する第 1層に配置した値である 0 . 00が求められる。同様に、第 2層、第 3層、および第 4層について、 U001であるユー ザ IDで特定されるユーザの嗜好値の帰属重みと、 CTH863である楽曲 IDで特定され る楽曲のクラスタ情報の帰属重みとが、対応する帰属重み同士で乗算され、乗算さ れた結果が積算されると、図 29の CTH863である楽曲 IDに対する第 2層、第 3層、お よび第 4層のそれぞれに配置した値である 0. 92、 0. 82、 0. 63が求められる。
[0208] 最終的に、 U001であるユーザ IDで特定されるユーザの嗜好値と CTH863である楽 曲 IDで特定される楽曲のクラスタ情報との類似度は、第 1層、第 2層、第 3層、および 第 4層のそれぞれ【こつ!ヽて求められた 0. 00、 0. 92、 0. 82、および 0. 63をカロ算し た値である 2. 37とされる。
[0209] U001であるユーザ IDで特定されるユーザの嗜好値の帰属重みのうちの、第 1層の 帰属重みと、 XYZ567である楽曲 IDで特定される楽曲のクラスタ情報の帰属重みのう ちの、第 1層の帰属重みとが、対応する帰属重み同士で乗算され、乗算された結果 が積算されると、図 29の XYZ567である楽曲 IDに対する第 1層に配置した値である 0 . 44が求められる。同様に、第 2層、第 3層、および第 4層について、 U001であるユー ザ IDで特定されるユーザの嗜好値の帰属重みと、 XYZ567である楽曲 IDで特定され る楽曲のクラスタ情報の帰属重みとが、対応する帰属重み同士で乗算され、乗算さ れた結果が積算されると、図 29の XYZ567である楽曲 IDに対する第 2層、第 3層、お よび第 4層のそれぞれに配置した値である 0. 00、 0. 72、 0. 00が求められる。 [0210] 最終的に、 U001であるユーザ IDで特定されるユーザの嗜好値と XYZ567である楽 曲 IDで特定される楽曲のクラスタ情報との類似度は、第 1層、第 2層、第 3層、および 第 4層のそれぞれ【こつ!ヽて求められた 0. 44、 0. 00、 0. 72、および 0. 00をカロ算し た値である 1. 15とされる。
[0211] また、各階層における、ユーザの嗜好値の帰属重みの分布に基づいた重みを用い て類似度を計算するようにしてもょ ヽ。
[0212] 例えば、類似度算出部 27は、ユーザの嗜好値におけるクラスタへの帰属重みと、 i である楽曲 IDで特定される楽曲のクラスタ情報におけるクラスタへの帰属重みとから 、式 (3)で示される演算で類似度 sim (u,i)を計算する。
[0213] [数 3] s i m ( u, i ) = ∑ ∑ bu| hu |cwM c … ( 3 )
l eL ceC ( l )
[0214] 式(3)において、 Lは、階層の数を示す値であり、 1は、階層を特定する値である。 C(l )は、クラスタの全体を示し、 cは、クラスタを特定する値である。 w は、 iである楽曲 ID
ilc
で特定される楽曲のクラスタ情報の、第 1層の第 cクラスタの帰属重みを示す。 h は、 ユーザ uの嗜好値の第 1層の第 cクラスタの帰属重みを示す。 bは、ユーザ uの嗜好値
ul
の第 1層につ 、ての重みを示す。
[0215] 図 30は、ユーザの嗜好値のそれぞれの階層の帰属重みの分散である、階層毎の 重みの例を示す図である。図 30に示す例において、 U001であるユーザ IDで特定さ れるユーザのについての第 1層の重み、第 2層の重み、第 3層の重み、および第 4層 の重みは、それぞれ、 0. 17、 0. 10、 0. 01、および 0. 06である。
[0216] 図 31は、図 27のクラスタの帰属重みを示す嗜好値と、図 28のクラスタの帰属重み を示すクラスタ情報と、図 30の階層毎の重みとから、式 (3)で示される演算により計 算された類似度の例を示す図である。なお、図 30に示す類似度は、式 (3)で示され る演算により計算された結果を 10倍したものである。
[0217] U001であるユーザ IDで特定されるユーザの嗜好値の第 1層の帰属重みと、ユーザ の嗜好値の帰属重みに対応する、 ABC123である楽曲 IDで特定される楽曲のクラス タ情報の第 1層の帰属重みと、第 1の層の重みとが乗算され、乗算された結果が積算 されると、図 31の ABC123である楽曲 IDに対する第 1層に配置した値である 1. 27が 求められる。同様に、第 2層、第 3層、および第 4層について、 U001であるユーザ ID で特定されるユーザの嗜好値の帰属重みと、ユーザの嗜好値の帰属重みに対応す る、 ABC123である楽曲 IDで特定される楽曲のクラスタ情報の帰属重みと、第 2層、第 3層、または第 4層のうちのその層の重みとが乗算され、乗算された結果が積算され ると、図 31の ABC123である楽曲 IDに対する第 2層、第 3層、および第 4層のそれぞ れに酉己置した値である 0. 49、 0. 03、 0. 00力 S求められる。
[0218] 最終的に、 U001であるユーザ IDで特定されるユーザの嗜好値と ABC123である楽 曲 IDで特定される楽曲のクラスタ情報との類似度は、第 1層、第 2層、第 3層、および 第 4層のそれぞれ【こつ!ヽて求められた 1. 27、 0. 49、 0. 03、および 0. 00をカロ算し た値である 1. 79とされる。
[0219] U001であるユーザ IDで特定されるユーザの嗜好値の第 1層の帰属重みと、ユーザ の嗜好値の帰属重みに対応する、 CTH863である楽曲 IDで特定される楽曲のクラス タ情報の第 1層の帰属重みと、第 1の層の重みとが乗算され、乗算された結果が積算 されると、図 31の CTH863である楽曲 IDに対する第 1層に配置した値である 0. 00が 求められる。同様に、第 2層、第 3層、および第 4層について、 U001であるユーザ ID で特定されるユーザの嗜好値の帰属重みと、ユーザの嗜好値の帰属重みに対応す る、 CTH863である楽曲 IDで特定される楽曲のクラスタ情報の帰属重みと、第 2層、第 3層、または第 4層のうちのその層の重みとが乗算され、乗算された結果が積算され ると、図 31の CTH863である楽曲 IDに対する第 2層、第 3層、および第 4層のそれぞ れに酉己置した値である 0. 65、 0. 04、 0. 27力 S求められる。
[0220] 最終的に、 U001であるユーザ IDで特定されるユーザの嗜好値と CTH863である楽 曲 IDで特定される楽曲のクラスタ情報との類似度は、第 1層、第 2層、第 3層、および 第 4層のそれぞれ【こつ!ヽて求められた 0. 00、 0. 65、 0. 04、および 0. 27をカロ算し た値である 0. 96とされる。
[0221] U001であるユーザ IDで特定されるユーザの嗜好値の第 1層の帰属重みと、ユーザ の嗜好値の帰属重みに対応する、 XYZ567である楽曲 IDで特定される楽曲のクラス タ情報の第 1層の帰属重みと、第 1の層の重みとが乗算され、乗算された結果が積算 されると、図 31の XYZ567である楽曲 IDに対する第 1層に配置した値である 0. 53が 求められる。同様に、第 2層、第 3層、および第 4層について、 U001であるユーザ ID で特定されるユーザの嗜好値の帰属重みと、ユーザの嗜好値の帰属重みに対応す る、 XYZ567である楽曲 IDで特定される楽曲のクラスタ情報の帰属重みと、第 2層、第 3層、または第 4層のうちのその層の重みとが乗算され、乗算された結果が積算され ると、図 31の XYZ567である楽曲 IDに対する第 2層、第 3層、および第 4層のそれぞ れに酉己置した値である 0. 00、 0. 04、 0. 00力 S求められる。
[0222] 最終的に、 U001であるユーザ IDで特定されるユーザの嗜好値と XYZ567である楽 曲 IDで特定される楽曲のクラスタ情報との類似度は、第 1層、第 2層、第 3層、および 第 4層のそれぞれ【こつ!ヽて求められた 0. 53、 0. 00、 0. 04、および 0. 00をカロ算し た値である 0. 57とされる。
[0223] 図 27で示される嗜好値に注目すると、 U001であるユーザ IDで特定されるユーザの 嗜好値の帰属重みの値は、第 2層乃至第 4層に比較して、第 1層において大きく変化 しているので、第 2層乃至第 4層に比較して、第 1層の各要素の値が、 U001であるュ 一ザ IDで特定されるユーザの嗜好により関係すると予測される。
[0224] このように、重み付けすることによって、ユーザの嗜好にあまり関係しないと予測され る値に比較して、ユーザの嗜好により関係すると予測される値によって、その値がより 大きく変化する類似度を求めることができるので、より正確に、ユーザの好む楽曲を 検出することができる。
[0225] 図 26に戻り、ステップ S272において、類似度算出部 27は、類似度を基に、ユーザ の嗜好に類似している順に、集合 Cの楽曲をソートする。
[0226] より具体的には、類似度算出部 27は、計算の結果得られた類似度と、集合 Cの楽 曲の楽曲 IDとを対応付けて、類似度を基に、集合 Cの楽曲の楽曲 IDを並び替えるこ とにより、ユーザの嗜好に類似している順に、集合 Cの楽曲をソートする。
[0227] ステップ S273において、類似度算出部 27は、ソートされた楽曲のうち、任意の数 の上位の楽曲を選択する。類似度算出部 27は、選択した楽曲の楽曲 IDを選択理由 生成部 28に供給する。
[0228] 例えば、式(2)で示される演算により類似度が計算され、 ABC123である楽曲 IDで 特定される楽曲についての類似度が 2. 11とされ、 CTH863である楽曲 IDで特定され る楽曲についての類似度が 2. 37とされ、 XYZ567である楽曲 IDで特定される楽曲に ついての類似度が 1. 15とされた場合、 1つの楽曲を選択するとき、類似度が最大で ある、 CTH863である楽曲 IDで特定される楽曲が選択されることになる。
[0229] また、例えば、式(3)で示される演算により、各階層における、ユーザの嗜好値の帰 属重みの分布に基づいた重みを用いて類似度が計算され、 ABC123である楽曲 ID で特定される楽曲についての類似度が 1. 79とされ、 CTH863である楽曲 IDで特定さ れる楽曲についての類似度が 0. 96とされ、 XYZ567である楽曲 IDで特定される楽曲 についての類似度が 0. 57とされた場合、 1つの楽曲を選択するとき、類似度が最大 である、 ABC123である楽曲 IDで特定される楽曲が選択されることになる。
[0230] ステップ S274において、選択理由生成部 28は、類似度算出部 27によって選択さ れた楽曲が選択された理由を示す選択理由文を生成して、選択された楽曲の楽曲 I Dとともに楽曲提示部 29に出力する。ステップ S275において、楽曲提示部 29は、選 択理由生成部 28から入力される楽曲 IDの楽曲と選択理由文とをユーザに提示して 、処理は終了する。
[0231] 次に、図 32のフローチャートを参照して、第 4の楽曲推薦処理を説明する。ステップ S281乃至ステップ S284のそれぞれは、図 15のステップ S121乃至ステップ S124 のそれぞれと同様なので、その説明は省略する。
[0232] ステップ S285において、楽曲抽出部 23は、特定した各クラスタにそれぞれ対応す る嗜好値と第 i層の重みに基づき評価値を決定する。
[0233] 図 33は、図 27で示される嗜好値の帰属重みのうち、 0. 6である閾値以上の帰属重 み力もなる嗜好値の例を示す図である。
[0234] すなわち、図 27で示される嗜好値の帰属重みのうち、 0. 6未満である帰属重みが 0. 0に置き換えられることにより、図 33で示される嗜好値が求められる。
[0235] 例えば、第 1階層におけるクラスタである、 CL11であるクラスタ IDで特定されるクラ スタ、 CL12であるクラスタ IDで特定されるクラスタ、 CL 13であるクラスタ IDで特定さ れるクラスタ、および CL14であるクラスタ IDで特定されるクラスタへの、 U001であるュ 一ザ IDで特定されるユーザの嗜好値の帰属重みは、それぞれ、 0. 0、 0. 8、 0. 0、 および 0. 6である。第 2階層におけるクラスタである、 CL21であるクラスタ IDで特定さ れるクラスタ、 CL22であるクラスタ IDで特定されるクラスタ、 CL23であるクラスタ IDで 特定されるクラスタ、および CL24であるクラスタ IDで特定されるクラスタへの、 U001 であるユーザ IDで特定されるユーザの嗜好値の帰属重みは、それぞれ、 0. 0、 0. 6 、 0. 7、および 0. 0である。
[0236] また、第 3階層におけるクラスタである、 CL31であるクラスタ IDで特定されるクラスタ 、 CL32であるクラスタ IDで特定されるクラスタ、および CL33であるクラスタ IDで特定 されるクラスタへの、 U001であるユーザ IDで特定されるユーザの嗜好値の帰属重み は、それぞれ、 0. 7、 0. 0、および 0. 0である。さらに、第 4階層におけるクラスタであ る、 CL41であるクラスタ IDで特定されるクラスタ、 CL42であるクラスタ IDで特定され るクラスタ、 CL43であるクラスタ IDで特定されるクラスタ、および CL44であるクラスタ I Dで特定されるクラスタへの、 U001であるユーザ IDで特定されるユーザの嗜好値の 帰属重みは、それぞれ、 0. 0、 0. 0、 0. 0、および 0. 0である。
[0237] 例えば、ステップ S285において、楽曲抽出部 23は、閾値以上の帰属重み力もなる 嗜好値におけるクラスタへの帰属重みと、 iである楽曲 IDで特定される楽曲のクラスタ 情報におけるクラスタへの帰属重みとから、式 (3)で示される演算で類似度を計算す る。すなわち、元の嗜好値の帰属重みのうち、例えば 0. 6である閾値未満の帰属重 みと乗算されて求められる値は、類似度に加算されず、元の嗜好値の帰属重みのう ち、閾値以上である帰属重みと乗算されて求められる値は、類似度に加算されること になる。
[0238] 図 34は、図 33の閾値以上の帰属重みからなる嗜好値と、図 28のクラスタの帰属重 みを示すクラスタ情報と、図 30の階層毎の重みとから、式(3)で示される演算により 計算された類似度の例を示す図である。
[0239] U001であるユーザ IDで特定されるユーザの嗜好値であって、閾値以上の帰属重 み力 なる嗜好値の第 1層の帰属重みと、ユーザの嗜好値の帰属重みに対応する、 ABC123である楽曲 IDで特定される楽曲のクラスタ情報の第 1層の帰属重みと、第 1 の層の重みとが乗算され、乗算された結果が積算されると、図 34の ABC123である楽 曲 IDに対する第 1層に配置した値である 0. 15が求められる。同様に、第 2層、第 3層 、および第 4層について、 U001であるユーザ IDで特定されるユーザの嗜好値であつ て、閾値以上の帰属重みからなる嗜好値の帰属重みと、ユーザの嗜好値の帰属重 みに対応する、 ABC123である楽曲 IDで特定される楽曲のクラスタ情報の帰属重みと 、第 2層、第 3層、または第 4層のうちのその層の重みとが乗算され、乗算された結果 が積算されると、図 34の ABC123である楽曲 IDに対する第 2層、第 3層、および第 4 層のそれぞれに酉己置した値である 0. 05、 0. 00、 0. 00力 S求められる。
[0240] 最終的に、 U001であるユーザ IDで特定されるユーザの嗜好値と ABC123である楽 曲 IDで特定される楽曲のクラスタ情報との類似度は、第 1層、第 2層、第 3層、および 第 4層のそれぞれ【こつ!ヽて求められた 0. 15、 0. 05、 0. 00、および 0. 00をカロ算し た値である 0. 20とされる。
[0241] U001であるユーザ IDで特定されるユーザの嗜好値であって、閾値以上の帰属重 み力 なる嗜好値の第 1層の帰属重みと、ユーザの嗜好値の帰属重みに対応する、 CTH863である楽曲 IDで特定される楽曲のクラスタ情報の第 1層の帰属重みと、第 1 の層の重みとが乗算され、乗算された結果が積算されると、図 34の CTH863である楽 曲 IDに対する第 1層に配置した値である 0. 00が求められる。同様に、第 2層、第 3層 、および第 4層について、 U001であるユーザ IDで特定されるユーザの嗜好値であつ て、閾値以上の帰属重みからなる嗜好値の帰属重みと、ユーザの嗜好値の帰属重 みに対応する、 CTH863である楽曲 IDで特定される楽曲のクラスタ情報の帰属重みと 、第 2層、第 3層、または第 4層のうちのその層の重みとが乗算され、乗算された結果 が積算されると、図 34の CTH863である楽曲 IDに対する第 2層、第 3層、および第 4 層のそれぞれに配置した値である 0. 10、 0. 00、 0. 00が求められる。
[0242] 最終的に、 U001であるユーザ IDで特定されるユーザの嗜好値と CTH863である楽 曲 IDで特定される楽曲のクラスタ情報との類似度は、第 1層、第 2層、第 3層、および 第 4層のそれぞれ【こつ!ヽて求められた 0. 00、 0. 10、 0. 00、および 0. 00をカロ算し た値である 0. 10とされる。
[0243] U001であるユーザ IDで特定されるユーザの嗜好値であって、閾値以上の帰属重 み力 なる嗜好値の第 1層の帰属重みと、ユーザの嗜好値の帰属重みに対応する、 XYZ567である楽曲 IDで特定される楽曲のクラスタ情報の第 1層の帰属重みと、第 1 の層の重みとが乗算され、乗算された結果が積算されると、図 34の XYZ567である楽 曲 IDに対する第 1層に配置した値である 0. 07が求められる。同様に、第 2層、第 3層 、および第 4層について、 U001であるユーザ IDで特定されるユーザの嗜好値であつ て、閾値以上の帰属重みからなる嗜好値の帰属重みと、ユーザの嗜好値の帰属重 みに対応する、 XYZ567である楽曲 IDで特定される楽曲のクラスタ情報の帰属重みと 、第 2層、第 3層、または第 4層のうちのその層の重みとが乗算され、乗算された結果 が積算されると、図 34の XYZ567である楽曲 IDに対する第 2層、第 3層、および第 4層 のそれぞれに酉己置した値である 0. 00、 0. 00、 0. 00力 S求められる。
[0244] 最終的に、 U001であるユーザ IDで特定されるユーザの嗜好値と XYZ567である楽 曲 IDで特定される楽曲のクラスタ情報との類似度は、第 1層、第 2層、第 3層、および 第 4層のそれぞれ【こつ!ヽて求められた 0. 07、 0. 00、 0. 00、および 0. 00をカロ算し た値である 0. 08とされる。
[0245] ステップ S286乃至ステップ S292のそれぞれは、図 15のステップ S 126乃至ステツ プ S132のそれぞれと同様なので、その説明は省略する。
[0246] なお、それぞれの階層に属する帰属重みの分散である重みを用いると説明したが、 これに限らず、階層における帰属重みのばらつきが大きい場合により大きい値となる 重みを計算すればよぐ例えば、式 (4)によりエントロピー Hを算出し、 1からエントロピ 一 Hを弓 Iき算した結果得られる値である重みを計算するようにしてもよ!、。
H (| ) = ∑ h | G l og h | c … ( 4 )
c eC ( l)
[0247] このように、情報の欠落を最小限に抑えつつ、適切なコンテンツを選択するための 計算量を削減することができる。また、利用者がどのような情報に着目してコンテンツ を選択して ヽるかを確実に反映したコンテンツを提示することができるようになる。
[0248] なお、本明細書にぉ 、て、プログラムに基づ 、て実行されるステップは、記載された 順序に従って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されな くとも、並列的あるいは個別に実行される処理をも含むものである。
[0249] また、プログラムは、 1台のコンピュータにより処理されるものであってもよいし、複数 のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠 方のコンピュータに転送されて実行されるものであってもよい。
また、本明細書において、システムとは、複数の装置により構成される装置全体を 表すものである。

Claims

請求の範囲
[1] コンテンツ群のな力から所定の条件を満たすコンテンツを選択する情報処理装置 において、
前記コンテンツ群を構成する各コンテンツを、コンテンツのメタデータに応じた階層 のそれぞれにおいて複数の第 1のクラスタのいずれか〖こ分類するコンテンツ分類手 段と、
各コンテンツと各コンテンツのそれぞれが分類された前記階層における前記第 1の クラスタとの対応関係を示すデータベースを保持する保持手段と、
前記階層毎に前記所定の条件に対応する前記第 1のクラスタを指定し、指定した 前記第 1のクラスタに対応するコンテンツを特定する特定手段と、
前記特定手段によって特定された前記コンテンツを提示する提示手段と を含むことを特徴とする情報処理装置。
[2] 前記コンテンツ分類手段によって前記コンテンツが分類される各第 1のクラスタに、 ユーザの嗜好の程度を示す嗜好値を対応付けて記憶する記憶手段をさらに含み、 前記特定手段は、前記記憶手段によって記憶されて 、る嗜好値に基づ!、て前記 第 1のクラスタを指定し、指定した前記第 1のクラスタに対応するコンテンツを特定す る
ことを特徴とする請求項 1に記載の情報処理装置。
[3] 前記特定手段は、指定した前記第 1のクラスタに対応するコンテンツの中から、前 記嗜好値に応じた階層毎の重みにより重み付けした、ユーザのコンテンツの嗜好の 度合いを示す評価値で、さらにコンテンツを特定する
ことを特徴とする請求項 2に記載の情報処理装置。
[4] 前記コンテンツ分類手段によって前記コンテンツが分類される各第 1のクラスタに対 してキーワードを設定する設定手段と、
前記設定手段によって設定されたキーワードを用い、コンテンツの提示理由を表す 理由文を生成する生成手段とをさらに含み、
前記提示手段は、前記理由文も提示する
ことを特徴とする請求項 1に記載の情報処理装置。
[5] 前記コンテンツは楽曲であり、
前記メタデータには、前記楽曲のテンポ、ビート、またはリズムのうちの少なくとも 1 つが含まれる
ことを特徴とする請求項 1に記載の情報処理装置。
[6] 前記メタデータには、対応するコンテンツに対するレビューテキストが含まれる
ことを特徴とする請求項 1に記載の情報処理装置。
[7] コンテンツのメタデータを複数の第 2のクラスタのいずれかに分類し、第 2のクラスタ に前記階層を割り当てるメタデータ分類手段をさらに含み、
前記コンテンツ分類手段は、各コンテンツを、割り当てられた前記階層のそれぞれ にお 、て複数の第 1のクラスタの 、ずれかに分類する
ことを特徴とする請求項 1に記載の情報処理装置。
[8] 前記特定手段は、類似元となるコンテンツが分類される前記第 1のクラスタに対応 するコンテンツの中から、類似元となるコンテンツとの類似の度合いを示す類似度で 、さらにコンテンツを特定する
ことを特徴とする請求項 1に記載の情報処理装置。
[9] 前記特定手段は、類似元となるコンテンツの前記第 1のクラスタへの帰属の重みに 応じた階層毎の重みにより重み付けした前記類似度でコンテンツを特定する ことを特徴とする請求項 8に記載の情報処理装置。
[10] コンテンツ群のな力から所定の条件を満たすコンテンツを選択する情報処理装置 の情報処理方法において、
前記コンテンツ群を構成する各コンテンツを、コンテンツのメタデータに応じた階層 のそれぞれにお 、て複数のクラスタの!/、ずれかに分類する分類ステップと、
各コンテンツと各コンテンツのそれぞれが分類された前記階層における前記クラス タとの対応関係を示すデータベースを保持する保持ステップと、
前記階層毎に前記所定の条件に対応する前記クラスタを指定し、指定した前記クラ スタに対応するコンテンツを特定する特定ステップと、
特定された前記コンテンッを提示する提示ステップと
を含むことを特徴とする情報処理方法。 コンテンツ群のな力から所定の条件を満たすコンテンツを選択するためのプロダラ ムであって、
前記コンテンツ群を構成する各コンテンツを、コンテンツのメタデータに応じた階層 のそれぞれにお 、て複数のクラスタの!/、ずれかに分類する分類ステップと、
各コンテンツと各コンテンツのそれぞれが分類された前記階層における前記クラス タとの対応関係を示すデータベースを保持する保持ステップと、
前記階層毎に前記所定の条件に対応する前記クラスタを指定し、指定した前記クラ スタに対応するコンテンツを特定する特定ステップと、
特定された前記コンテンッを提示する提示ステップと
を含む処理をコンピュータに実行させることを特徴とするプログラム。
PCT/JP2006/311742 2005-06-16 2006-06-12 情報処理装置、方法、およびプログラム WO2006134866A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN2006800008473A CN101044484B (zh) 2005-06-16 2006-06-12 信息处理装置和信息处理方法
EP06766604A EP1804182A4 (en) 2005-06-16 2006-06-12 APPARATUS, METHOD AND PROGRAM FOR INFORMATION PROCESSING
US11/660,313 US7953735B2 (en) 2005-06-16 2006-06-12 Information processing apparatus, method and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005176519 2005-06-16
JP2005-176519 2005-06-16
JP2006151011A JP4752623B2 (ja) 2005-06-16 2006-05-31 情報処理装置、情報処理方法、およびプログラム
JP2006-151011 2006-05-31

Publications (1)

Publication Number Publication Date
WO2006134866A1 true WO2006134866A1 (ja) 2006-12-21

Family

ID=37532228

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/311742 WO2006134866A1 (ja) 2005-06-16 2006-06-12 情報処理装置、方法、およびプログラム

Country Status (6)

Country Link
US (1) US7953735B2 (ja)
EP (1) EP1804182A4 (ja)
JP (1) JP4752623B2 (ja)
KR (1) KR20080011643A (ja)
CN (1) CN101044484B (ja)
WO (1) WO2006134866A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008234819A (ja) * 2006-12-29 2008-10-02 Harman Internatl Industries Inc 個人化されたコンテンツを備える車両インフォテインメントシステム
JP2015084240A (ja) * 2009-06-18 2015-04-30 コア ワイヤレス ライセンシング エス.アー.エール.エル. コンテンツを分類するための方法および装置

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100850774B1 (ko) * 2006-11-13 2008-08-06 삼성전자주식회사 컨텐츠 분류 방법 및 그 방법을 수행할 수 있는 컨텐츠재생 장치
JP4979000B2 (ja) * 2007-01-05 2012-07-18 Kddi株式会社 情報検索方法、装置およびプログラム
JP2008257414A (ja) * 2007-04-04 2008-10-23 Toyota Central R&D Labs Inc 情報選択支援システム、端末装置、情報選択支援装置、情報選択支援方法、プログラム
JP4389973B2 (ja) 2007-06-26 2009-12-24 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP5135931B2 (ja) * 2007-07-17 2013-02-06 ヤマハ株式会社 楽曲加工装置およびプログラム
JP4433326B2 (ja) 2007-12-04 2010-03-17 ソニー株式会社 情報処理装置および方法、並びにプログラム
US20110060738A1 (en) 2009-09-08 2011-03-10 Apple Inc. Media item clustering based on similarity data
CN102088750B (zh) * 2009-12-08 2014-08-06 中国移动通信集团公司 一种多入多出技术中的传播径分簇方法和装置
JP5516720B2 (ja) 2010-03-26 2014-06-11 富士通株式会社 カテゴリ生成プログラム、カテゴリ生成装置およびカテゴリ生成方法
JP2012027845A (ja) * 2010-07-27 2012-02-09 Sony Corp 情報処理装置、関連文提供方法、及びプログラム
US9204200B2 (en) * 2010-12-23 2015-12-01 Rovi Technologies Corporation Electronic programming guide (EPG) affinity clusters
US8577876B2 (en) * 2011-06-06 2013-11-05 Met Element, Inc. System and method for determining art preferences of people
JP5551761B2 (ja) * 2012-02-02 2014-07-16 株式会社コナミデジタルエンタテインメント 情報提供システム、サーバ装置、コンピュータプログラムおよび制御方法
WO2013114753A1 (ja) * 2012-02-02 2013-08-08 株式会社コナミデジタルエンタテインメント 情報提供システム、サーバ装置、記録媒体および制御方法
WO2013114754A1 (ja) * 2012-02-02 2013-08-08 株式会社コナミデジタルエンタテインメント 情報提供システム、サーバ装置、記録媒体および制御方法
AU2014219089B2 (en) 2013-02-25 2019-02-14 Nant Holdings Ip, Llc Link association analysis systems and methods
JP2015036892A (ja) 2013-08-13 2015-02-23 ソニー株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2015056139A (ja) * 2013-09-13 2015-03-23 株式会社東芝 電子機器、番組推奨システム、番組推奨方法及び番組推奨プログラム
KR20160051983A (ko) * 2014-10-30 2016-05-12 현대자동차주식회사 차량의 음악 추천 시스템 및 그 방법
WO2016098589A1 (ja) * 2014-12-15 2016-06-23 ソニー株式会社 情報処理装置、情報処理方法、プログラム、および情報処理システム
US10776333B2 (en) * 2016-07-22 2020-09-15 International Business Machines Corporation Building of object index for combinatorial object search
US10936653B2 (en) 2017-06-02 2021-03-02 Apple Inc. Automatically predicting relevant contexts for media items
CN109448684B (zh) * 2018-11-12 2023-11-17 合肥科拉斯特网络科技有限公司 一种智能编曲方法和系统
US10922337B2 (en) * 2019-04-30 2021-02-16 Amperity, Inc. Clustering of data records with hierarchical cluster IDs
US11003643B2 (en) * 2019-04-30 2021-05-11 Amperity, Inc. Multi-level conflict-free entity clusterings
GB2585890B (en) * 2019-07-19 2022-02-16 Centrica Plc System for distributed data processing using clustering
WO2021059473A1 (ja) * 2019-09-27 2021-04-01 ヤマハ株式会社 音響解析方法、音響解析装置およびプログラム
CN113704597A (zh) * 2020-05-21 2021-11-26 阿波罗智联(北京)科技有限公司 内容推荐方法、装置和设备
JP2022126099A (ja) * 2021-02-18 2022-08-30 富士通株式会社 情報処理プログラム、情報処理方法及び情報処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004035340A (ja) * 2002-07-04 2004-02-05 Sharp Corp 基板、その基板を用いた板状体の製造方法、板状体およびその板状体から作製した太陽電池
JP2004117587A (ja) * 2002-09-24 2004-04-15 Xing Inc 選曲支援装置
JP2004206679A (ja) * 2002-12-12 2004-07-22 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2809341B2 (ja) * 1994-11-18 1998-10-08 松下電器産業株式会社 情報要約方法、情報要約装置、重み付け方法、および文字放送受信装置。
US20050038819A1 (en) 2000-04-21 2005-02-17 Hicken Wendell T. Music Recommendation system and method
US6411724B1 (en) * 1999-07-02 2002-06-25 Koninklijke Philips Electronics N.V. Using meta-descriptors to represent multimedia information
US7162482B1 (en) * 2000-05-03 2007-01-09 Musicmatch, Inc. Information retrieval engine
EP1156430A2 (en) * 2000-05-17 2001-11-21 Matsushita Electric Industrial Co., Ltd. Information retrieval system
JP3707361B2 (ja) * 2000-06-28 2005-10-19 日本ビクター株式会社 情報提供サーバ及び情報提供方法
US7073193B2 (en) * 2002-04-16 2006-07-04 Microsoft Corporation Media content descriptions
US7194527B2 (en) 2002-06-18 2007-03-20 Microsoft Corporation Media variations browser
US7657907B2 (en) * 2002-09-30 2010-02-02 Sharp Laboratories Of America, Inc. Automatic user profiling
JP4003127B2 (ja) * 2002-12-12 2007-11-07 ソニー株式会社 情報処理装置および情報処理方法、情報処理システム、記録媒体、並びにプログラム
JP2004199544A (ja) * 2002-12-20 2004-07-15 Mitsubishi Electric Corp 商品提案支援装置及び商品提案支援方法及びプログラム及びプログラムを記録したコンピュータ読み取り可能な記録媒体
US7120619B2 (en) 2003-04-22 2006-10-10 Microsoft Corporation Relationship view
JP2004355340A (ja) * 2003-05-29 2004-12-16 Sony Corp 情報処理装置および方法、プログラム、並びに記録媒体
JP4305836B2 (ja) * 2003-08-29 2009-07-29 日本ビクター株式会社 コンテンツ検索表示装置およびコンテンツ検索表示方法
US7693827B2 (en) * 2003-09-30 2010-04-06 Google Inc. Personalization of placed content ordering in search results
JP2006048286A (ja) * 2004-08-03 2006-02-16 Sony Corp 情報処理装置および方法、並びにプログラム
US7558769B2 (en) * 2005-09-30 2009-07-07 Google Inc. Identifying clusters of similar reviews and displaying representative reviews from multiple clusters

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004035340A (ja) * 2002-07-04 2004-02-05 Sharp Corp 基板、その基板を用いた板状体の製造方法、板状体およびその板状体から作製した太陽電池
JP2004117587A (ja) * 2002-09-24 2004-04-15 Xing Inc 選曲支援装置
JP2004206679A (ja) * 2002-12-12 2004-07-22 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1804182A4 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008234819A (ja) * 2006-12-29 2008-10-02 Harman Internatl Industries Inc 個人化されたコンテンツを備える車両インフォテインメントシステム
JP2010049270A (ja) * 2006-12-29 2010-03-04 Harman Internatl Industries Inc 個人化されたコンテンツを備える車両インフォテインメントシステム
JP2011076709A (ja) * 2006-12-29 2011-04-14 Harman Internatl Industries Inc 個人化されたコンテンツを備える車両インフォテインメントシステム
JP2015084240A (ja) * 2009-06-18 2015-04-30 コア ワイヤレス ライセンシング エス.アー.エール.エル. コンテンツを分類するための方法および装置
US9514472B2 (en) 2009-06-18 2016-12-06 Core Wireless Licensing S.A.R.L. Method and apparatus for classifying content

Also Published As

Publication number Publication date
EP1804182A4 (en) 2007-12-12
US7953735B2 (en) 2011-05-31
CN101044484B (zh) 2010-05-26
CN101044484A (zh) 2007-09-26
US20090043811A1 (en) 2009-02-12
JP2007026425A (ja) 2007-02-01
JP4752623B2 (ja) 2011-08-17
EP1804182A1 (en) 2007-07-04
KR20080011643A (ko) 2008-02-05

Similar Documents

Publication Publication Date Title
WO2006134866A1 (ja) 情報処理装置、方法、およびプログラム
JP4378646B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US10275499B2 (en) Tag selection, clustering, and recommendation for content hosting services
JP4622808B2 (ja) 楽曲分類装置、楽曲分類方法、楽曲分類プログラム
US7912565B2 (en) Method for creating and accessing a menu for audio content without using a display
CN101821735B (zh) 生成与内容项的集合相关联的元数据
KR101194705B1 (ko) 연관된 컨텐츠의 검색에 의한 위치 유사성 문턱값의 적응화
US20090158155A1 (en) Playlist generation, delivery and navigation
KR101540429B1 (ko) 콘텐츠 플레이 리스트 추천 방법 및 장치
US20100217755A1 (en) Classifying a set of content items
US20090063568A1 (en) Method and apparatus for constructing user profile using content tag, and method for content recommendation using the constructed user profile
WO2001020483A2 (en) Finding perceptually similar music with precomputation
JP2000035974A (ja) 主観的画像内容類似性に基づく検索用の方法及びコンピュ―タプログラム製品
WO2001003002A2 (en) Meta-descriptor for multimedia information
WO2007013390A1 (ja) 情報処理装置、特徴抽出方法、記録媒体、および、プログラム
JP2009500670A (ja) エレメントのシーケンスの発生の方法及び装置
JP2008522311A (ja) コンテンツアイテムの関連付けに基づく自動的なコンテンツ整理
Stenzel et al. Improving Content-Based Similarity Measures by Training a Collaborative Model.
JP2002342360A (ja) 情報提供装置、その方法、そのコンピュータ・プログラムおよびそのプログラムを記録した記録媒体
CN112800270A (zh) 基于音乐标签和时间信息的音乐推荐方法及系统
Goh et al. User song preferences using artificial intelligence
JP2690861B2 (ja) 情報再生装置
Yu Case Study: Artificial Intelligence in Spotify

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2006766604

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 1127/DELNP/2007

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 1020077003694

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 200680000847.3

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2006766604

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 11660313

Country of ref document: US