WO2010109709A1 - コンテンツ推薦装置及び方法 - Google Patents

コンテンツ推薦装置及び方法 Download PDF

Info

Publication number
WO2010109709A1
WO2010109709A1 PCT/JP2009/067809 JP2009067809W WO2010109709A1 WO 2010109709 A1 WO2010109709 A1 WO 2010109709A1 JP 2009067809 W JP2009067809 W JP 2009067809W WO 2010109709 A1 WO2010109709 A1 WO 2010109709A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
interest
user
topic
keyword
Prior art date
Application number
PCT/JP2009/067809
Other languages
English (en)
French (fr)
Inventor
山崎 智弘
鈴木 優
Original Assignee
株式会社東芝
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝 filed Critical 株式会社東芝
Publication of WO2010109709A1 publication Critical patent/WO2010109709A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/435Filtering based on additional data, e.g. user or group profiles
    • G06F16/437Administration of user profiles, e.g. generation, initialisation, adaptation, distribution

Definitions

  • the present invention relates to a content recommendation device and method.
  • the viewpoint that each user is paying attention to may be different.
  • it has been difficult to appropriately determine the viewpoint that the user is paying attention to because the user has not taken into account what interest the user has viewed the content. For this reason, there is a possibility that the same other content is uniformly recommended for a user who has viewed the same content.
  • the present invention has been made in view of the above, and an object of the present invention is to provide a content recommendation apparatus and method that can recommend content according to the transition of interest of each user.
  • the present invention is a content recommendation device, an extraction means for extracting a subject keyword from content, and a browsing history showing a browsing history of the content for each time A topic that includes a set of keywords related to the same topic for each topic, using a first storage unit that stores information for each user and a keyword that co-occurs in the browsing history information in a content whose browsing time is continuous.
  • the generation means for generating a tree for each user, and calculating the degree of association between the keyword extracted from the content being browsed by the user and each keyword included in the topic tree.
  • a first estimating means for estimating the interest transition history information a second storage means for storing the interest transition history information indicating the history of interest for each time, and the interest transition history information.
  • Second estimation means for estimating a transition direction in which the user's interest will transition; and determination means for determining a guidance set related to a topic that guides the user from the set based on the transition direction;
  • an acquisition unit that acquires content to be presented to a user based on the keyword included in the guidance set, and a presentation unit that presents the content.
  • the present invention provides an extraction unit, a first storage control unit, a generation unit, a first estimation unit, a second storage control unit, a second estimation unit, a determination unit, an acquisition unit, and a presentation unit.
  • a content recommendation method executed by a content recommendation device wherein the extraction unit extracts a keyword as a subject from the content, and the first storage control unit displays a history of browsing the content for each time The first storage control step of storing the browsing history information shown in FIG.
  • a first estimation step for estimating a user's interest by calculating a degree of association between the keyword and each keyword included in the topic tree, and the second storage control means A second storage control step for storing the interest transition history information to be stored in the second storage means for each time, and a transition in which the user's interest will transition by using the interest transition history information in the second estimation means.
  • the flowchart which shows the procedure of the process which produces
  • requires a cooccurrence keyword set.
  • the content recommendation device includes a main storage unit such as a ROM (Read Only Memory) and a RAM (Random Access Memory) that stores various data and various programs, an HDD (Hard Disk Drive) and a CD (CD) that stores various data and various programs.
  • main storage unit such as a ROM (Read Only Memory) and a RAM (Random Access Memory) that stores various data and various programs
  • HDD Hard Disk Drive
  • CD Compact disk
  • Auxiliary storage unit such as a drive device and a bus for connecting them are provided, and a hardware configuration using a normal computer is used.
  • a display unit that displays information
  • an operation unit such as a keyboard and a mouse that accepts user's instruction input
  • a communication unit that controls communication with an external device are connected to the content recommendation device by wire or wirelessly.
  • the communication unit controls communication via the network
  • the content recommendation device is connected to a search device or other content recommendation device that searches for content as an external device via the communication unit.
  • the network is, for example, a LAN (Local Area Network), an intranet, Ethernet (registered trademark), or the Internet.
  • FIG. 1 is a diagram illustrating a functional configuration of the content recommendation device 100.
  • the content recommendation device 100 includes a subject keyword extraction unit 101, a content transition history storage unit 102, a topic tree generation unit 103, an interest estimation unit 104, an interest transition history storage unit 105, an interest transition direction estimation unit 106, A guidance destination determination unit 107 and a content acquisition unit 108 are included.
  • the subject keyword extraction unit 101, the topic tree generation unit 103, the interest estimation unit 104, the interest transition direction estimation unit 106, the guidance destination determination unit 107, and the content acquisition unit 108 include a RAM or the like when the CPU program is executed. It is generated in the main memory unit.
  • the content transition history storage unit 102 and the interest transition history storage unit 105 are storage areas generated in an auxiliary storage unit such as an HDD.
  • the subject keyword extraction unit 101 extracts a keyword that is the subject of the content from the content, and the browsing history information indicating the browsing history of the content is stored in the content transition history storage unit 102.
  • the theme keyword extraction unit 101 deletes a part that is presumed not to be the subject of the content from the content, extracts a part that is the subject of the content (referred to as a subject part), and extracts the subject from the subject part. At least one keyword is extracted.
  • the content is a set of information such as sentences, music, images, videos, and databases expressed in digital data, or a combination of these.
  • the part that is not the subject of the content is, for example, a header, a footer, an advertisement, or a collection of links.
  • the subject portion is, for example, a portion that occupies more than half of the area constituting the content and includes a sentence.
  • the theme keyword extraction unit 101 divides the sentence into paragraphs, for example, and sets each paragraph as a subject part from each subject part.
  • Each keyword may be extracted.
  • the keyword is, for example, a fixed expression such as a monetary amount or time, a proper noun such as a person name or a place name, or a category of an object such as a food or animal or plant name.
  • the theme keyword extraction unit 101 extracts such keywords as follows, for example.
  • the content recommendation device 100 includes a semantic attribute dictionary in which keywords and semantic attributes are associated in advance, and the subject keyword extraction unit 101 performs matching between the semantic attribute dictionary and the subject portion. Extract keywords from thematic parts.
  • the content recommendation device 100 stores in advance a semantic attribute rule that associates a character string arrangement rule or a morpheme arrangement rule with a semantic attribute, and the subject keyword extraction unit 101 stores the semantic attribute rule.
  • a keyword is extracted from the subject portion by matching the subject portion with the subject portion.
  • the theme keyword extraction unit 101 stores the browsing history information indicating the browsing history of the content from which the keyword has been extracted in the content transition history storage unit 102.
  • the content transition history storage unit 102 stores browsing history information.
  • the browsing history information indicates what content was browsed at what time and in what order, and includes a browsing date, a browser ID, a tab ID, and a URL.
  • the browser ID is an identifier for identifying each browser when a plurality of web browsers can be activated on a personal computer or the like.
  • the tab ID is an identifier for identifying each tab when a plurality of web browsers can be activated by the tab.
  • FIG. 4 is a diagram illustrating browsing history information. In the figure, the browser with browser ID “1” is launched at the browsing date “2008/1510 11:12”, and the content of URL “http: // aaa” is displayed on the tab with tab ID “1-1”.
  • the topic tree generation unit 103 Based on the browsing history information stored in the content transition history storage unit 102, the topic tree generation unit 103 obtains a set of keywords (co-occurrence keyword set) that co-occurs between contents for continuous content,
  • a topic tree is generated by hierarchical clustering.
  • continuous contents are two contents whose browsing date and time are before and after regardless of browser ID, tab ID, and time interval. It is good also as two contents to do.
  • the number of continuous contents is not limited to two, and may be a preset number N, or may be the number of contents included in a preset time interval with a difference in browsing date and time. good.
  • the topic tree generation unit 103 obtains a co-occurrence keyword set from such continuous content as follows, for example.
  • the topic tree generation unit 103 obtains keywords appearing in all the continuous content as a co-occurrence keyword set.
  • keywords appearing in M (N> M) or more of the N contents may be set as a co-occurrence keyword set.
  • the topic tree generation unit 103 obtains a co-occurrence keyword set for each continuous content in this way, calculates conditional appearance probabilities between all keywords for the obtained co-occurrence keyword set, A co-occurrence relation graph representing the co-occurrence relation is generated.
  • the topic tree generation unit 103 generates a co-occurrence relation graph between keywords by setting all keywords as vertices and drawing a directed edge between the keywords when the conditional appearance probability is larger than a preset first threshold value ⁇ . To do. FIG.
  • each meaning is not distinguished from a keyword having a plurality of meanings and so-called ambiguity, but each meaning is divided by dividing the vertex for each meaning. You may make it handle separately.
  • the topic tree generation unit 103 uses the co-occurrence relationship graph generated in this manner to merge keywords that are estimated to be related to the same topic with a high degree of association into a new cluster one after another.
  • the degree of association may be the sum of conditional probabilities when there are directed edges in both directions in the co-occurrence relation graph, or the conditional probability when there are directed edges in only one direction in the co-occurrence relation graph. You may use what multiplied an appropriate coefficient.
  • the topic tree generation unit 103 first generates, for each keyword of the co-occurrence relationship graph, a cluster having the number of elements “1” including only each keyword, and then generates the two relations having the highest degree of association. Find a cluster.
  • the feature vector is generated by giving a weight like idf to each keyword included in the cluster.
  • the topic tree generation unit 103 obtains a cluster having the highest degree of relevance with respect to the cluster set by deleting the cluster of the feature vector A and the cluster of the feature vector B and adding the cluster of the feature vector C in this way.
  • To perform hierarchical clustering As a result, a topic tree in which clusters including keywords related to the same topic are included for each topic as each node and each cluster is hierarchically generated is generated.
  • the hierarchy between clusters makes the cluster which the direction of the directed side faces high, and makes the cluster which goes to the tip of the directed side low. That is, a cluster including a keyword that is a destination in a co-occurrence relationship is higher, and a cluster including a keyword that is a source in a co-occurrence relationship is lower.
  • the cluster is related to a broader and shallower topic as it is higher in the hierarchy, and is related to a narrower and deeper topic as it is lower in the hierarchy.
  • the topic tree generation unit 103 temporarily stores the topic tree generated as described above in a main storage unit such as a RAM.
  • FIG. 6 is a diagram illustrating a topic tree.
  • the topic tree shown in the figure is generated based on the co-occurrence graph shown in FIG.
  • Each is shown as a node.
  • Each node is preferably assigned a node ID that can identify each node.
  • ND1 to ND4 are assigned to each node.
  • Such a topic tree can be generated differently for each user because different co-occurrence keyword sets are different if the content transitions are different even if different users view the same content.
  • the interest estimation unit 104 causes the subject keyword extraction unit 101 to extract a keyword from the content every time the user browses the content, and extracts each of the extracted keyword and the topic tree generated by the topic tree generation unit 103.
  • the interest estimation unit 104 calculates the degree of association between this keyword and the keyword included in each cluster of the topic tree, and searches for a cluster (referred to as an interest node) having the largest degree of association, thereby obtaining the user. Estimate interest.
  • the interest estimation unit 104 calculates the keyword relevance by, for example, generating a feature vector having a weight such as idf for each keyword and calculating a cosine similarity between the feature vectors.
  • the clusters for which the degree of association is calculated may be all clusters included in the topic tree, or only a part of the clusters. For example, since it is considered that interest does not shift to topics that are completely unrelated to the content being browsed, the degree of relevance is limited to clusters that are within a certain range from the cluster that includes the keywords extracted from the content that was browsed immediately before. It is good also as the object of calculation.
  • FIG. 7 is a diagram illustrating the degree of association between a keyword extracted from content viewed by a user and a keyword included in each cluster of the topic tree.
  • the cluster having the highest degree of relevance is a cluster including the keywords “Yokohama”, “Frontale”, and “F Marinos”. For this reason, this is a node of interest which is a cluster estimated to be related to a topic of interest to the user.
  • the interest estimation unit 104 estimates the interest of the user, searches for an interest node as an entity of interest, and acquires it. Then, the interest estimation unit 104 generates interest transition history information indicating the transition of the interested node for each browsing time, and stores this in the interest transition history storage unit 105.
  • the interest estimation unit 104 displays the interest transition history indicating the topic tree itself together with the interest node. Generate information. For example, when the topic tree is fixed until the user exits the Web browser, the interest transition history information may indicate only the above-described node ID assigned to the cluster that is the interested node. .
  • the interest transition history storage unit 105 stores the interest transition history information for each browsing time.
  • FIG. 8 is a diagram illustrating interest transition history information.
  • the interest transition history information indicates the interest node and the topic tree itself, and is acquired, for example, in a situation where a user who is planning a trip is investigating a tourist spot to stop as a travel destination. Suppose there is.
  • the interest transition direction estimation unit 106 estimates the transition direction in which the interest will transition based on the transition of the interested node indicated by the interest transition history information stored in the interest transition history storage unit 105. Thereby, a short-term transition of the user's interest is estimated. Specifically, for example, the interest transition direction estimation unit 106 calculates the number of times of up and down transitions and the number of times of left and right transitions within the topic tree hierarchy within a preset number of times or periods. And, for example, if the number of transitions up and down within a particular subtree is a first predetermined number or more when it is a partial tree of the topic tree, if the detailed information about the topic related to that subtree is requested, the interest transition direction The estimation unit 106 estimates.
  • the interest transition direction estimation unit 106 estimates that the transition direction is downward.
  • the interest transition direction estimation unit 106 estimates that a wide range of information is required. In this case, the interest transition direction estimation unit 106 estimates that the transition direction is either left or right.
  • the interest transition direction estimation unit 106 estimates that the topic is soon bored. In this case, the interest transition direction estimation unit 106 estimates that the transition direction is either up, down, left, or right in order to force the interest node to transition. In the example of FIG. 8, since the user has not yet narrowed down the candidates as travel destinations and is searching for information in related topics widely and shallowly, it is estimated that interest has shifted to the left and right in the subtree.
  • the interest transition direction estimation unit 106 continues to be in the other cluster (not shown) that is not under the node IDs “ND3” and “ND4” under the node ID “ND2” cluster. It is estimated that the interest will change in the horizontal direction, such as a cluster with ID “ND5” or a cluster with node ID “ND6”. Conversely, for example, when “Osaka Castle” is narrowed down as a candidate for a travel destination, the user tries to obtain more detailed information related to “Osaka Castle” and is under the node ID “ND4” cluster. Many transitions are made up and down in a subtree (not shown) that does not include the clusters of IDs “ND3” and “ND4”. In that case, the interest transition direction estimation unit 106 estimates that the interest of the user transitions in the vertical direction.
  • the guidance destination determination unit 107 determines a cluster (referred to as a guidance destination node) related to a topic that guides the user based on the transition direction estimated by the interest transition direction estimation unit 106. For example, when the interest transition direction estimation unit 106 estimates that the transition direction is down, the guidance destination determination unit 107 selects one cluster below the node of interest estimated by the interest estimation unit 104 in the topic tree. Determine as a node. When the interest transition direction estimation unit 106 estimates that the transition direction is either left or right, the guidance destination determination unit 107 is in the sibling relationship on the left and right of the interest node estimated by the interest estimation unit 104 in the topic tree. One cluster is determined as a guidance destination node.
  • a cluster in a sibling relationship means that the cluster in the hierarchy one level above each other's cluster is the same.
  • the guidance destination determination unit 107 determines the guidance destination node as follows, for example. The guidance destination determination unit 107 randomly selects one from a plurality of clusters as a guidance destination node. Alternatively, when the topic tree generation unit 103 generates a topic tree, an order is set in advance for each cluster, and the guidance destination determination unit 107 determines the cluster as a guidance destination node using the order. Alternatively, the guidance destination determination unit 107 determines a guidance destination node by giving priority to a cluster having a high conditional appearance probability between clusters. Alternatively, the guidance destination determination unit 107 determines the guidance destination node with priority given to the cluster related to the interested node whose browsing date and time is closest to the current date and time among the interested nodes indicated in the transition history information.
  • FIG. 9 is a diagram conceptually illustrating, for example, a method of determining a guidance destination node when the transition direction is down or left and right and no cluster exists in the direction.
  • the guidance destination determination unit 107 determines a cluster one node higher than the interest node estimated by the interest estimation unit 104 as a guidance destination node. If the interested node is the root in the topic tree, there is no cluster above it.
  • the guidance destination determination unit 107 derives one cluster below or on the left and right of the interested node. What is necessary is just to determine as a destination node. Also, as shown in (B) of the figure, the guidance destination determination unit 107 goes back to the layer above the node of interest estimated by the interest estimation unit 104, and replaces the cluster in which the cluster exists below or on the left and right with the node of interest. Then, one cluster below or on the left and right of the node of interest is determined as the guidance destination node. Also, as shown in FIG. 5C, the guide destination determination unit 107 communicates with other content recommendation devices via the communication unit and the network, and uses other usages stored in the other content recommendation devices. The user's topic tree is searched, a cluster corresponding to the guidance destination node is determined in the topic tree, a cluster corresponding to the cluster is searched in the topic tree of the content recommendation device 100, and this is determined as the guidance destination node. .
  • the content acquisition unit 108 acquires content to be presented to the user based on the guidance destination node determined by the guidance destination determination unit 107, and presents the content to the user. Specifically, in order to induce the user's interest to the guidance destination node determined by the guidance destination determination unit 107, the content acquisition unit 108 includes a sentence in which each keyword included in the interest node is connected by “OR”, and a guidance. A sentence in which each keyword included in the destination node is connected by “OR” to a sentence connected by “OR” is generated as a search query. Next, the content acquisition unit 108 transmits the generated search query to the search device via the communication unit, and receives a search result that is a result of the search device searching for content using the search query.
  • the content acquisition unit 108 causes the subject keyword extraction unit 101 to extract keywords from each content that is a search result. Then, the content acquisition unit 108 is a content in which the degree of association between the extracted keyword, the keyword included in the interested node, and the keyword included in the guidance destination node is equal to or greater than the third threshold value in order to smooth the topic transition. Is selected as the content to be presented to the user. The degree of association is the same as the degree of association calculated by the interest estimation unit 104 described above, for example. And the content acquisition part 108 is shown to a user by displaying the selected content on a display part, for example. In this way, the content is recommended to the user.
  • step S ⁇ b> 1 the content recommendation device 100 extracts, from the content, a keyword that is the subject of the content browsed by the user by the function of the subject keyword extraction unit 101, and the browsing history information of the content is stored in the content transition history storage unit 102.
  • step S ⁇ b> 2 the content recommendation device 100 uses the function of the topic tree generation unit 103 based on the browsing history information stored in the content transition history storage unit 102 to search for keywords that co-occur between content with respect to continuous content. A co-occurrence keyword set which is a set is obtained.
  • FIG. 11 is a flowchart showing a processing procedure for obtaining a co-occurrence keyword set.
  • the content recommendation device 100 arranges contents indicated by browsing history information stored in the content transition history storage unit 102 in order of browsing date and time.
  • the content recommendation device 100 takes out one content (referred to as content C1) in order of browsing date.
  • a co-occurrence keyword set which is a set of keywords co-occurring in, is obtained.
  • step S3 the content recommendation device 100 generates a co-occurrence relation graph representing the co-occurrence relation between keywords as shown in FIG. 6, using the co-occurrence keyword set obtained in step S2.
  • step S4 the content recommendation device 100 performs hierarchical clustering using the co-occurrence relationship graph generated in step S3, generates a topic tree as shown in FIG. 7, and temporarily stores it in the main storage unit.
  • step S1 the content recommendation device 100 extracts a keyword as a theme from the content by the function of the theme keyword extraction unit 101 every time the user browses the content, and then in step S40, the function of the interest estimation unit 104 By calculating the degree of association between the extracted keyword and the keyword included in each cluster that is each node of the topic tree stored in the main storage unit, the interest of the user who is browsing the content is calculated. And an interest node which is an entity of interest is obtained.
  • FIG. 13 is a flowchart showing a processing procedure for acquiring a node of interest.
  • the content recommendation device 100 initializes a temporary relevance level (referred to as a temporary relevance level) to “0” and initializes a node ID of a temporary interest node (referred to as a temporary interest node).
  • the content recommendation device 100 determines whether or not there is a node to be extracted in the topic tree stored in the main storage unit. If there is a node to be extracted (step S61: YES), in step S62, 1 is set. Retrieve one node.
  • the content recommendation device 100 calculates the degree of association between the keyword extracted in step S1 and the keyword included in the node extracted in step S62.
  • step S64 the content recommendation device 100 determines whether or not the degree of association calculated in step S63 is greater than the provisional degree of association. If the degree of association is greater than the provisional degree of association (step S64: YES), in step S65, the content recommendation device 100 updates the provisional degree of association value to the value of the degree of association calculated in step S63, and provisional interest. The node ID of the node is updated to the node ID of the node extracted in step S62, and the process returns to step S61. If the determination result in step S64 is negative, the process returns to step S61.
  • step S61 When the processing in steps S61 to S65 is completed for all nodes in the topic tree, the determination result in step S61 is negative, and the content recommendation device 100 ends the processing for estimating the user's interest. In this way, the content recommendation device 100 calculates the relevance level of the keyword for each node, and updates the node for which the greater relevance level is calculated as a temporary interest node. Can be obtained as Then, the content recommendation device 100 stores the interest transition history information indicating the transition of the topic tree and the interested node in the interest transition history storage unit 105 for each browsing time.
  • step S41 the content recommendation device 100 estimates the transition direction by the function of the interest transition direction estimation unit 106 based on the transition of the interested node indicated by the interest transition history information stored in the interest transition history storage unit 105. To do.
  • step S42 the content recommendation device 100 determines a guide destination node by the function of the guide destination determination unit 107 based on the transition direction estimated in step S41.
  • step S80 the content recommendation device 100 communicates with another content recommendation device via the communication unit and the network, searches for a topic tree of another user stored in the other content recommendation device, and step S81. Then, it is determined whether there is a topic tree. If there is no topic tree (step S81: NO), the process ends as a failure.
  • step S82 the content recommendation device 100 acquires a topic tree, and in the topic tree, a node having a high degree of association with the related node acquired in step S40 is associated with the corresponding interest. It is determined as a node (referred to as a corresponding interested node).
  • the degree of association is the degree of association between the keyword included in the related node acquired in step S40 and the keyword included in the node of the topic tree of another user acquired in step S82.
  • the calculation method of the degree of association is the same as that in step S62 described above.
  • step S83 the content recommendation device 100 determines whether or not there is a node below or on the left and right of the corresponding interested node in the topic tree of the other user acquired in step S82.
  • step S83: YES the content recommendation device 100 corresponds one of the nodes below or on the left and right of the corresponding interested node to the guidance destination node. It is determined as a node to be made (referred to as a corresponding guidance destination node).
  • step S85 the content recommendation device 100 stores, as a guidance destination node, a node whose degree of association with the corresponding guidance destination node is a predetermined value or more in the topic tree of the user of the content recommendation device 100 stored in the main storage unit. Confirm and end the process.
  • the degree of association is the degree of association between the keyword included in the corresponding guidance destination node and the keyword included in the node of the user's topic tree in the content recommendation device 100.
  • the calculation method of the degree of association is the same as that in step S63 described above. If the determination result in step S83 is negative, the process returns to step S81, and if there is a new topic tree, the process in steps S82 to S85 is repeated.
  • the content recommendation device 100 determines a node that is not related to the user's interest node but is related to the user but is related to the other user as a guidance destination node. Can do. For this reason, it becomes possible to recommend content that is surprising to the user of the content recommendation device 100.
  • step S43 the content recommendation device 100 acquires and presents the content to be presented to the user based on the guidance destination node determined in step S42 by the function of the content acquisition unit 108.
  • FIG. 15 is a flowchart showing a processing procedure for acquiring content and presenting the content.
  • the content recommendation device 100 connects each keyword included in the interested node acquired in step S40 with “OR”, and in step S101, each keyword included in the guidance destination node determined in step S42 is “OR”. Connect with.
  • the content recommendation apparatus 100 generates, as a search query, a sentence in which the sentence connected in step S100 and the sentence connected in step S102 are connected by “AND”, and generates the search query via the communication unit and the network. Send to.
  • step S103 the content recommendation device 100 determines whether or not the search device has received a search result that is a result of searching for content using the search query.
  • step S104 the content recommendation device 100 extracts a keyword from each content that is the search result by the function of the subject keyword extraction unit 101, and the keyword and the interested node The degree of association between the keyword included in the keyword and the keyword included in the guidance destination node is calculated.
  • step S105 the content recommendation device 100 selects content whose relevance calculated in step S104 is the third threshold or more as content to be presented to the user, and in step S106, presents the selected content to the user. . In this way, the content is recommended to the user. If the determination result in step S103 is negative, the content recommendation device 100 presents information indicating that there is no recommended content to the user.
  • the browsing history including the transition relation of content such as what content the user browsed at what date and in what order is collected and used by using the browsing history.
  • a set of keywords that the user is interested in is classified hierarchically, and a topic tree for each user that reflects medium- to long-term preferences is generated.
  • the interest of the user browsing the content is calculated by calculating the degree of association between the keyword extracted from the content and the keyword included in each node of the topic tree. Estimate where. Based on the estimated interest, by estimating the transition direction in which the interest will transition, the short-term interest transition of the user is grasped, and the guidance destination node that guides the user is determined.
  • the content is recommended by presenting the content related to the guidance destination node to the user.
  • the content related to the guidance destination node is presented to forcibly shift the user's interest and attract new interest. Users can browse content.
  • various programs executed by the content recommendation device 100 may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network.
  • the various programs are recorded in a computer-readable recording medium such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk), etc. in a file that can be installed or executed.
  • the computer program product may be provided.
  • the browsing history information for one user is stored in the content transition history storage unit 102
  • the browsing history information may be stored in the content transition history storage unit 102 for each user by being associated with a user ID that can identify a plurality of users.
  • the interest transition history information may also be stored in the interest transition history storage unit 105 in association with the user ID.
  • the guidance destination is determined using the topic tree of another user, it is indicated by interest transition history information associated with a user ID different from the user ID of the user who is browsing the content.
  • a topic tree may be used.
  • the browsing history information includes only the URL for the content.
  • the browsing history information may include a location actually browsed by the user in the content. For example, by extracting the range of the image displayed in the web browser, or by detecting the user's line of sight and extracting the part of the web browser that the user is paying attention to based on the line of sight, the user can actually It is possible to extract the locations that were browsed.
  • the content is a broadcast such as video or audio
  • the broadcast content may be included in the browsing history information.
  • Broadcast contents specifically include, for example, EPG of TV broadcasts, text data such as data broadcasts and subtitles, text data recognizing telops, utterance contents and music obtained by voice recognition of speech and music in video This is text data such as the title.
  • the recommended content is presented by displaying the content on the display unit.
  • the present invention is not limited to this.
  • the content itself or the URL of the content is output by voice. May be.
  • information indicated by the tag may be output by voice.
  • the search device that searches for content using the search query generated by the content acquisition unit 108 is connected to the content recommendation device 100 via the communication unit. May be included in the content recommendation device 100.
  • the first threshold value, the second threshold value, the third threshold value, the first predetermined number of times, the second predetermined number of times, the third predetermined number of times, and the predetermined value may be different values, or at least one May be the same value.
  • the transition direction estimated by the interest transition direction estimation unit 106 is not limited to one direction, and may be a plurality of directions.
  • the number of guidance destination nodes determined by the guidance destination determination unit 107 is not limited to one, and a plurality of guidance destination nodes may be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Information Transfer Between Computers (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

 主題キーワード抽出部101は、コンテンツの主題となるキーワードをコンテンツから抽出して閲覧履歴情報をコンテンツ遷移履歴格納部102に記憶させる。話題ツリー生成部103は、閲覧履歴情報に基づいて、話題ツリーを生成する。関心推定部104は、利用者がコンテンツを閲覧する度に抽出されたキーワードと話題ツリーの各クラスタに含まれるキーワードとを用いて利用者の現在の関心を推定して、関心遷移履歴情報を関心遷移履歴格納部105に記憶させる。関心遷移方向推定部106は、関心遷移履歴情報を用いて、遷移方向を推定する。誘導先決定部107は、遷移方向に基づいて、誘導先ノードを決定する。コンテンツ取得部108は、誘導先ノードに基づいてコンテンツを取得してこれを利用者に提示する。

Description

コンテンツ推薦装置及び方法
 本発明は、コンテンツ推薦装置及び方法に関する。
 従来より、利用者に対して情報の効率的な提示を行なうために、コンテンツベースマッチングや協調フィルタリングなどのパーソナライゼーション技術が用いられている。コンテンツベースマッチングでは、コンテンツに予め設定されている属性と、利用者が予め設定しておいた利用者自身のプロファイルや利用者の嗜好を表す嗜好情報とのマッチングによって、利用者に対して推薦する情報としてコンテンツ(推薦コンテンツという)が決定される。嗜好情報は、例えば、利用者の中長期的なコンテンツの閲覧履歴を解析することによって抽出される。協調フィルタリングでは、このような嗜好情報が類似する他の利用者を検索し、当該他の利用者のコンテンツの閲覧履歴を利用して、推薦コンテンツが決定される。また、近年では、例えば、特許文献1に示されるように、ユーザの状況を踏まえた様々な観点からのキーワードを提示しつつ、目的の話題までユーザを誘導することで、目的の話題を提示する技術が開発されている。
特開2006-331343号公報
 コンテンツの閲覧履歴を利用する場合、例えば閲覧したコンテンツが同じコンテンツであっても、各利用者が注目している観点が異なる場合がある。しかし、従来では、利用者がどのような関心を持ってそのコンテンツの閲覧に至ったのかを考慮しておらず、利用者が注目している観点を適切に判断することが困難であった。このため、同じコンテンツを閲覧した利用者に対しては一律に同じ他のコンテンツが推薦される可能性があった。
 本発明は、上記に鑑みてなされたものであって、各利用者の関心の遷移に応じてコンテンツを推薦可能なコンテンツ推薦装置及び方法を提供することを目的とする。
 上述した課題を解決し、目的を達成するために、本発明は、コンテンツ推薦装置であって、コンテンツから主題となるキーワードを抽出する抽出手段と、コンテンツの閲覧の履歴を時刻毎に示す閲覧履歴情報を利用者毎に記憶する第1記憶手段と、前記閲覧履歴情報において閲覧の時刻が連続するコンテンツに共起するキーワードを用いて、同一の話題に関連するキーワードの集合を話題毎に含む話題ツリーを利用者毎に生成する生成手段と、利用者が閲覧しているコンテンツから抽出された前記キーワードと前記話題ツリーに含まれる各キーワードとの関連度を各々計算することにより、利用者の関心を推定する第1推定手段と、前記関心の履歴を示す関心遷移履歴情報を時刻毎に記憶する第2記憶手段と、前記関心遷移履歴情報を用いて、利用者の関心が遷移するであろう遷移方向を推定する第2推定手段と、前記遷移方向に基づいて、前記集合のうち利用者を誘導する話題に関連する誘導集合を決定する決定手段と、前記誘導集合に含まれる前記キーワードに基づいて、利用者に提示するコンテンツを取得する取得手段と、前記コンテンツを提示する提示手段とを備えることを特徴とする。
 また、本発明は、抽出手段と、第1記憶制御手段と、生成手段と、第1推定手段と、第2記憶制御手段と、第2推定手段と、決定手段と、取得手段と、提示手段とを備えるコンテンツ推薦装置で実行されるコンテンツ推薦方法であって、前記抽出手段が、コンテンツから主題となるキーワードを抽出する抽出ステップと、第1記憶制御手段が、コンテンツの閲覧の履歴を時刻毎に示す閲覧履歴情報を利用者毎に第1記憶手段に記憶させる第1記憶制御ステップと、前記生成手段が、前記閲覧履歴情報において閲覧の時刻が連続するコンテンツに共起するキーワードを用いて、同一の話題に関連するキーワードの集合を話題毎に含む話題ツリーを利用者毎に生成する生成ステップと、前記推定手段が、利用者が閲覧しているコンテンツから抽出された前記キーワードと前記話題ツリーに含まれる各キーワードとの関連度を各々計算することにより、利用者の関心を推定する第1推定ステップと、前記第2記憶制御手段が、前記関心の履歴を示す関心遷移履歴情報を時刻毎に第2記憶手段に記憶させる第2記憶制御ステップと、前記第2推定手段が、前記関心遷移履歴情報を用いて、利用者の関心が遷移するであろう遷移方向を推定する第2推定ステップと、前記決定手段が、前記遷移方向に基づいて、前記集合のうち利用者を誘導する話題に関連する誘導集合を決定する決定ステップと、前記取得手段が、前記誘導集合に含まれる前記キーワードに基づいて、利用者に提示するコンテンツを取得する取得ステップと、前記提示手段が、前記コンテンツを提示する提示ステップとを含むことを特徴とする。
 本発明によれば、各利用者の関心の遷移に応じてコンテンツを推薦可能になる。
一実施の形態にかかるコンテンツ推薦装置100の機能的構成を例示する図。 意味属性辞書を例示する図。 意味属性ルールを例示する図。 閲覧履歴情報を例示する図。 共起関係グラフを例示する図。 話題ツリーを例示する図。 利用者が閲覧しているコンテンツから抽出されたキーワードと、話題ツリーの各クラスタに含まれるキーワードとの関連度を例示する図。 関心遷移履歴情報を例示する図。 遷移方向が下又は左右であり当該方向にクラスタが存在しない場合に誘導先ノードを決定する方法を概念的に例示する図。 話題ツリーを生成する処理の手順を示すフローチャート。 共起キーワード集合を求める処理の手順を示すフローチャート。 コンテンツを推薦する処理の手順を示すフローチャート。 関心ノードを取得する処理の手順を示すフローチャート。 他の利用者の話題ツリーを用いて誘導先ノード決定する処理の手順を示すフローチャート。 コンテンツを取得してこれを提示する処理の手順を示すフローチャート。
 以下に添付図面を参照して、この発明にかかるコンテンツ推薦装置及び方法の最良な実施の形態を詳細に説明する。
 以下に添付図面を参照して、この発明にかかるコンテンツ推薦装置の最良な実施の形態を詳細に説明する。コンテンツ推薦装置は、各種データや各種プログラムを記憶するROM(Read Only Memory)やRAM(Random Access Memory)等の主記憶部と、各種データや各種プログラムを記憶するHDD(Hard Disk Drive)やCD(Compact Disk)ドライブ装置等の補助記憶部と、これらを接続するバスとを備えており、通常のコンピュータを利用したハードウェア構成となっている。また、コンテンツ推薦装置には、情報を表示する表示部と、ユーザの指示入力を受け付けるキーボードやマウス等の操作部と、外部装置との通信を制御する通信部が有線又は無線により各々接続される。ここでは、通信部はネットワークを介した通信を制御し、当該通信部を介して外部装置としてコンテンツを検索する検索装置や他のコンテンツ推薦装置とコンテンツ推薦装置は接続される。ネットワークとは、例えば、LAN(Local Area Network)、イントラネット、イーサネット(登録商標)又はインターネットなどである。
 次に、このようなハードウェア構成において、コンテンツ推薦装置のCPUが主記憶部や補助記憶部に記憶された各種プログラムを実行することにより実現される各種機能について説明する。図1は、コンテンツ推薦装置100の機能的構成を例示する図である。コンテンツ推薦装置100は、主題キーワード抽出部101と、コンテンツ遷移履歴格納部102と、話題ツリー生成部103と、関心推定部104と、関心遷移履歴格納部105と、関心遷移方向推定部106と、誘導先決定部107と、コンテンツ取得部108とを有する。主題キーワード抽出部101と、話題ツリー生成部103と、関心推定部104と、関心遷移方向推定部106と、誘導先決定部107と、コンテンツ取得部108とは、CPUのプログラム実行時にRAMなどの主記憶部に生成されるものである。コンテンツ遷移履歴格納部102と、関心遷移履歴格納部105とは、HDDなどの補助記憶部に生成される記憶領域である。
 主題キーワード抽出部101は、関心推定部104及びコンテンツ取得部108の制御の下、コンテンツの主題となるキーワードをコンテンツから抽出し、コンテンツの閲覧の履歴を示す閲覧履歴情報をコンテンツ遷移履歴格納部102に記憶させる。具体的には、主題キーワード抽出部101は、コンテンツの主題ではないと推定される部分をコンテンツから削除し、コンテンツの主題となる部分(主題部分という)を抽出して、当該主題部分から主題となるキーワードを少なくとも1つ以上抽出する。尚、コンテンツとは、デジタルデータで表現された文章、音楽、画像、映像及びデータベースなどの情報や又はそれらを組み合わせた情報の集合のことである。コンテンツの主題ではない部分とは、例えば、ヘッダやフッタ、広告、リンク集などである。主題部分とは、例えば、コンテンツを構成する領域のうち半分以上の領域を占める部分であって文章を含む部分である。非常に長い文章を含み当該文章中で話題が一つに定まっていないコンテンツについては、主題キーワード抽出部101は、例えば、文章を段落毎に分割し、各段落を各々主題部分として各主題部分からキーワードを各々抽出しても良い。キーワードは、例えば、金額や時刻のような定型表現、人名や地名のような固有名詞、あるいは食物や動植物名のような事物のカテゴリなどである。このようなキーワードを主題キーワード抽出部101は例えば以下のようにして抽出する。図2に示されるようにキーワードと意味属性とを予め対応付けた意味属性辞書をコンテンツ推薦装置100が予め備え、主題キーワード抽出部101が当該意味属性辞書と主題部分とのマッチングを行なうことにより、主題部分からキーワードを抽出する。又は、図3に示されるように文字列の並び方や形態素の並び方のルールと意味属性とを対応付けた意味属性ルールをコンテンツ推薦装置100が予め記憶し、主題キーワード抽出部101が当該意味属性ルールと主題部分とのマッチングを行なうことにより、主題部分からキーワードを抽出する。このようにしてキーワードを抽出したコンテンツについてその閲覧の履歴を示す閲覧履歴情報を主題キーワード抽出部101はコンテンツ遷移履歴格納部102に記憶させる。
 コンテンツ遷移履歴格納部102は、閲覧履歴情報を記憶する。閲覧履歴情報は、どのようなコンテンツをどのような時刻にどのような順序で閲覧したかを示し、閲覧日時、ブラウザID、タブID及びURLを含む。ブラウザIDは、パーソナルコンピュータなどでwebブラウザを複数起動可能な場合に各ブラウザを識別するための識別子である。タブIDは、webブラウザをタブにより複数起動可能な場合に各タブを識別するための識別子である。図4は、閲覧履歴情報を例示する図である。同図には、閲覧日時「2008/09/10 11:12」にブラウザID「1」のブラウザが立ち上げられ、タブID「1-1」のタブでURL「http://aaa」のコンテンツが閲覧され、その後、閲覧日時「2008/09/10 11:15」にタブID「1-2」の新たなタブでURL「http://bbb」のコンテンツが閲覧され、閲覧日時「2008/09/10 11:30」に引き続きURL「http://ccc」のコンテンツが閲覧されたことが示されている。このような閲覧履歴情報によって、利用者が閲覧したコンテンツのURLだけではなく、どのコンテンツをいつ閲覧した後にどのコンテンツに遷移したかを判断することができ、また、webブラウザをいくつも立ち上げている場合やタブをいくつも開いている場合であっても、コンテンツの遷移を判断することができる。
 話題ツリー生成部103は、コンテンツ遷移履歴格納部102に記憶されている閲覧履歴情報に基づいて、連続するコンテンツに対してコンテンツ間に共起するキーワードの集合(共起キーワード集合という)を求め、階層的クラスタリングを行なうことによって、話題ツリーを生成する。連続するコンテンツとは、例えば、ブラウザIDやタブIDや時間間隔に関係なく、閲覧日時が前後する2つのコンテンツであるとするが、ブラウザIDが等しいものやタブIDが等しいものに関して閲覧日時が前後する2つのコンテンツであるとしても良い。また、連続するコンテンツの数は、2つに限らず、予め設定された個数N個であるとしても良いし、閲覧日時の差が予め設定された時間間隔に含まれるコンテンツの数であるとしても良い。このような連続するコンテンツから共起キーワード集合を話題ツリー生成部103は例えば以下のようにして求める。連続するコンテンツの各々から主題キーワード抽出部101がキーワードを各々抽出すると、話題ツリー生成部103は、連続するコンテンツの全てに出現するキーワードを共起キーワード集合として求める。尚、連続するコンテンツの数がN個である場合、N個のうちM個(N>M)以上のコンテンツに出現するキーワードを共起キーワード集合としても良い。話題ツリー生成部103は、このようにして連続するコンテンツ毎に共起キーワード集合を求め、求めた共起キーワード集合に対して、全てのキーワード間の条件付出現確率を計算して、キーワード間の共起関係を表す共起関係グラフを生成する。具体的には、あるキーワードKW1,KW2に対し、各キーワードが出現する共起キーワード集合の個数をN(KW1),N(KW2)とし、キーワードKW1,KW2が同時に出現した共起キーワード集合の個数をN(KW1,KW2)とする。このときキーワードKW1に対するキーワードKW2の条件付出現確率は「P(KW2|KW1)=P(KW1,KW2)/P(KW1)=N(KW1,KW2)/N(KW1)」となる。全てのキーワードを頂点とし、条件付出現確率が予め設定された第1閾値αより大きいときにキーワード間に有向辺を引くことにより、話題ツリー生成部103はキーワード間の共起関係グラフを生成する。図5は、共起関係グラフを例示する図である。同図においては、「南武線」というキーワードから「川崎」というキーワードへ片方向の共起関係があり、「川崎」からは「横浜」や「フロンターレ」といったキーワードへの両方向の共起関係があることが示されている。尚、本実施の形態においては、複数の意味を持つ所謂多義性を有するキーワードに対してその各意味を区別するようには構成していないが、意味毎に頂点を分割して各意味を区別して取り扱うようにしても良い。
 話題ツリー生成部103は、このようにして生成した共起関係グラフを用いて、関連度が大きく同一の話題に関連すると推定されるキーワードを併合して次々と新しいクラスタにまとめていく階層的クラスタリングを行なうことにより、話題ツリーを生成する。関連度としては、共起関係グラフにおいて両方向に有向辺がある場合は条件付確率の和を用いても良いし、共起関係グラフにおいて一方向にしか有向辺がない場合は条件付確率に適当な係数をかけたものを用いても良い。具体的には、話題ツリー生成部103は、まず共起関係グラフの各キーワードに対し、各キーワードのみを含む要素数「1」のクラスタを各々生成し、次に、関連度の最も大きい2つのクラスタを求める。但し、2つのクラスタの関連度が第2閾値より小さい場合は、話題ツリー生成部103は、一つのクラスタにまとめるべきクラスタが既になくなったものとして階層的クラスタリングを終了し、2つのクラスタの関連度が第2閾値以上である場合は、一方のクラスタの特徴ベクトルAと他方のクラスタの特徴ベクトルBからなる新しい特徴ベクトル「C= A+B」のクラスタを生成し、特徴ベクトルAのクラスタ及び特徴ベクトルBのクラスタを削除する。特徴ベクトルは、例えば、クラスタに含まれる各キーワードに対してidfのような重みを与えて生成する。話題ツリー生成部103は、このように特徴ベクトルAのクラスタと特徴ベクトルBのクラスタを削除して特徴ベクトルCのクラスタを追加した、クラスタの集合に対して改めて関連度が最も大きいクラスタを求めることを繰り返すことで階層的クラスタリングを行なう。この結果、同一の話題に関連するキーワードを含むクラスタを各ノードとして話題毎に含み各クラスタが階層付けられた話題ツリーが生成される。尚、クラスタ間の階層は、有向辺の先が向いているクラスタを上位とし、有向辺の先に向かっているクラスタを下位とする。即ち、共起関係において係り先となるキーワードを含むクラスタが上位となり、共起関係において係り元となるキーワードを含むクラスタが下位となる。このような構成においてはクラスタは、上位の階層になるほど広く浅い話題に関連しており、下位の階層になるほど狭く深い話題に関連している。以上のようにして生成した話題ツリーを話題ツリー生成部103は例えばRAMなどの主記憶部に一旦記憶させる。
 図6は、話題ツリーを例示する図である。同図に示される話題ツリーは、図5に示される共起グラフに基づいて生成されたものである。同図においては、キーワード「川崎」を含むクラスタと、キーワード「南武線」を含むクラスタと、キーワード「横浜」「フロンターレ」「Fマリノス」を含むクラスタと、キーワード「サッカー」を含むクラスタとが各々ノードとして示されている。尚、各ノードには、各ノードを識別可能なノードIDを付与することが望ましい。同図においては、各ノードに対してND1~ND4が各々付与されている。このような話題ツリーは、異なる利用者が同じコンテンツを閲覧してもコンテンツの遷移が異なれば共起キーワード集合が異なるため、利用者毎に異なって生成され得る。
 関心推定部104は、利用者がコンテンツを閲覧する度に、主題キーワード抽出部101に対して、当該コンテンツからキーワードを抽出させ、抽出されたキーワードと話題ツリー生成部103が生成した話題ツリーの各クラスタに含まれるキーワードとの関連度を計算することにより、当該コンテンツを閲覧中の利用者の関心を推定する。即ち、利用者が閲覧中のコンテンツから抽出されたキーワードは、利用者の現在関心のある話題に関連していると考えられる。このため、関心推定部104は、このキーワードと、話題ツリーの各クラスタに含まれるキーワードとの関連度を計算し、関連度が最も大きくなるクラスタ(関心ノードという)を検索することにより、利用者の関心を推定する。キーワードの関連度は、例えば、各キーワードに対してidfのような重みを与えた特徴ベクトルを生成し、特徴ベクトル間のコサイン類似度を計算することで関心推定部104は計算する。尚、関連度の計算の対象となるクラスタは、話題ツリーに含まれる全てのクラスタであっても良いし、一部のクラスタのみであっても良い。例えば、閲覧中のコンテンツに対する関心とは全く無関係な話題へは関心が遷移しないと考えられるため、直前に閲覧したコンテンツから抽出されたキーワードを含むクラスタから一定の範囲内にあるクラスタのみを関連度の計算の対象としても良い。
 図7は、利用者が閲覧しているコンテンツから抽出されたキーワードと、話題ツリーの各クラスタに含まれるキーワードとの関連度を例示する図である。同図においては、関連度が最も大きいクラスタは、キーワード「横浜」「フロンターレ」「Fマリノス」を含むクラスタである。このため、これが利用者の関心がある話題に関連すると推定されるクラスタである関心ノードとなる。
 このようにして関心推定部104は、利用者の関心を推定し、関心の実体として関心ノードを検索してこれを取得する。そして、関心推定部104は、関心ノードの遷移を示す関心遷移履歴情報を閲覧時間毎に生成してこれを関心遷移履歴格納部105に記憶させる。尚、本実施の形態においては、利用者がWebブラウザで閲覧するコンテンツに応じて動的に話題ツリーを変更し得るため、関心推定部104は、関心ノードと共に、話題ツリー自体を示す関心遷移履歴情報を生成する。尚、例えば利用者がWebブラウザを終了するまで話題ツリーが固定的である場合には、関心遷移履歴情報は、関心ノードとなるクラスタに付与された上述のノードIDのみを示すようにしても良い。
 関心遷移履歴格納部105は、関心遷移履歴情報を閲覧時間毎に記憶する。図8は、関心遷移履歴情報を例示する図である。同図では、関心遷移履歴情報は、関心ノード及び話題ツリー自体を示しており、例えば旅行を計画している利用者が、旅行先として立ち寄るべき観光スポットを調べている状況において取得されたものであるとする。閲覧日時「2008/10/12 10:00」の時点でノードID「ND2」のクラスタに関連する話題「京阪神」に関心があり、閲覧日時「2008/10/12 10:15」の時点でノードID「ND4」のクラスタに関連する話題「大阪城」に関心があり、閲覧日時「2008/10/12 10:20」の時点でノードID「ND3」のクラスタに関連する話題「金閣寺」に関心があり、閲覧日時「2008/10/12 10:30」の時点でノードID「ND6」のクラスタに関連する話題「城崎」に関心が遷移したことが示されている。
 関心遷移方向推定部106は、関心遷移履歴格納部105に記憶された関心遷移履歴情報によって示される、関心ノードの遷移に基づいて、関心が遷移するであろう遷移方向を推定する。これにより、利用者の関心の短期的な遷移が推定される。具体的には例えば、関心遷移方向推定部106は、予め設定された回数又は期間のうち、話題ツリーの階層内で上下に遷移した回数と左右に遷移した回数とを計算する。そして例えば、話題ツリーの部分的なツリーであり特定のサブツリー内で上下に遷移した回数が第1所定回数以上である場合、そのサブツリーに関連する話題について詳しい情報が求められていると関心遷移方向推定部106は推定する。この場合、関心遷移方向推定部106は、遷移方向は下であると推定する。あるいは複数のサブツリーを左右に遷移した回数が第2所定回数以上である場合、幅広い情報が求められていると関心遷移方向推定部106は推定する。この場合、関心遷移方向推定部106は、遷移方向は左右のいずれかであると推定する。上下に遷移した回数が第1所定回数より少なく左右に遷移した回数も第2所定回数より少なく、且つ、同じ関心ノードが連続する回数が第3所定回数以上である場合、利用者の関心が停滞し、そろそろその話題に飽きていると関心遷移方向推定部106は推定する。この場合、関心遷移方向推定部106は、強制的に関心ノードを遷移させるべく、遷移方向は上下左右いずれかであると推定する。図8の例では、利用者が旅行先としての候補をまだ絞り込めておらず関連する話題の中で広く浅く情報を求めているため、サブツリーで関心が左右に遷移しているものと推定される。従って関心遷移方向推定部106は、利用者の関心が引き続き、ノードID「ND2」のクラスタの下であってノードID「ND3」,「ND4」ではない他のクラスタ(図示せず)、あるいはノードID「ND5」のクラスタやノードID「ND6」のクラスタなどの横方向に関心が遷移するであろうと推定する。逆に例えば「大阪城」が旅行先としての候補として絞り込まれた場合、利用者は「大阪城」に関連するより詳しい情報を求めようとして、ノードID「ND4」のクラスタの下であってノードID「ND3」,「ND4」のクラスタを含まないサブツリー(図示せず)内で上下に多く遷移することとなる。その場合関心推移方向推定部106は、利用者の関心が縦方向に遷移するものと推定する。
 誘導先決定部107は、関心遷移方向推定部106が推定した遷移方向に基づいて、利用者を誘導する話題に関連するクラスタ(誘導先ノードという)を決定する。例えば、遷移方向が下であると関心遷移方向推定部106が推定した場合は、誘導先決定部107は話題ツリーにおいて、関心推定部104が推定した関心ノードの下にある1つのクラスタを誘導先ノードとして決定する。遷移方向が左右のいずれかであると関心遷移方向推定部106が推定した場合は、誘導先決定部107は話題ツリーにおいて、関心推定部104が推定した関心ノードの左右にあって兄弟関係にある1つのクラスタを誘導先ノードとして決定する。兄弟関係にあるクラスタとは、即ち、互いのクラスタの1つ上の階層のクラスタが同じであるということである。尚、誘導先ノードの対象となるクラスタが複数存在する場合、誘導先決定部107は例えば以下のようにして誘導先ノードを決定する。誘導先決定部107は、複数のクラスタの中からランダムに1つを誘導先ノードとして選択する。又は、話題ツリー生成部103が話題ツリーを生成するときに各クラスタに対して順序を予め設定しておき、誘導先決定部107はその順序を利用してクラスタを誘導先ノードとして決定する。又は、誘導先決定部107はクラスタ間の条件付出現確率が大きいクラスタを優先して誘導先ノードを決定する。又は、誘導先決定部107は、遷移履歴情報に示される関心ノードのうち、閲覧日時が現在の日時に一番近い関心ノードに関連するクラスタを優先して誘導先ノードを決定する。
 但し、関心遷移方向推定部106が推定した遷移方向にクラスタが存在せず、誘導先決定部107は誘導先ノードを決定することができない場合、次に、例えば以下のようにして誘導先ノードを決定する。図9は、例えば、遷移方向が下又は左右であり当該方向にクラスタが存在しない場合に誘導先ノードを決定する方法を概念的に例示する図である。同図の(A)に示されるように、誘導先決定部107は、関心推定部104が推定した関心ノードの1つ上のクラスタを誘導先ノードとして決定する。尚、関心ノードが話題ツリーにおいてルートである場合には、その上にはクラスタは存在しないが、この場合には、誘導先決定部107は、当該関心ノードの下か左右のクラスタを1つ誘導先ノードとして決定すれば良い。また同図の(B)に示されるように、誘導先決定部107は、関心推定部104が推定した関心ノードの上の階層に遡り、下又は左右にクラスタが存在するクラスタを関心ノードの代替とし、当該関心ノードの下又は左右にある1つのクラスタを誘導先ノードとして決定する。また同図の(C)に示されるように、誘導先決定部107は、通信部及びネットワークを介して他のコンテンツ推薦装置と通信して、当該他のコンテンツ推薦装置に記憶された他の利用者の話題ツリーを検索し、当該話題ツリーで誘導先ノードに対応させるクラスタを決定し、当該コンテンツ推薦装置100の話題ツリーにおいて当該クラスタに対応するクラスタを検索してこれを誘導先ノードとして決定する。
 コンテンツ取得部108は、誘導先決定部107が決定した誘導先ノードに基づいて、利用者に提示するコンテンツを取得して、当該コンテンツを利用者に提示する。具体的には、コンテンツ取得部108は、誘導先決定部107が決定した誘導先ノードへ利用者の関心を誘導するため、関心ノードに含まれる各キーワードを「OR」で接続した文と、誘導先ノードに含まれる各キーワードを「OR」で接続した文とを「AND」で接続した文を検索クエリとして生成する。次にコンテンツ取得部108は、生成した検索クエリを通信部を介して検索装置に送信し、当該検索装置が当該検索クエリを用いてコンテンツを検索した結果である検索結果を受信する。そして、コンテンツ取得部108は、主題キーワード抽出部101に対して、検索結果である各コンテンツからキーワードを抽出させる。そして、コンテンツ取得部108は、話題の遷移を滑らかにするため、抽出されたキーワードと、関心ノードに含まれるキーワードと、誘導先ノードに含まれるキーワードとの関連度が第3閾値以上であるコンテンツを、利用者に提示するコンテンツとして選択する。関連度は、例えば、上述の関心推定部104が計算する関連度と同様である。そして、コンテンツ取得部108は、選択したコンテンツを例えば表示部に表示させることにより、利用者に提示する。このようにして、コンテンツが利用者に推薦される。
 次に、本実施の形態にかかるコンテンツ推薦装置100の行う処理の手順について用いて説明する。まず、話題ツリーを生成する処理の手順について図10を用いて説明する。ステップS1では、コンテンツ推薦装置100は、主題キーワード抽出部101の機能により、利用者が閲覧したコンテンツの主題となるキーワードをコンテンツから抽出し、当該コンテンツの閲覧履歴情報をコンテンツ遷移履歴格納部102に記憶する。ステップS2では、コンテンツ推薦装置100は、コンテンツ遷移履歴格納部102に記憶された閲覧履歴情報に基づいて、話題ツリー生成部103の機能により、連続するコンテンツに対してコンテンツ間に共起するキーワードの集合である共起キーワード集合を求める。
 図11は、共起キーワード集合を求める処理の手順を示すフローチャートである。ステップS20では、コンテンツ推薦装置100は、コンテンツ遷移履歴格納部102に記憶された閲覧履歴情報によって閲覧したことが示されるコンテンツを、閲覧日時の順に整列する。ステップS21では、コンテンツ推薦装置100は、閲覧日時の順にコンテンツ(コンテンツC1とする)を1つ取り出す。ステップS22では、閲覧日時の順に整列されたコンテンツのうち、ステップS21で取り出したコンテンツの次に順に相当するコンテンツがあるか否かを判断する。次の順のコンテンツがある場合(ステップS22:YES)、ステップS23では、コンテンツ推薦装置100はこれを取り出し、2つのコンテンツ(C1,C2)を連続するコンテンツとし、ステップS24では、これらのコンテンツ間に共起するキーワードの集合である共起キーワード集合を求める。
 図10の説明に戻る。ステップS3では、コンテンツ推薦装置100は、ステップS2で求めた共起キーワード集合を用いて、図6に示されるような、キーワード間の共起関係を表す共起関係グラフを生成する。ステップS4では、コンテンツ推薦装置100は、ステップS3で生成した共起関係グラフを用いて階層的クラスタリングを行って、図7に示されるような話題ツリーを生成してこれを主記憶部に一旦記憶させる。
 次に、このようにして生成した話題ツリーを用いて、コンテンツを推薦する処理の手順について図12を用いて説明する。ステップS1で、コンテンツ推薦装置100は、利用者がコンテンツを閲覧する度に、主題キーワード抽出部101の機能により、主題となるキーワードをコンテンツから抽出した後、ステップS40では、関心推定部104の機能により、抽出されたキーワードと主記憶部に記憶された話題ツリーの各ノードである各クラスタに含まれるキーワードとの関連度をクラスタ毎に計算することにより、当該コンテンツを閲覧中の利用者の関心を推定して、当該関心の実体である関心ノードを取得する。
 図13は、関心ノードを取得する処理の手順を示すフローチャートである。ステップS60では、コンテンツ推薦装置100は、暫定的な関連度(暫定関連度という)を「0」に初期化し、暫定的な関心ノード(暫定関心ノードという)のノードIDを初期化する。ステップS61では、コンテンツ推薦装置100は、主記憶部に記憶された話題ツリーにおいて取り出するノードがあるか否かを判断し、取り出するノードがある場合(ステップS61:YES)、ステップS62では、1つのノードを取り出す。ステップS63では、コンテンツ推薦装置100は、ステップS1で抽出したキーワードとステップS62で取り出したノードに含まれるキーワードとの関連度を計算する。関連度の算出方法は、上述の構成欄で説明した通りである。ステップS64では、コンテンツ推薦装置100は、ステップS63で算出した関連度が暫定関連度よりも大きいか否かを判断する。当該関連度が暫定関連度よりも大きい場合(ステップS64:YES)、ステップS65では、コンテンツ推薦装置100は、暫定関連度の値を、ステップS63で計算した関連度の値に更新し、暫定関心ノードのノードIDを、ステップS62で取り出したノードのノードIDに更新し、ステップS61に戻る。ステップS64の判断結果が否定的である場合もステップS61に戻る。話題ツリーの全てのノードについてステップS61~S65の処理が終了すると、ステップS61の判断結果が否定的となり、コンテンツ推薦装置100は、利用者の関心を推定する処理を終了する。このようにしてコンテンツ推薦装置100は、キーワードの関連度をノード毎に計算し、より大きい関連度が計算されるノードを暫定関心ノードとして更新し、この結果、関連度が最も大きいノードを関心ノードとして取得することができる。そして、コンテンツ推薦装置100は、話題ツリー及び関心ノードの遷移を示す関心遷移履歴情報を閲覧時間毎に関心遷移履歴格納部105に記憶させる。
 図12の説明に戻る。ステップS41では、コンテンツ推薦装置100は、関心遷移履歴格納部105に記憶された関心遷移履歴情報によって示される、関心ノードの遷移に基づいて、関心遷移方向推定部106に機能により、遷移方向を推定する。ステップS42では、コンテンツ推薦装置100は、ステップS41で推定した遷移方向に基づいて、誘導先決定部107の機能により、誘導先ノードを決定する。
 ここで、上述した例のように、遷移方向が下又は左右であり当該方向にノードが存在しない場合に、通信部及びネットワークを介して他のコンテンツ推薦装置と通信して他の利用者の話題ツリーを用いて誘導先ノード決定する処理の手順について図14を用いて説明する。ステップS80では、コンテンツ推薦装置100は、通信部及びネットワークを介して他のコンテンツ推薦装置と通信して、当該他のコンテンツ推薦装置に記憶された他の利用者の話題ツリーを検索し、ステップS81では、話題ツリーがあるか否かを判断する。話題ツリーがない場合(ステップS81:NO)、処理は失敗であるとして終了する。話題ツリーがある場合(ステップS81:YES)、ステップS82では、コンテンツ推薦装置100は話題ツリーを取得し、当該話題ツリーにおいて、ステップS40で取得した関連ノードと関連度が大きいノードを、対応する関心ノード(対応関心ノードという)として決定する。ここでの関連度は、ステップS40で取得した関連ノードに含まれるキーワードと、ステップS82で取得した他の利用者の話題ツリーのノードに含まれるキーワードとの関連度のことである。この関連度の算出方法は、上述のステップS62と同様である。
 ステップS83では、コンテンツ推薦装置100は、ステップS82で取得した他の利用者の話題ツリーにおいて対応関心ノードの下又は左右にノードが存在するか否かを判断する。対応関心ノードの下又は左右にノードが存在する場合(ステップS83:YES)、ステップS84では、コンテンツ推薦装置100は、対応関心ノードの下又は左右にあるノードの1つを、誘導先ノードに対応させるノード(対応誘導先ノードという)として決定する。ステップS85では、コンテンツ推薦装置100は、主記憶部に記憶された、当該コンテンツ推薦装置100に利用者の話題ツリーにおいて、対応誘導先ノードと関連度が所定値以上であるノードを誘導先ノードとして決定して、処理を終了する。ここでの関連度は、対応誘導先ノードに含まれるキーワードと、当該コンテンツ推薦装置100に利用者の話題ツリーのノードに含まれるキーワードとの関連度のことである。この関連度の算出方法は、上述のステップS63と同様である。ステップS83の判断結果が否定的である場合はステップS81に戻り、新たな話題ツリーがあればそれを用いて、ステップS82~S85の処理を繰り返す。
 このようにして、当該コンテンツ推薦装置100に利用者の関心ノードに対して、当該利用者にとっては関連性がないが、他の利用者にとっては関連性があるノードを誘導先ノードとして決定することができる。このため、当該コンテンツ推薦装置100の利用者にとって意外性のあるコンテンツを推薦することが可能になる。
 図12の説明に戻る。ステップS43では、コンテンツ推薦装置100は、コンテンツ取得部108の機能により、ステップS42で決定した誘導先ノードに基づいて、利用者に提示するコンテンツを取得してこれを提示する。
 図15は、コンテンツを取得してこれを提示する処理の手順を示すフローチャートである。ステップS100では、コンテンツ推薦装置100は、ステップS40で取得した関心ノードに含まれる各キーワードを「OR」で接続し、ステップS101では、ステップS42で決定した誘導先ノードに含まれる各キーワードを「OR」で接続する。ステップS102では、コンテンツ推薦装置100は、ステップS100で接続した文とステップS102で接続した文とを「AND」で接続した文を検索クエリとして生成しこれを、通信部及びネットワークを介して検索装置に送信する。ステップS103では、コンテンツ推薦装置100は、当該検索装置が当該検索クエリを用いてコンテンツを検索した結果である検索結果を受信したか否かを判断する。検索結果を受信した場合(ステップS103:YES)、ステップS104では、コンテンツ推薦装置100は、主題キーワード抽出部101の機能により、検索結果である各コンテンツからキーワードを抽出し、当該キーワードと、関心ノードに含まれるキーワードと、誘導先ノードに含まれるキーワードとの関連度を計算する。ステップS105では、コンテンツ推薦装置100は、ステップS104で計算した関連度が第3閾値以上であるコンテンツを、利用者に提示するコンテンツとして選択し、ステップS106では、選択したコンテンツを利用者に提示する。このようにして、コンテンツが利用者に推薦される。ステップS103の判断結果が否定的である場合には、コンテンツ推薦装置100は、推薦するコンテンツがない旨を示す情報を利用者に提示する。
 以上のようにして、利用者がどのようなコンテンツをどのような日時にどのような順序で閲覧したかといった、コンテンツの遷移関係を含む閲覧の履歴を収集し、当該閲覧の履歴を用いて利用者が関心を持ったキーワードの集合を階層的に分類し、中長期的な嗜好を反映した利用者毎の話題ツリーを生成する。その後利用者がコンテンツを閲覧する度に、当該コンテンツから抽出したキーワードと話題ツリーの各ノードに含まれるキーワードとの関連度を計算することで、当該コンテンツを閲覧中の利用者の関心が話題ツリーのどこにあるかを推定する。そして、推定した関心に基づき、関心が遷移するであろう遷移方向を推定することで、利用者の短期的な関心の遷移を把握して、利用者を誘導する誘導先ノードを決定し、当該誘導先ノードに関連するコンテンツを利用者に提示することにより、コンテンツを推薦する。
 一方で、従来の技術欄で説明したパーソナライゼーション技術では、中長期的な嗜好情報に基づいて、利用者に提示するコンテンツが決定される。このため、例えば、webブラウジングの開始から終了までのような、嗜好情報とは異なる短期的な関心の遷移を反映することが困難であった。しかし、本実施の形態によれば、上述したように、利用者の短期的な関心の遷移を反映した、情報の効率的な提示を実現することができる。
 また、従来では、嗜好情報に合致しない意外性のあるコンテンツを推薦することが困難であった。極端な場合、利用者は嗜好に合致するコンテンツばかりを次々と閲覧していくと、ある時点で利用者にとって既知のコンテンツ、あるいは既知の情報を含んだコンテンツばかりになり、ほとんど新たな情報を得られなくなってしまう。しかし、本実施の形態によれば、他の利用者の話題ツリーを用いて誘導先ノードを決定することもできるため、利用者にとって意外性のあるコンテンツを推薦することが可能になる。
 また、本実施の形態においては、利用者の関心が停滞してきたときに、誘導先ノードに関連するコンテンツを提示することで、利用者の関心を強制的に遷移させて、新たな関心を引くコンテンツを利用者に閲覧させることができる。
[変形例]
 なお、本発明は前記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、前記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。また、以下に例示するような種々の変形が可能である。
 上述した実施の形態において、コンテンツ推薦装置100で実行される各種プログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また当該各種プログラムを、インストール可能な形式又は実行可能な形式のファイルでCD-ROM、フレキシブルディスク(FD)、CD-R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録してコンピュータプログラムプロダクトとして提供するように構成しても良い。
 上述した実施の形態において、1人の利用者についての閲覧履歴情報がコンテンツ遷移履歴格納部102に記憶される例について説明した。しかし、例えば、閲覧履歴情報は、複数の利用者を識別可能なユーザIDと対応付けられることにより利用者毎にコンテンツ遷移履歴格納部102に記憶されるようにしても良い。
 同様に、関心遷移履歴情報も、ユーザIDと対応付けられて関心遷移履歴格納部105に記憶されるようにしても良い。このような構成においては、他の利用者の話題ツリーを用いて誘導先を決定する場合、コンテンツを閲覧中の利用者のユーザIDとは異なるユーザIDが対応付けられた関心遷移履歴情報によって示される話題ツリーを用いても良い。
 上述した実施の形態において、閲覧履歴情報は、コンテンツについてURLのみを含むようにしたが、例えば、コンテンツの中で利用者が実際に閲覧した箇所を含むようにしても良い。例えばwebブラウザにおいて表示される画像の範囲を抽出したり、利用者の視線を検出して当該視線に基づいてwebブラウザにおいてユーザが注目している箇所を抽出したりすることで、利用者が実際に閲覧した箇所を抽出することができる。またコンテンツが映像や音声などであり放送されるものである場合は、その放送内容を閲覧履歴情報に含ませるようにしても良い。放送内容とは、具体的には例えば、テレビ放送のEPGやデータ放送や字幕などのテキストデータ、テロップなどを認識したテキストデータ、映像中の発話や楽曲を音声認識して得た発話内容や楽曲のタイトルなどのテキストデータである。
 上述した実施の形態において、推薦するコンテンツの提示は、コンテンツを表示部に表示させることにより行なったが、これに限らず、例えば、コンテンツ自体又はコンテンツのURLを音声で出力することにより行うようにしても良い。また、例えば、コンテンツにタグが対応付けられている場合には、当該タグによって示される情報を音声で出力するようにしても良い。
 上述した実施の形態において、コンテンツ取得部108が生成した検索クエリを用いてコンテンツを検索する検索装置は、通信部を介してコンテンツ推薦装置100と接続されるようにしたが、この検索装置の機能をコンテンツ推薦装置100が備えるようにしても良い。
 上述した実施の形態において、第1閾値、第2閾値、第3閾値、第1所定回数、第2所定回数、第3所定回数及び所定値は各々異なる値であっても良いし、少なくとも1つは同じ値であっても良い。
 上述した実施の形態において、関心遷移方向推定部106が推定する遷移方向は、一方向に限らず、複数の方向であっても良い。
 また、誘導先決定部107が決定する誘導先ノードは、1つに限らず、複数であっても良い。
100 コンテンツ推薦装置
101 主題キーワード抽出部
102 コンテンツ遷移履歴格納部
103 話題ツリー生成部
104 関心推定部
105 関心遷移履歴格納部
106 関心遷移方向推定部
107 誘導先決定部
108 コンテンツ取得部

Claims (8)

  1.  コンテンツから主題となるキーワードを抽出する抽出手段と、
     コンテンツの閲覧の履歴を時刻毎に示す閲覧履歴情報を利用者毎に記憶する第1記憶手段と、
     前記閲覧履歴情報において閲覧の時刻が連続するコンテンツに共起するキーワードを用いて、同一の話題に関連するキーワードの集合を話題毎に含む話題ツリーを利用者毎に生成する生成手段と、
     利用者が閲覧しているコンテンツから抽出された前記キーワードと前記話題ツリーに含まれる各キーワードとの関連度を各々計算することにより、利用者の関心を推定する第1推定手段と、
     前記関心の履歴を示す関心遷移履歴情報を時刻毎に記憶する第2記憶手段と、
     前記関心遷移履歴情報を用いて、利用者の関心が遷移するであろう遷移方向を推定する第2推定手段と、
     前記遷移方向に基づいて、前記集合のうち利用者を誘導する話題に関連する誘導集合を決定する決定手段と、
     前記誘導集合に含まれる前記キーワードに基づいて、利用者に提示するコンテンツを取得する取得手段と、
     前記コンテンツを提示する提示手段とを備える
    ことを特徴とするコンテンツ推薦装置。
  2.  前記生成手段は、
     前記閲覧履歴情報において閲覧の時刻が連続するコンテンツに共起するキーワードを用いて、共起関係の係り先となるキーワードを上位とし、共起関係の係り元となるキーワードを下位とする共起関係グラフを生成するグラフ生成手段と、
     前記共起関係グラフを用いて階層的クラスタリングを行い、同一の話題に関連するキーワードを含むクラスタを話題毎に含み各クラスタを階層付けた話題ツリーを生成するツリー生成手段とを有する
    ことを特徴とする請求項1に記載のコンテンツ推薦装置。
  3.  前記第2推定手段は、前記関心遷移履歴情報を用いて、前記話題ツリーの全部又は一部において前記関心が上下左右のうち少なくとも1つの方向に遷移している回数を判断し、当該回数に応じて、前記遷移方向を推定する
    ことを特徴とする請求項2に記載のコンテンツ推薦装置。
  4.  前記第1推定手段は、利用者が閲覧しているコンテンツから抽出された前記キーワードと前記話題ツリーに含まれる各前記クラスタに含まれるキーワードとの関連度を各々計算することにより、前記話題ツリーに含まれる前記クラスタのうち、利用者の関心のある話題に関連するキーワードを含む前記クラスタを推定する
    ことを特徴とする請求項2に記載のコンテンツ推薦装置。
  5.  前記決定手段は、ネットワークに接続された他のコンテンツ推薦装置に記憶された他の利用者の前記話題ツリーを検索する検索手段と、
     前記遷移方向に基づいて、前記他の利用者の前記話題ツリーに含まれる前記クラスタのうち、利用者を誘導する話題に関連する第1クラスタに対応させる第2クラスタを決定する対応決定手段と、
     前記利用者の前記話題ツリーにおいて当該第2クラスタに対応するクラスタを検索することにより、前記誘導集合である前記第1クラスタを決定する誘導先決定手段とを有する
    ことを特徴とする請求項2に記載のコンテンツ推薦装置。
  6.  前記取得手段は、決定された前記誘導集合に含まれる前記キーワードを少なくとも1つ含み且つ利用者が閲覧しているコンテンツから抽出された前記キーワードを少なくとも1つ含むコンテンツを検索してこれを取得する
    ことを特徴とする請求項1に記載のコンテンツ推薦装置。
  7.  前記取得手段は、ネットワークに接続された検索装置を介して前記コンテンツを検索してこれを取得する
    ことを特徴とする請求項6に記載のコンテンツ推薦装置。
  8.  抽出手段と、第1記憶制御手段と、生成手段と、第1推定手段と、第2記憶制御手段と、第2推定手段と、決定手段と、取得手段と、提示手段とを備えるコンテンツ推薦装置で実行されるコンテンツ推薦方法であって、
     前記抽出手段が、コンテンツから主題となるキーワードを抽出する抽出ステップと、
     第1記憶制御手段が、コンテンツの閲覧の履歴を時刻毎に示す閲覧履歴情報を利用者毎に第1記憶手段に記憶させる第1記憶制御ステップと、
     前記生成手段が、前記閲覧履歴情報において閲覧の時刻が連続するコンテンツに共起するキーワードを用いて、同一の話題に関連するキーワードの集合を話題毎に含む話題ツリーを利用者毎に生成する生成ステップと、
     前記推定手段が、利用者が閲覧しているコンテンツから抽出された前記キーワードと前記話題ツリーに含まれる各キーワードとの関連度を各々計算することにより、利用者の関心を推定する第1推定ステップと、
     前記第2記憶制御手段が、前記関心の履歴を示す関心遷移履歴情報を時刻毎に第2記憶手段に記憶させる第2記憶制御ステップと、
     前記第2推定手段が、前記関心遷移履歴情報を用いて、利用者の関心が遷移するであろう遷移方向を推定する第2推定ステップと、
     前記決定手段が、前記遷移方向に基づいて、前記集合のうち利用者を誘導する話題に関連する誘導集合を決定する決定ステップと、
     前記取得手段が、前記誘導集合に含まれる前記キーワードに基づいて、利用者に提示するコンテンツを取得する取得ステップと、
     前記提示手段が、前記コンテンツを提示する提示ステップとを含む
    ことを特徴とするコンテンツ推薦方法。
PCT/JP2009/067809 2009-03-25 2009-10-14 コンテンツ推薦装置及び方法 WO2010109709A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009074664A JP2010225115A (ja) 2009-03-25 2009-03-25 コンテンツ推薦装置及び方法
JP2009-074664 2009-03-25

Publications (1)

Publication Number Publication Date
WO2010109709A1 true WO2010109709A1 (ja) 2010-09-30

Family

ID=42780412

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/067809 WO2010109709A1 (ja) 2009-03-25 2009-10-14 コンテンツ推薦装置及び方法

Country Status (2)

Country Link
JP (1) JP2010225115A (ja)
WO (1) WO2010109709A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107273346A (zh) * 2016-03-30 2017-10-20 邻客音公司 从文本中对热门见解的可扩展挖掘

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5729001B2 (ja) * 2011-02-18 2015-06-03 ソニー株式会社 情報提供システム、情報提供方法およびプログラム
JP5691735B2 (ja) * 2011-03-29 2015-04-01 ソニー株式会社 コンテンツ推薦装置、推薦コンテンツの検索方法、及びプログラム
EP2579609A1 (en) * 2011-10-06 2013-04-10 Thomson Licensing Method and apparatus for providing information for a multimedia content item
JP6101607B2 (ja) * 2013-09-17 2017-03-22 株式会社日立製作所 データ分析支援システム
WO2017056164A1 (ja) * 2015-09-28 2017-04-06 株式会社日立製作所 情報提示システム、及び情報提示方法
JP6695953B1 (ja) * 2018-11-20 2020-05-20 ヤフー株式会社 情報処理装置、情報処理方法および情報処理プログラム
JP7221902B2 (ja) * 2020-03-13 2023-02-14 Kddi株式会社 ユーザの関心度に応じて対話内容を切り替える対話装置、プログラム及び方法
CN113704597A (zh) * 2020-05-21 2021-11-26 阿波罗智联(北京)科技有限公司 内容推荐方法、装置和设备
KR102442335B1 (ko) * 2022-03-10 2022-09-14 주식회사 푸시 즉각적인 투자 수단 제공 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102510954B1 (ko) * 2022-03-10 2023-03-17 주식회사 푸시 메신저를 이용한 가치 변동률 제공 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
KR102442338B1 (ko) * 2022-03-10 2022-09-14 주식회사 푸시 사용자 행위 기반의 가치 변동률 제공 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
WO2024084691A1 (ja) * 2022-10-21 2024-04-25 ヤマハ発動機株式会社 対話型提案出力システム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002007461A (ja) * 2000-06-21 2002-01-11 Nippon Telegr & Teleph Corp <Ntt> 個人向け情報収集サーバ、個人向け情報収集方法および記録媒体
JP2002108923A (ja) * 2000-09-29 2002-04-12 Sony Corp コンテンツ提供方法およびコンテンツ
JP2003323458A (ja) * 2002-05-02 2003-11-14 Nippon Telegr & Teleph Corp <Ntt> 情報検索方法及びその装置、並びに該方法の実行プログラム及び該方法の実行プログラムを記録した記録媒体
JP2003330969A (ja) * 2002-05-16 2003-11-21 Sony Corp 情報管理システム、情報処理装置、情報処理方法、情報処理プログラム、及び記憶媒体

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002007461A (ja) * 2000-06-21 2002-01-11 Nippon Telegr & Teleph Corp <Ntt> 個人向け情報収集サーバ、個人向け情報収集方法および記録媒体
JP2002108923A (ja) * 2000-09-29 2002-04-12 Sony Corp コンテンツ提供方法およびコンテンツ
JP2003323458A (ja) * 2002-05-02 2003-11-14 Nippon Telegr & Teleph Corp <Ntt> 情報検索方法及びその装置、並びに該方法の実行プログラム及び該方法の実行プログラムを記録した記録媒体
JP2003330969A (ja) * 2002-05-16 2003-11-21 Sony Corp 情報管理システム、情報処理装置、情報処理方法、情報処理プログラム、及び記憶媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MASAAKI KIKUCHI: "Kaisogata Clustering o Mochiita Jikeiretsu Text Shugo kara no Wadai Suii Chushutsu", JOURNAL OF THE DBSJ, vol. 7, no. 1, 27 June 2008 (2008-06-27), pages 85 - 90 *
SANGUANTRAKUL SOMNUK: "User Customized Classification and Selection for Broadcasted Data", IPSJ SIG NOTES, vol. 97, no. 104, 7 November 1997 (1997-11-07), pages 249 - 254 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107273346A (zh) * 2016-03-30 2017-10-20 邻客音公司 从文本中对热门见解的可扩展挖掘

Also Published As

Publication number Publication date
JP2010225115A (ja) 2010-10-07

Similar Documents

Publication Publication Date Title
WO2010109709A1 (ja) コンテンツ推薦装置及び方法
CN101267518B (zh) 从内容元数据提取相关信息的方法和装置
US8219577B2 (en) Apparatus and method product for presenting recommended information
JP5229226B2 (ja) 情報共有システム、情報共有方法、および情報共有プログラム
EP1154358A2 (en) Automatic text classification system
JP2009238115A (ja) 情報推薦装置および情報推薦方法
JP5395461B2 (ja) 情報推薦装置、情報推薦方法および情報推薦プログラム
US20090063568A1 (en) Method and apparatus for constructing user profile using content tag, and method for content recommendation using the constructed user profile
JP2011529600A (ja) 意味ベクトルおよびキーワード解析を使用することによるデータセットを関係付けるための方法および装置
JP2016126567A (ja) コンテンツ推薦装置、及びプログラム
JP5313295B2 (ja) 文書探索サービス提供方法及びシステム
US9418141B2 (en) Systems and methods for providing a multi-function search box for creating word pages
JP4734048B2 (ja) 情報検索装置、情報検索方法および情報検索プログラム
US20160188595A1 (en) Semantic Network Establishing System and Establishing Method Thereof
JP2006302024A (ja) 関連文書表示方法及びプログラム
JP2010198278A (ja) 評判情報分類装置、評判情報分類方法及びプログラム
JP4120597B2 (ja) 部分コンテンツ作成方法及び装置及びプログラム
JP4606349B2 (ja) 話題画像抽出方法及び装置及びプログラム
JP2008077252A (ja) 文書ランキング方法、文書検索方法、文書ランキング装置、文書検索装置、及び記録媒体
JP2008117134A (ja) 期間抽出装置,期間抽出方法,その方法を実装した期間抽出プログラム及びそのプログラムを格納した記録媒体
JP2008225584A (ja) 物品推薦装置、物品推薦システム、物品推薦方法及び物品推薦プログラム
JP5289468B2 (ja) 回答検索装置、方法、及びプログラム
KR100831055B1 (ko) 온톨로지 기반의 정보 검색 방법
TWI385540B (zh) 文章內容加值服務系統及其方法
JP5439050B2 (ja) 関連コンテンツ表示装置及びコンピュータプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09842319

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09842319

Country of ref document: EP

Kind code of ref document: A1