WO2013038774A1 - 文書分類装置、方法およびプログラム - Google Patents

文書分類装置、方法およびプログラム Download PDF

Info

Publication number
WO2013038774A1
WO2013038774A1 PCT/JP2012/066184 JP2012066184W WO2013038774A1 WO 2013038774 A1 WO2013038774 A1 WO 2013038774A1 JP 2012066184 W JP2012066184 W JP 2012066184W WO 2013038774 A1 WO2013038774 A1 WO 2013038774A1
Authority
WO
WIPO (PCT)
Prior art keywords
document
feature
cluster
classification
feature word
Prior art date
Application number
PCT/JP2012/066184
Other languages
English (en)
French (fr)
Inventor
真純 稲葉
真鍋 俊彦
國分 智晴
亘 仲野
Original Assignee
株式会社東芝
東芝ソリューション株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東芝, 東芝ソリューション株式会社 filed Critical 株式会社東芝
Priority to CN201280002991.6A priority Critical patent/CN103119596B/zh
Priority to US13/845,989 priority patent/US9507857B2/en
Publication of WO2013038774A1 publication Critical patent/WO2013038774A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes

Definitions

  • Embodiments described herein relate generally to a document classification apparatus, method, and program.
  • reputation analysis that analyzes the reputation of things based on intention expressions in documents is known.
  • Reputation analysis determines not only the quality of simple things, but also the quality of each viewpoint that evaluates things. For this reason, in the conventional reputation analysis, in addition to the dictionary of intention expressions, a dictionary of a viewpoint that is a target of intention expressions is required.
  • the former intention expression dictionary is versatile because it does not depend on a specific field, and can be used in various fields.
  • the dictionary of the latter viewpoint is not very versatile because it strongly depends on a specific field, and must be created for each field.
  • document clustering is known as a method for classifying a document set.
  • a set of documents can be classified according to the content of each document. If classification can be performed based on the viewpoint that is the target of intention expression, reputation analysis can be performed without using a viewpoint dictionary. .
  • a technique using a thesaurus for document clustering is known. For example, there is a technique for selecting a hierarchy on the thesaurus and classifying and integrating document clusters using registered words on the same hierarchy. According to this, the granularity of classification of document clusters can be unified, and a thesaurus registered word used for classification can be given to the classified document clusters as classification labels.
  • the registered words in the thesaurus are widely distributed, and the number of document clusters increases.
  • the classification label is a narrow word belonging to a subordinate concept in the thesaurus. For this reason, it is difficult to present the document classification result in an easy-to-understand manner.
  • the problem to be solved by the present invention is to provide a document classification apparatus, method, and program capable of presenting the document classification result in an easy-to-understand manner.
  • the document classification apparatus of the embodiment includes feature word extraction means, feature word clustering means, document classification means, classification label assignment means, and presentation means.
  • the feature word extraction unit extracts feature words from the documents included in the document set.
  • the feature word clustering means is configured to extract the feature words from a plurality of clusters constituting a thesaurus subtree having a tree structure, the number of the documents in which the feature words belonging to one cluster appear, Clustering is performed into a plurality of clusters in which a difference from the number of documents in which the feature words belonging to the cluster appear is equal to or less than a predetermined reference value.
  • the document classification unit classifies the documents included in the document set into clusters to which the feature words appearing in the documents belong.
  • the classification label assigning means assigns a classification label that is a phrase representing the feature word belonging to each cluster to each of the plurality of clusters.
  • the presenting means presents the classification result of the document in association with the classification label assigned to the classified cluster.
  • FIG. 1 is a block diagram showing a document classification apparatus according to the first embodiment.
  • FIG. 2 is a diagram illustrating an example of a document set stored in the document storage unit.
  • FIG. 3A is a diagram illustrating an example of an intention expression stored in the intention dictionary storage unit.
  • FIG. 3B is a diagram illustrating an example of the intention expression stored in the intention dictionary storage unit.
  • FIG. 4 is a diagram illustrating an example of a thesaurus stored in the thesaurus storage unit.
  • FIG. 5A is a diagram illustrating an example of feature words extracted from each document to be classified.
  • FIG. 5B is a diagram illustrating an example of feature words extracted from each document to be classified.
  • FIG. 6 is a diagram illustrating an example of a result of clustering feature words.
  • FIG. 1 is a block diagram showing a document classification apparatus according to the first embodiment.
  • FIG. 2 is a diagram illustrating an example of a document set stored in the document storage unit.
  • FIG. 3A is a
  • FIG. 7A is a diagram illustrating an example of a result of classifying each document to be classified.
  • FIG. 7B is a diagram illustrating an example of a result of classifying each document to be classified.
  • FIG. 8A is a diagram illustrating an example of classification labels assigned to document clusters.
  • FIG. 8B is a diagram illustrating an example of the classification label assigned to the document cluster.
  • FIG. 9A is a diagram illustrating an example of presentation of information by the presentation unit.
  • FIG. 9B is a diagram of an example of information presented by the presenting unit.
  • FIG. 9C is a diagram of an example of information presented by the presenting unit.
  • FIG. 10 is a flowchart showing the flow of processing by the feature word extraction means.
  • FIG. 10 is a flowchart showing the flow of processing by the feature word extraction means.
  • FIG. 11 is a flowchart showing the flow of processing by the feature word clustering means.
  • FIG. 12 is a flowchart showing the flow of processing by the document classification means.
  • FIG. 13 is a flowchart showing the flow of processing by the classification label assigning means.
  • FIG. 14 is a block diagram illustrating a document classification apparatus according to the second embodiment.
  • FIG. 15 is a diagram illustrating an example of a designated document stored in the designated document storage unit.
  • FIG. 16 is a diagram illustrating an example of feature words extracted from each document to be classified and a designated document.
  • FIG. 17 is a diagram illustrating an example of classification labels assigned to document clusters.
  • FIG. 18A is a diagram of an example of information presented by the presenting unit.
  • FIG. 18A is a diagram of an example of information presented by the presenting unit.
  • FIG. 18-2 is a diagram of an example of information presented by the presenting means.
  • FIG. 19 is a block diagram illustrating a document classification device according to the third embodiment.
  • FIG. 20 is a diagram illustrating an example of a viewpoint dictionary stored in the viewpoint dictionary storage unit.
  • FIG. 21 is a diagram illustrating an example of feature words extracted from each document to be classified.
  • FIG. 22 is a diagram showing an example of classification labels assigned to document clusters.
  • FIG. 23A is a diagram illustrating an example of information presented by the presenting unit.
  • FIG. 23B is a diagram of an example of information presented by the presenting unit.
  • FIG. 23C is a diagram of an example of information presented by the presenting unit.
  • FIG. 24 is a block diagram illustrating a document classification device according to the fourth embodiment.
  • FIG. 25 is a diagram illustrating an example of a document set stored in the document storage unit.
  • FIG. 26 is an explanatory diagram illustrating a hardware configuration example of the data processing device.
  • FIG. 1 is a block diagram showing a document classification apparatus according to the first embodiment.
  • the document classification device according to the first embodiment includes a storage device 1, a data processing device 2, and an input / output device 3.
  • the storage device 1, the data processing device 2, and the input / output device 3 are connected so as to be able to exchange information with each other by wire or wireless.
  • the storage device 1, the data processing device 2, and the input / output device 3 may be realized by a single information processing device.
  • the storage device 1 includes a document storage unit 101, an intention dictionary storage unit 102, and a thesaurus storage unit 103.
  • the document storage unit 101 stores a set of documents to be classified.
  • FIG. 2 is a diagram illustrating an example of a document set stored in the document storage unit 101.
  • the document included in the document set is not limited to a specific form, and is a document described in a natural language, for example.
  • a document set including documents such as Web page documents, business-created documents, and patent gazettes is stored in the document storage unit 101.
  • the document storage unit 101 may store not only the document itself but also a document ID as a set.
  • FIG. 2 shows an example in which a document set including a document with a document ID D1 to a document with a document ID D10 is stored in the document storage unit 101.
  • a hard disk or a flash memory can be used as the document storage unit 101.
  • the intention dictionary storage unit 102 stores generally used intention expressions.
  • the intention expression is a word that a person expresses with an intention or intention, such as evaluation, approval or disapproval, success or failure of an event.
  • FIGS. 3A and 3B are diagrams illustrating examples of intention expressions stored in the intention dictionary storage unit 102.
  • the intention dictionary storage unit 102 may store not only the intention expression itself but also the types of intention expressions.
  • FIG. 3A illustrates an example in which intention expressions “good”, “good”, “wide”, “bad”, “sorry”, and “high” are stored in the intention dictionary storage unit 102.
  • FIG. 3B “good”, “good”, and “wide” intention expressions are stored for the types of intention expressions whose “evaluation” is “popular”, and “evaluation” is “not popular”. An example is shown in which “bad”, “sorry”, and “high” intention expressions are stored for the types of intention expressions.
  • the intention dictionary storage unit 102 for example, a hard disk or a flash memory can be used.
  • the thesaurus storage unit 103 stores one or more thesauruses.
  • the thesaurus is a dictionary in which words are classified and organized by upper / lower relationship, partial / whole relationship, synonym relationship, synonym relationship, and the like.
  • the thesaurus stored in the thesaurus storage unit 103 has a tree structure in which registered words are nodes and upper nodes and lower nodes are connected by links.
  • FIG. 4 is a diagram illustrating an example of a thesaurus stored in the thesaurus storage unit 103.
  • FIG. 4 shows an example in which two thesauruses (a) and (b) are stored in the thesaurus storage unit 103.
  • the thesaurus stored in the thesaurus storage unit 103 an existing one can be used.
  • an EDR conceptual system dictionary, JST scientific and technical term thesaurus, WordNet, etc. can be used.
  • the thesaurus storage unit 103 may store not only the thesaurus registered words and the relationship between the registered words, but also the co-occurrence frequency between the registered words and the co-occurrence degree representing the co-occurrence scale.
  • self-mutual information Pointwise Mutual Information
  • thesaurus storage unit 103 for example, a hard disk or a flash memory can be used.
  • the data processing apparatus 2 includes a feature word extraction unit 201, a feature word clustering unit 202, a document classification unit 203, and a classification label addition unit 204.
  • the feature word extraction unit 201 extracts a feature word from each document to be classified included in the document set stored in the document storage unit 101. Specifically, the feature word extraction unit 201 first extracts a phrase that is a target of the intention expression from each document to be classified included in the document set by using the intention expression stored in the intention dictionary storage unit 102. To do. Next, the feature word extraction unit 201 extracts, as a feature word, a phrase selected according to a predetermined criterion from the extracted phrases that are the target of the intended expression.
  • a method such as morphological analysis, semantic information extraction, compound word extraction, and dependency analysis can be used to extract a phrase that is a target of intention expression.
  • C-value can be used as a specific method for compound word extraction.
  • a specific type may be selected from the results of morphological analysis, semantic information extraction, compound word extraction, and dependency analysis.
  • a method of extracting feature words from words that are the target of intention expression for example, a method of extracting words and phrases whose weight calculated based on the appearance frequency is a predetermined value or more as feature words is used. Can do.
  • the predetermined value here can be arbitrarily selected according to the number of feature words to be narrowed down.
  • tf-idf can be used as a weight based on the appearance frequency.
  • tf-idf is used when the number of documents is large, and tf (Term Frequency: appearance frequency of words) is used when the number of documents is small. Such a switching may be performed.
  • FIGS. 5-1 and 5-2 are diagrams showing examples of feature words extracted from each document to be classified included in the document set shown in FIG. Here, it is assumed that all the documents shown in FIG. 2 are to be classified.
  • FIG. 5-1 is an example of feature words extracted using the intention expression shown in FIG. 3-1
  • FIG. 5-2 is an example of feature words extracted using the intention expression shown in FIG. 3-2. It is an example.
  • the feature words extracted by the feature word extraction unit 201 are held in association with a document ID representing the extraction source document, as shown in FIGS. 5A and 5B, for example. Further, as shown in FIG. 5B, the feature word extracted by the feature word extraction unit 201 is stored in association with the intention expression used for extraction and the type thereof in addition to the document ID representing the extraction source document. It may be. In the example of FIG. 5B, the feature words are further classified using two layers of the type of intention expression (popular and unpopular).
  • the feature word clustering unit 202 clusters the feature words extracted by the feature word extraction unit 201 using the thesaurus stored in the thesaurus storage unit 103. Specifically, the feature word clustering means 202 clusters the feature words extracted by the feature word extraction means 201 into a plurality of feature word clusters such that each cluster constitutes a thesaurus subtree.
  • the difference between the number of documents in which the feature words belonging to one feature word cluster appear and the number of documents in which the feature words belonging to another feature word cluster appear in the plurality of feature word clusters generated here is predetermined. Make it below the reference value. That is, the number of documents in which feature words belonging to each feature word cluster appear is made to be the same between a plurality of feature word clusters.
  • the reference value allowed as the difference in the number of documents in which feature words belonging to each feature word cluster appear can be determined based on, for example, a ratio to the total number of documents included in the document set.
  • a clustering technique by the feature word clustering means 202 for example, a hierarchical clustering technique based on a distance on a thesaurus can be used.
  • the thesaurus subtree is grown from lower words to higher words so that feature words that are close in meaning belong to one feature word cluster, and feature words belonging to one feature word cluster
  • a method of stopping the growth of the subtree can be used.
  • a fixed constant is allowed for the distance on the thesaurus between the feature words constituting one feature word cluster.
  • the partial tree may be grown so as to extend over the plurality of thesauruses.
  • FIG. 6 is a diagram illustrating an example of a result of clustering the feature words by the feature word clustering unit 202.
  • feature word clusters constituting the four subtrees T1 to T4 are generated. Characteristic words “reservation”, “service”, “customer service”, “staff”, and “employee” belong to the feature word cluster constituting the subtree T1. Each feature word of “price”, “amount”, and “fee” belongs to the feature word cluster constituting the subtree T2.
  • the feature words cluster constituting the subtree T3 includes the feature words “cooking”, “Japanese food”, “Chinese food”, “Western food”, “Viking”, and “number of items”.
  • Characteristic words “smoking” and “no smoking” belong to the feature word cluster constituting the subtree T4.
  • the subtree T1 spans the two thesauruses of (a) and (b) by regarding the “staff” in the thesaurus of (a) and the “stuff” in the thesaurus of (b) as the same. It is a partial tree.
  • the feature word clustering means 202 uses the technique of clustering the feature words into the feature word clusters constituting the thesaurus subtree as described above, so that the feature word extraction means 201 cannot extract the phrases that cannot be extracted as the feature words. It can be supplemented as a feature word belonging to the feature word cluster. For example, among the feature words belonging to the feature word cluster constituting the subtree T3 shown in FIG. 6, “cooking”, “Chinese food”, “Western food”, and “Viking” are shown in FIGS.
  • the feature word clustering means 202 uses the technique of clustering the feature words into the feature word clusters constituting the thesaurus sub-tree as described above, so that the feature word extraction means 201 can extract the phrases as feature words.
  • words that are not registered as registered thesaurus words can be excluded from the feature words belonging to the feature word cluster.
  • the feature word extraction results by the feature word extraction unit 201 shown in FIGS. 5A and 5B include the words “seat”, “setting”, “parking”, and “hope” as the feature words.
  • these words that are not registered as the thesaurus registered words shown in FIG. 6 can be excluded from the feature words belonging to the feature word cluster.
  • the feature word clustering unit 202 not only clusters the set of feature words extracted by the feature word extraction unit 201 but also the feature words extracted by the feature word extraction unit 201 and the registered words of the thesaurus. Based on the distance on the thesaurus, the clustering is performed while correcting the set of feature words.
  • the thesaurus subtree is used for feature words belonging to one feature word cluster and feature words belonging to another feature word cluster having a large distance on the thesaurus.
  • a feature word cluster that satisfies the above-described criteria cannot be constructed with a single subtree that does not grow.
  • the feature word clustering means 202 collects a plurality of subtrees that cannot constitute a single feature word cluster that satisfies the above-mentioned criteria, and sets it as one feature word cluster. That is, the feature word cluster is a feature word cluster in which feature words that are semantically separated (discrete on the thesaurus) are collected. In the example shown in FIG.
  • a set of subtrees surrounded by a broken line becomes one feature word cluster.
  • “Atmosphere” and “Temperature” are feature words belonging to this feature word cluster.
  • the words “impression” and “air conditioner” that the feature word extraction unit 201 could not extract as feature words are supplemented as feature words.
  • the document classification unit 203 classifies each document to be classified included in the document set stored in the document storage unit 101 based on the result of the feature word clustering by the feature word clustering unit 202, and generates a document cluster. Specifically, the document classification unit 203 classifies documents in which feature words belonging to one feature word cluster appear into one document cluster, and for each feature word cluster generated by the feature word clustering unit 202, a document cluster Is generated. Note that a document that does not include any feature word included in the feature word cluster generated by the feature word clustering unit 202 is classified as an unclassified cluster.
  • FIGS. 7-1 and 7-2 are diagrams showing an example of the result of classifying each document to be classified included in the document set shown in FIG. Here, it is assumed that all the documents shown in FIG. 2 are to be classified.
  • FIG. 7A and FIG. 7B are examples of classification results of documents classified based on the result of feature word clustering by the feature word clustering unit 202 shown in FIG.
  • the classification result by the document classification unit 203 is stored as information in which the document ID of a document belonging to each document cluster is associated with each document cluster ID. Is done. Further, for each document cluster ID, in addition to the document ID, feature words belonging to each cluster may be stored as associated information.
  • FIGS. 7A and 7B illustrate an example in which each document to be classified is classified into five document clusters from a document cluster having a document cluster ID C1 to a document cluster having a document cluster ID C5. .
  • the document cluster with the document cluster ID C1 corresponds to the feature word cluster constituting the thesaurus subtree T1 shown in FIG.
  • the document cluster whose document cluster ID is C2 corresponds to the feature word cluster constituting the thesaurus subtree T2 shown in FIG.
  • the document cluster with the document cluster ID C3 corresponds to the feature word cluster constituting the thesaurus subtree T3 shown in FIG.
  • the document cluster whose document cluster ID is C4 corresponds to the feature word cluster constituting the thesaurus subtree T4 shown in FIG.
  • the document cluster with the document cluster ID C5 corresponds to a feature word cluster generated by collecting a plurality of thesaurus subtrees surrounded by a broken line shown in FIG. As can be seen from the examples shown in FIGS. 7-1 and 7-2, one document may be classified into a plurality of document clusters.
  • the classification label assigning means 204 assigns a classification label, which is a word representing a feature word belonging to each cluster, to each document cluster (that is, a cluster obtained by clustering feature words). For example, one or more classification labels are selected from the feature words belonging to each cluster.
  • a classification label for example, a method of selecting based on a document range in which a feature word appears, a method of selecting based on the position of the feature word in a thesaurus, or the like can be used.
  • a classification label is selected by giving priority to a document having a high appearance frequency of a feature word or a document having a large number of feature words.
  • a classification label may be selected for each type of intention expression.
  • the classification label assigning unit 204 for a document cluster corresponding to a feature word cluster generated by collecting a plurality of thesaurus subtrees, is a set of a plurality of feature words in which the cluster does not constitute one thesaurus subtree.
  • the classification label in this case, for example, “other” or “unclassified” can be used.
  • representative feature words may be selected and given as classification labels.
  • FIGS. 8A and 8B are diagrams illustrating examples of classification labels given by the classification label assigning unit 204.
  • FIG. 8A is an example of a classification label given to each document cluster of the classification result shown in FIG. 7A.
  • FIG. 8B is a diagram showing each document of the classification result shown in FIG. It is an example of the classification
  • “Reservation” and “Service” are assigned as classification labels to the document cluster with the document cluster ID C1.
  • “charge” and “price” are assigned as classification labels to the document cluster whose document cluster ID is C2.
  • “Viking” and “Cooking” are assigned as classification labels to the document cluster whose document cluster ID is C3.
  • “no smoking” is given as a classification label for the document cluster with the document cluster ID C4.
  • “other”, “location”, “impression”, and “air conditioning” are assigned as classification labels to the document cluster whose document cluster ID is C5.
  • the input / output device 3 includes a classification method selection unit 301 and a presentation unit 302.
  • the classification method selection unit 301 accepts selection of a document to be classified among documents included in a document set stored in the document storage unit 101.
  • the classification method selection unit 301 has a function for accepting selection of a document to be classified by the user and explicitly transmitting to the data processing apparatus 2 which document has been selected, such as a transmission button. For example, when the user inputs an arbitrary query, a set of documents corresponding to the input query is selected as a classification target from among documents included in the document set stored in the document storage unit 101, and the selected document is clearly indicated.
  • a method of transmitting information to be transmitted to the data processing device 2 can be used. When the information from the classification method selection unit 301 is transmitted to the data processing device 2, the feature word extraction unit 201 of the data processing device 2 starts processing.
  • the timing at which the feature word extraction unit 201 of the data processing device 2 starts processing is not limited to when information is transmitted from the classification method selection unit 301.
  • the feature word extraction unit 201 of the data processing device 2 may start processing.
  • the presenting unit 302 presents the classification result of the document by the document classifying unit 203 to the user as information associated with the classification label given by the classification label giving unit 204. Specifically, the presentation unit 302 generates, as display information, a combination of an icon with the number of documents classified into a document cluster and a classification label assigned to the document cluster, and inputs and outputs this display information. It is displayed on a display (not shown) of the device 3 or the like. Also, the presentation unit 302 generates display information in which feature words belonging to each cluster are associated with a combination of an icon with the number of documents and a classification label, and the display information is displayed on the display of the input / output device 3 or the like. You may make it make it.
  • the feature word displayed in association with the combination of the icon with the number of documents and the classification label, It is desirable to display in a format that can be distinguished for each type of intention expression.
  • FIGS. 9-1 to 9-3 are diagrams showing examples of information presented by the presenting means 302.
  • FIG. The examples shown in FIGS. 9-1 to 9-3 are examples in which display information in which a combination of an icon with the number of documents and a classification label is associated with a feature word belonging to each cluster is displayed. .
  • the feature words belonging to each cluster are displayed in a format that can be distinguished for each type of intention expression used to extract the feature words.
  • Examples of formats that can be distinguished for each type of intention expression include, for example, an example of color-coding a word or background of a word, making a word a different font, and writing an icon indicating the type of intention expression.
  • FIG. 9A feature words having a popular intention expression type are displayed in a normal font, and feature words having a bad intention expression type are displayed in an italic font with an underline.
  • FIG. 9B a laughing face icon is attached to a feature word whose type of intention expression is popular, and a troubled face icon is displayed to a feature word whose type of intention expression is not popular. It is attached. Further, in the example shown in FIG.
  • the document storage unit 101 stores the document set shown in FIG. 2
  • the intention dictionary storage unit 102 stores the intention expression shown in FIG. 3-2
  • the thesaurus storage unit 103 will be described assuming that the thesaurus shown in FIG. 4 is stored and all the documents included in the document set shown in FIG. 2 are selected as classification targets.
  • FIG. 10 is a flowchart showing the flow of processing by the feature word extraction means 201.
  • the feature word extraction unit 201 first acquires a document set stored in the document storage unit 101 (step S101). It is assumed that the document set acquired here is the document set shown in FIG.
  • the feature word extraction unit 201 acquires the intention expression stored in the intention dictionary storage unit 102 (step S102).
  • the intention expression acquired here is the intention expression shown in FIG.
  • the feature word extraction unit 201 identifies an intention expression that matches the intention expression stored in the intention dictionary storage unit 102 from each document included in the document set acquired in step S101, and sets the target of the intention expression. Is extracted (step S103).
  • the feature word extraction unit 201 extracts, as a feature word, a phrase selected according to a predetermined criterion from the phrases that are the target of the intention expression extracted in step S103 (step S104), and the flowchart of FIG. The series of processing indicated by is terminated.
  • FIG. 11 is a flowchart showing the flow of processing by the feature word clustering means 202.
  • the feature word clustering means 202 first acquires the feature words extracted by the feature word extraction means 201 (step S201). Assume that the feature words acquired here are the feature words shown in FIG.
  • the feature word clustering means 202 acquires the thesaurus stored in the thesaurus storage unit 103 (step S202).
  • the thesaurus acquired here is assumed to be the thesaurus shown in FIG.
  • the feature word clustering means 202 extracts the feature words existing in the thesaurus acquired in step S202 from the feature words acquired in step S201 (step S203).
  • the feature word clustering means 202 acquires the thesaurus distance between the feature words extracted in step S203 and the number of documents in which the feature words appear (step S204).
  • the distance on the thesaurus between feature words the distance between concepts that represents the distance between adjacent concepts as a unit distance can be used.
  • the co-occurrence frequency between concepts stored in the thesaurus storage unit 103 or a co-occurrence degree representing a scale of co-occurrence may be used.
  • the feature word clustering means 202 uses the distance on the thesaurus between the feature words acquired in step S204 and the number of documents in which the feature words appear, and the feature words extracted in step S203 are each a part of the thesaurus. Clustering is performed on a plurality of feature word clusters constituting the tree (step S205). At this time, the feature word clustering means 202 makes the number of documents in which feature words belonging to each cluster appear close to the same number among a plurality of feature word clusters. That is, the feature word is set so that the difference between the number of documents in which the feature word belonging to one feature word cluster appears and the number of documents in which the feature word belonging to another feature word cluster appears is equal to or less than a predetermined reference value. Perform clustering.
  • the number of documents in which the feature word appears the total number of documents in which all the feature words belonging to the feature word cluster may appear, or a specific feature word appears from among the feature words belonging to the feature word cluster.
  • the number of documents to be used may be used.
  • the words / phrases that cannot be extracted as feature words by the feature word clustering means 202 by the feature word clustering means 202 the words / phrases registered as the thesaurus registered words are supplemented as the feature words belonging to the feature word cluster.
  • phrases that are not registered as registered thesaurus words can be excluded from the feature words belonging to the feature word cluster.
  • FIG. 12 is a flowchart showing the flow of processing by the document classification unit 203.
  • Document classification means 203 first acquires the words belonging to each feature word cluster generated by feature word clustering means 202 as feature words (step S301).
  • the document classification unit 203 acquires one document from the classification target document set stored in the document storage unit 101 (step S302).
  • the document classification unit 203 determines whether or not the feature word acquired in step S301 exists in the classification target document acquired in step S302 (step S303). If there is a feature word in the document to be classified (step S303: Yes), the document classification unit 203 classifies the document to be classified into the feature word cluster to which the feature word belongs (step S304). On the other hand, when the characteristic word does not exist in the classification target document (step S303: No), the document classification unit 203 classifies the classification target document into an unclassified cluster (step S305).
  • the document classification unit 203 determines whether all the documents to be classified have been classified (step S306). Then, if there remains a document that has not been classified (step S306: No), the document classification unit 203 returns to step S302 and repeats the subsequent processing, and when classification of all the documents to be classified is completed (step S306). : Yes), a series of processes shown in the flowchart of FIG.
  • FIG. 13 is a flowchart showing the flow of processing by the classification label assigning means 204.
  • the classification label assigning unit 204 first obtains a document cluster which is a document classification result by the document classification unit 203 (step S401).
  • the classification label assigning unit 204 acquires a thesaurus subtree corresponding to each of the document clusters acquired in step S401 (step S402).
  • the classification label assigning means 204 selects a phrase that represents a feature word belonging to each document cluster using the structure of the thesaurus subtree corresponding to each document cluster (step S403).
  • a word / phrase representing the feature word may be selected for each type of intention expression.
  • the classification label assigning means 204 assigns the word / phrase selected in step S403 to each document cluster as a classification label (step S404), and ends the series of processes shown in the flowchart of FIG.
  • the feature words extracted from the documents to be classified are made up of individual clusters that form a thesaurus subtree. Then, clustering is performed into a plurality of feature word clusters such that the number of documents in which the feature words belonging to each cluster appear is substantially equal. Then, the document to be classified is classified based on the feature word cluster to generate a document cluster, a classification label is assigned to each document cluster, and the classification result of the document is associated with the classification label and presented to the user. Therefore, it effectively suppresses adverse effects such as the number of classified clusters becoming too large and the number of documents classified for each cluster being largely biased, and presents the document classification results to the user in an easy-to-understand manner. be able to.
  • a phrase selected from a phrase that is an object of intention expression is extracted as a feature word, and the feature words are clustered using a thesaurus. Reputation analysis can be performed without using a dictionary that is strongly dependent on the field.
  • the document classification result is presented to the user in association with the classification label and the feature word. It can be presented in an easy-to-understand manner. Further, the feature words are presented in a format that can be distinguished for each type of intention expression, so that the document classification results can be presented in an easy-to-understand manner.
  • FIG. 14 is a block diagram illustrating a document classification apparatus according to the second embodiment.
  • symbol is attached
  • the document classification apparatus according to the second embodiment includes a storage device 1a, a data processing device 2a, and an input / output device 3a.
  • the storage device 1a, the data processing device 2a, and the input / output device 3a are connected so as to be able to exchange information with each other by wire or wirelessly.
  • the storage device 1a, the data processing device 2a, and the input / output device 3a may be realized by a single information processing device.
  • the storage device 1 a includes a designated document storage unit 104 in addition to the document storage unit 101, the intention dictionary storage unit 102, and the thesaurus storage unit 103.
  • the designated document storage unit 104 stores a document other than the document to be classified, for example, a document including background knowledge for classifying the document.
  • the document stored in the designated document storage unit 104 is a document that is designated when the document to be classified is classified.
  • the document stored in the designated document storage unit 104 is referred to as a designated document.
  • FIG. 15 is a diagram showing an example of the designated document stored in the designated document storage unit 104.
  • the designated document is not limited to a specific form, and is, for example, a document described in a natural language. For example, news releases, newspaper articles, technical documents, and the like are stored in the designated document storage unit 104 as designated documents.
  • the designated document storage unit 104 may store not only the designated document itself but also a designated document ID as a set.
  • FIG. 15 shows an example in which the designated document with the designated document ID N1 and the designated document with the designated document ID N2 are stored in the designated document storage unit 104.
  • a hard disk or a flash memory can be used.
  • the data processing device 2a includes a feature word extraction unit 201a, a feature word clustering unit 202a, a document classification unit 203a, and a classification label addition unit 204a.
  • the feature word extraction unit 201a extracts a selected word / phrase as a feature word among the words / phrases to be the target of the intention expression, like the feature word extraction unit 201 of the first embodiment.
  • the feature word extraction unit 201a extracts not only the selected words / phrases from among the words / phrases to be expressed as intention expressions but also the words / phrases included in the designated document stored in the designated document storage unit 104 as feature words. That is, the feature word extraction unit 201a extracts, as a feature word, a word / phrase included in the designated document among words / phrases included in the document to be classified.
  • FIG. 16 is a diagram showing an example of feature words extracted from each document to be classified included in the document set shown in FIG. 2 and the designated document shown in FIG. Here, it is assumed that all the documents shown in FIG. 2 are to be classified.
  • the feature word extracted by the feature word extraction unit 201a is held in association with the document ID representing the extraction source document, for example, as shown in FIG.
  • the feature word extracted as a phrase included in the designated document may be stored in association with information indicating that the phrase is included in the designated document.
  • the feature words extracted from the document whose document ID is D1 “Pirates Dining” and “Non-smoking area” are extracted as words included in the designated document. Has been. Further, it is shown that “Pirates Dining” is extracted as a word / phrase included in the designated document among the feature words extracted from the document with the document ID D3.
  • “Nantoku Buffet” is extracted as a word / phrase included in the designated document among the feature words extracted from the document with the document ID D5.
  • “Pirates Dining” is extracted as a word / phrase included in the designated document among the feature words extracted from the document with the document ID D6.
  • “Pirates Dining” is extracted as a word / phrase included in the designated document among the feature words extracted from the document with the document ID D8.
  • the feature word clustering means 202a clusters the feature words extracted from the documents to be classified, like the feature word clustering means 202 of the first embodiment. However, the feature word clustering unit 202a clusters the feature words extracted as words included in the designated document into one cluster. In the example shown in FIG. 16, “Pirates Dining” and “Nangoku Buffet”, which are feature words extracted as words included in the designated document, are clustered into one cluster. Note that, even in the case of feature words extracted as phrases included in the designated document, those that match the feature words extracted only from the document to be classified, such as “no smoking area”, are described in the first embodiment. Cluster using the method described.
  • the document classification unit 203a classifies the documents to be classified based on the feature word cluster that is the result of clustering by the feature word clustering unit 202a, as with the document classification unit 203 of the first embodiment. However, when a feature word extracted from the designated document appears in the document to be classified, the document classification unit 203a classifies the document into a cluster to which the feature word extracted from the designated document belongs. In the example shown in FIG. 16, the document with the document ID D1, the document with the document ID D3, the document with the document ID D6, and the document with the document ID D8 are classified into the clusters to which “Pirates Dining” belongs. . Further, the document with the document ID D5 is classified into a cluster to which “Tangoku Buffet” belongs.
  • the classification label assignment unit 204a assigns, as a classification label, a word representing a feature word belonging to the cluster to the document cluster that is a cluster into which the document is classified. To do. However, the classification label assigning unit 204a assigns the feature word itself extracted from the designated document as a classification label for the cluster to which the feature word extracted from the designated document belongs.
  • FIG. 17 is a diagram showing an example of the classification label given by the classification label giving means 204a.
  • “Pirates Dining” itself is assigned as a classification label to the cluster to which “Pirate Dining”, which is a feature word extracted from the designated document, belongs (cluster with document cluster ID C6).
  • “Nangoku Buffet” itself is assigned as a classification label.
  • the input / output device 3a includes a classification method selection unit 301a and a presentation unit 302a.
  • the classification method selection unit 301a accepts selection of a document to be classified, similar to the classification method selection unit 301 of the first embodiment. However, the classification method selection unit 301a accepts not only the selection of a document to be classified but also the designation of a designated document used for document classification. The classification method selection unit 301a accepts selection of a document to be classified by the user and designation of a designated document, and explicitly transmits to the data processing device 2a which document has been selected as a classification target and which designated document has been designated. For example, a transmission button is provided.
  • a set of documents corresponding to the input query is selected as a classification target from among documents included in the document set stored in the document storage unit 101, and the designated document storage unit A method is used in which a designated document corresponding to the input query is selected from the designated documents stored in 104, and the document selected as a classification target and information specifying the designated document are transmitted to the data processing apparatus 2a. Can do.
  • the feature word extraction unit 201a of the data processing device 2a starts processing.
  • the presentation unit 302a presents the document classification result by the document classification unit 203a to the user as information associated with the classification label given by the classification label assignment unit 204a. .
  • the presentation unit 302a presents the cluster to which the feature word extracted from the designated document belongs in a format that can determine that the cluster belongs to the feature word extracted from the designated document.
  • a predetermined icon is written together with a classification label.
  • FIGS. 18A and 18B are diagrams illustrating examples of information presented by the presentation unit 302a.
  • the example illustrated in FIGS. 18A and 18B is an example in which display information in which a combination of an icon with the number of documents and a classification label is associated with a feature word belonging to each cluster is displayed. .
  • display information in which a combination of an icon with the number of documents and a classification label is associated with a feature word belonging to each cluster is displayed.
  • the presenting means 302 of the first embodiment shown in FIG. 9A for each of the classification labels “Non-smoking”, “Pirates dining”, and “Tropical buffet”, these classification labels A flag icon indicating that the cluster to which the feature word extracted from the designated document belongs is also written. Further, the example shown in FIG.
  • the classification result information can be presented in the form of moving up the cluster to which the feature word extracted from the designated document belongs.
  • feature words are extracted not only from a classification target document but also from a designated document, and extracted from the designated document.
  • the feature words are clustered into one cluster.
  • the feature word itself extracted from the designated document is assigned as a classification label
  • the cluster to which the classification label is assigned is the feature word extracted from the designated document.
  • Document classification results are presented in a format that can be identified as a cluster to which they belong. Therefore, it is possible to classify documents in a way that reflects the user's intention, and to present the document classification results to the user in an easy-to-understand manner.
  • FIG. 19 is a block diagram illustrating a document classification device according to the third embodiment.
  • symbol is attached
  • the document classification apparatus according to the third embodiment includes a storage device 1b, a data processing device 2b, and an input / output device 3b.
  • the storage device 1b, the data processing device 2b, and the input / output device 3b are connected so as to be able to exchange information with each other by wire or wirelessly.
  • the storage device 1b, the data processing device 2b, and the input / output device 3b may be realized by a single information processing device.
  • the storage device 1b includes a viewpoint dictionary storage unit 105 in addition to the document storage unit 101, the intention dictionary storage unit 102, and the thesaurus storage unit 103.
  • the viewpoint dictionary storage unit 105 stores a dictionary of viewpoints that are objects of intention expression.
  • the viewpoint dictionary describes viewpoint expressions for document classification.
  • the viewpoint expression is an expression representing the viewpoint of document analysis.
  • FIG. 20 is a diagram illustrating an example of a viewpoint dictionary stored in the viewpoint dictionary storage unit 105.
  • the viewpoint dictionary storage unit 105 may store not only the viewpoint expression itself but also a viewpoint dictionary in which the viewpoint expression types are grouped.
  • An example in which viewpoint expressions of “location”, “station front”, and “close to station” are stored in the viewpoint dictionary storage unit 105 as a viewpoint dictionary for the viewpoint expressions of “customer service” and “location”. Show.
  • viewpoint dictionary storage unit 105 for example, a hard disk or a flash memory can be used.
  • the data processing device 2b includes a feature word extraction unit 201b instead of the feature word extraction unit 201 of the first embodiment, and a classification label addition unit 204b instead of the classification label addition unit 204 of the first embodiment.
  • the feature word extraction unit 201b extracts a selected word / phrase as a feature word from the words / phrases to be the target of the intention expression, like the feature word extraction unit 201 of the first embodiment. However, the feature word extraction unit 201b preferentially extracts viewpoint expressions included in the viewpoint dictionary stored in the viewpoint dictionary storage unit 105 from the phrases that are the target of the intention expression as feature words.
  • FIG. 21 is a diagram showing an example of feature words extracted from each document to be classified included in the document set shown in FIG. 2 using the viewpoint expression shown in FIG. Here, it is assumed that all the documents shown in FIG. 2 are to be classified, and the documents are classified using all of the viewpoint expressions shown in FIG.
  • the feature word extracted by the feature word extraction unit 201b is held in association with the document ID representing the extraction source document, for example, as shown in FIG.
  • feature words that match the viewpoint expression included in the viewpoint dictionary stored in the viewpoint dictionary storage unit 105 are stored in association with the type of viewpoint expression.
  • viewpoints included in the viewpoint dictionary stored in the viewpoint dictionary storage unit 105 include “service” included in the type “service” among the feature words extracted from the document with the document ID D1. It is shown that the feature word matches the expression.
  • “employee” and “customer service” included in the type “service” are included in the viewpoint dictionary stored in the viewpoint dictionary storage unit 105.
  • the feature word matches the expression.
  • the viewpoint dictionary storage unit 105 includes “fee” included in the type “fee” and “station square” included in the type “location”. It is indicated that the feature word matches the viewpoint expression included in the dictionary of viewpoints to be stored.
  • the “charge” included in the type “charge” is included in the viewpoint dictionary stored in the viewpoint dictionary storage unit 105. It is shown that it is a feature word that matches the viewpoint expression.
  • the classification label assignment unit 204b assigns, as a classification label, a word that represents a feature word belonging to the cluster to a document cluster that is a cluster into which the document is classified. To do. However, for the cluster to which the feature word that matches the viewpoint expression included in the viewpoint dictionary stored in the viewpoint dictionary storage unit 105 belongs, the classification label assigning unit 204b preferentially uses the word representing the type of the viewpoint expression as a classification label. Select
  • FIG. 22 is a diagram showing an example of the classification label given by the classification label giving means 204b.
  • a cluster a cluster whose document cluster ID is C1 to which “customer service” and “employee”, which are viewpoint expressions included in the viewpoint dictionary stored in the viewpoint dictionary storage unit 105, belong to “ The phrase “service” indicating the type of “customer service” or “employee” is assigned as a classification label.
  • “charge” indicating the type of “charge”. Is given as a classification label.
  • the input / output device 3b includes a classification method selection unit 301b and a presentation unit 302b.
  • the classification method selection unit 301b accepts selection of a document to be classified, similar to the classification method selection unit 301 of the first embodiment. However, the classification method selection unit 301b accepts not only the selection of documents to be classified, but also the selection of viewpoint expression types used for document classification among the viewpoint expression types held by the viewpoint dictionary storage unit 105. The classification method selection unit 301b accepts selection of a document to be classified by the user and selection of a type of viewpoint expression, which document is selected as a classification target, and which type is selected as a type of viewpoint expression used for document classification. Has a function for explicitly transmitting the data to the data processing device 2b, for example, a transmission button.
  • a set of documents corresponding to the input query is selected as a classification target from among documents included in the document set stored in the document storage unit 101, and the viewpoint dictionary storage unit Data processing is performed to select a viewpoint expression type corresponding to the input query from among the viewpoint expression types held by 105, and to specify the type of viewpoint expression used for classification of the document or document selected as the classification target.
  • a method of transmitting to the device 2b can be used.
  • the feature word extraction unit 201b of the data processing device 2b starts processing.
  • the presentation unit 302b presents the document classification result by the document classification unit 203 to the user as information associated with the classification label provided by the classification label assignment unit 204b. .
  • the presenting unit 302b converts the cluster into the viewpoint dictionary stored in the viewpoint dictionary storage unit 105. It is presented in a format that can be identified as a cluster to which a feature word that matches the included viewpoint expression belongs.
  • An example of presenting a cluster to which a feature word matching the viewpoint expression included in the viewpoint dictionary stored in the viewpoint dictionary storage unit 105 can be determined is an example in which a predetermined icon is written in the classification label. It is done.
  • FIGS. 23-1 to 23-3 are diagrams showing examples of information presented by the presenting means 302b.
  • the example shown in FIGS. 23A to 23C is an example in which display information in which a combination of an icon with the number of documents and a classification label is associated with a feature word belonging to each cluster is displayed. .
  • each classification label of “reservation, service”, “charge, price”, “other, location, impression, air conditioning” On the other hand, an icon of glasses indicating that a cluster to which these classification labels are attached is a cluster to which a feature word matching a viewpoint expression included in the viewpoint dictionary stored in the viewpoint dictionary storage unit 105 belongs is also written. Yes.
  • the example shown in FIG. 23-2 is an example in which the sorting order of the sorting results is changed so that the sorting labels along with the glasses icons are arranged at the top.
  • the classification result information is presented in the form of moving up the cluster to which the feature word matching the viewpoint expression included in the viewpoint dictionary stored in the viewpoint dictionary storage unit 105 belongs. You can also.
  • the example illustrated in FIG. 23-3 is a presentation example that represents only clusters to which feature words that match the viewpoint expression included in the viewpoint dictionary stored in the viewpoint dictionary storage unit 105 belong.
  • the classification result information is stored as in the example shown in FIG. Presented.
  • the viewpoint dictionary storage unit 105 among the phrases that are the target of intention expression included in the documents to be classified. Are preferentially extracted as feature words, which match the viewpoint expression included in the viewpoint dictionary stored in. Then, for a cluster to which a feature word that matches the viewpoint expression included in the viewpoint dictionary stored in the viewpoint dictionary storage unit 105 belongs, a phrase indicating the type of the viewpoint expression is assigned as a classification label, and the classification label is The classification result of the document is presented in a format in which it can be determined that the assigned cluster is a cluster to which a feature word matching the viewpoint expression included in the viewpoint dictionary stored in the viewpoint dictionary storage unit 105 belongs. Therefore, it is possible to classify documents in a way that reflects the user's intention, and to present the document classification results to the user in an easy-to-understand manner.
  • FIG. 24 is a block diagram illustrating a document classification device according to the fourth embodiment.
  • symbol is attached
  • the document classification device according to the fourth embodiment includes a storage device 1c, a data processing device 2, and an input / output device 3.
  • the data processing device 2 and the input / output device 3 are the same as those in the first embodiment.
  • the storage device 1c, the data processing device 2, and the input / output device 3 are connected so as to be able to exchange information with each other by wire or wireless.
  • the storage device 1c, the data processing device 2, and the input / output device 3 may be realized by a single information processing device.
  • the storage device 1c includes a document storage unit 101c instead of the document storage unit 101 of the first embodiment.
  • the document storage unit 101c stores a document set of structured documents separated into document elements for each intention expression as a document set to be classified.
  • FIG. 25 is a diagram illustrating an example of a document set stored in the document storage unit 101c.
  • the structured documents included in the document set are stored, for example, in the form of Web page documents, business-created documents, patent gazettes and the like separated into document elements for each intention expression.
  • the document storage unit 101c may store not only the structured document itself but also a document ID as a set.
  • FIG. 25 shows an example in which a document set including a structured document with a document ID D1 to a structured document with a document ID D3 is stored in the document storage unit 101c.
  • the structured document whose document ID is D1 has a document element for each intention expression of “wide”, “cannot be taken”, and “good”.
  • the structured document with the document ID D2 has document elements for each intention expression of “smile”, “good”, “delicious”, “conscientious”, and “irritated”. Also, the structured document with the document ID D3 has a document element corresponding to the “much” intention expression.
  • a hard disk or a flash memory can be used as the document storage unit 101c.
  • the feature word extraction unit 201 of the data processing device 2 extracts a word / phrase that is a target of intention expression from each document to be classified included in the document set, as in the first embodiment. Then, a phrase selected according to a predetermined criterion is extracted as a feature word from the phrases that are the target of intention expression.
  • the feature word extracting unit 201 extracts the feature words from the document elements of each document. Well, the process is simple.
  • the document to be classified is stored in the document storage unit 101c as a structured document, in addition to the effects of the first embodiment, The process of extracting feature words from a document can be easily performed, and the document can be efficiently classified.
  • FIG. 26 is an explanatory diagram illustrating a hardware configuration example of the data processing devices 2, 2a, and 2b.
  • the data processing devices 2, 2a, and 2b communicate with a control device such as a CPU (Central Processing Unit) 51 and a storage device such as a ROM (Read Only Memory) 52 and a RAM (Random Access Memory) 53 connected to a network.
  • Communication I / F 54 external storage device such as HDD (Hard Disk Drive), CD (Compact Disc) drive device, display device such as display device, input device such as keyboard and mouse, etc.
  • a bus 61 is provided and has a hardware configuration using a normal computer.
  • the programs executed by the data processing devices 2, 2 a, 2 b having the hardware configuration as described above are files in an installable format or executable format, such as CD-ROM (Compact Disk Read Only Memory), flexible disk ( FD), CD-R (Compact Disk Recordable), DVD (Digital Versatile Disc) and the like are recorded on a computer-readable recording medium and provided as a computer program product.
  • CD-ROM Compact Disk Read Only Memory
  • FD flexible disk
  • CD-R Compact Disk Recordable
  • DVD Digital Versatile Disc
  • the program executed by the data processing devices 2, 2 a, 2 b may be stored on a computer connected to a network such as the Internet and provided by being downloaded via the network.
  • the program executed by the data processing devices 2, 2a, 2b may be provided or distributed via a network such as the Internet.
  • a program executed by the data processing devices 2, 2a, 2b may be provided by being incorporated in advance in the ROM 52 of the data processing devices 2, 2a, 2b.
  • the programs executed by the data processing devices 2, 2a, 2b are the means of the data processing devices 2, 2a, 2b (feature word extraction means 201 (201a, 201b), feature word clustering means 202 (202a), document classification means. 203 (203a), classification label assigning means 204 (204a, 204b, etc.), and as actual hardware, for example, the CPU 51 (processor) reads a program from a storage medium and executes it.
  • each means described above is loaded onto the main storage device, and each means described above is generated on the main storage device.
  • the number of classified clusters is excessively increased, and the adverse effects such as the large number of documents classified for each cluster are effectively suppressed, Document classification results can be presented to the user in an easy-to-understand manner.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 特徴語抽出手段(201)は、文書集合に含まれる文書から特徴語を抽出する。特徴語クラスタリング手段(202)は、抽出した前記特徴語を、木構造を有するシソーラスの部分木を構成する複数のクラスタであって、一のクラスタに属する前記特徴語が出現する前記文書の数と、他のクラスタに属する前記特徴語が出現する前記文書の数との差が、予め定めた基準値以下となる複数のクラスタにクラスタリングする。文書分類手段(203)は、前記文書集合に含まれる前記文書を、該文書に出現する前記特徴語が属するクラスタに分類する。分類ラベル付与手段(204)は、前記複数のクラスタのそれぞれに、各クラスタに属する前記特徴語を代表する語句である分類ラベルを付与する。提示手段(302)は、前記文書の分類結果を、分類されたクラスタに付与された前記分類ラベルと対応付けて提示する。

Description

文書分類装置、方法およびプログラム
 本発明の実施形態は、文書分類装置、方法およびプログラムに関する。
 文書を分析する技術のひとつとして、文書中の意図表現に基づいて事物の評判を分析する評判分析が知られている。評判分析は、単純な事物の良し悪しだけではなく、事物を評価する観点ごとに良し悪しを判定する。このため、従来の評判分析では、意図表現の辞書に加えて、意図表現の対象となる観点の辞書が必要となる。前者の意図表現の辞書は、特定の分野に依存しないため汎用性があり、様々な分野での利用が可能である。一方、後者の観点の辞書は、特定の分野に強く依存するため汎用性に乏しく、分野ごとに作成しなくてはならない。
 一方、文書集合を分類する方法として文書クラスタリングが知られている。文書クラスタリングでは、文書集合を個々の文書の内容に応じて分類できるため、意図表現の対象となる観点を基準とした分類を行えるようにすれば、観点の辞書を用いない評判分析が可能になる。
 また、文書クラスタリングにシソーラスを用いる技術も知られている。例えば、シソーラス上のある階層を選択し、同一階層上の登録語を用いて文書クラスタを分類、統合する技術がある。これによれば、文書クラスタの分類の粒度を統一することができ、また、分類された文書クラスタに対して、分類に用いたシソーラスの登録語を分類ラベルとして付与することもできる。
 しかし、シソーラスの同一階層上の登録語を用いて文書クラスタを分類、統合する技術では、シソーラス中の登録語は広く分布するため、文書クラスタの数は多くなる。また、分類ラベルはシソーラス中の下位概念に属する狭義語になる。このため、文書の分類結果を分かり易く提示することが困難になる。
特開2009-251825号公報
Hearst, M. A.: Clustering versus faceted categories for information exploration, Communications of the ACM, Volume 49 Issue 4, April 2006.
 本発明が解決しようとする課題は、文書の分類結果を分かり易く提示することができる文書分類装置、方法およびプログラムを提供することである。
 実施形態の文書分類装置は、特徴語抽出手段と、特徴語クラスタリング手段と、文書分類手段と、分類ラベル付与手段と、提示手段と、を備える。特徴語抽出手段は、文書集合に含まれる文書から特徴語を抽出する。特徴語クラスタリング手段は、抽出した前記特徴語を、木構造を有するシソーラスの部分木を構成する複数のクラスタであって、一のクラスタに属する前記特徴語が出現する前記文書の数と、他のクラスタに属する前記特徴語が出現する前記文書の数との差が、予め定めた基準値以下となる複数のクラスタにクラスタリングする。文書分類手段は、前記文書集合に含まれる前記文書を、該文書に出現する前記特徴語が属するクラスタに分類する。分類ラベル付与手段は、前記複数のクラスタのそれぞれに、各クラスタに属する前記特徴語を代表する語句である分類ラベルを付与する。提示手段は、前記文書の分類結果を、分類されたクラスタに付与された前記分類ラベルと対応付けて提示する。
図1は、第1実施形態の文書分類装置を示すブロック図である。 図2は、文書記憶部に格納された文書集合の一例を示す図である。 図3-1は、意図辞書記憶部に格納された意図表現の一例を示す図である。 図3-2は、意図辞書記憶部に格納された意図表現の一例を示す図である。 図4は、シソーラス記憶部に格納されたシソーラスの一例を示す図である。 図5-1は、分類対象の各文書から抽出した特徴語の一例を示す図である。 図5-2は、分類対象の各文書から抽出した特徴語の一例を示す図である。 図6は、特徴語をクラスタリングした結果の一例を示す図である。 図7-1は、分類対象の各文書を分類した結果の一例を示す図である。 図7-2は、分類対象の各文書を分類した結果の一例を示す図である。 図8-1は、文書クラスタに付与された分類ラベルの一例を示す図である。 図8-2は、文書クラスタに付与された分類ラベルの一例を示す図である。 図9-1は、提示手段による情報の提示例を示す図である。 図9-2は、提示手段による情報の提示例を示す図である。 図9-3は、提示手段による情報の提示例を示す図である。 図10は、特徴語抽出手段による処理の流れを示すフローチャートである。 図11は、特徴語クラスタリング手段による処理の流れを示すフローチャートである。 図12は、文書分類手段による処理の流れを示すフローチャートである。 図13は、分類ラベル付与手段による処理の流れを示すフローチャートである。 図14は、第2実施形態の文書分類装置を示すブロック図である。 図15は、指定文書記憶部に格納された指定文書の一例を示す図である。 図16は、分類対象の各文書と指定文書から抽出した特徴語の一例を示す図である。 図17は、文書クラスタに付与された分類ラベルの一例を示す図である。 図18-1は、提示手段による情報の提示例を示す図である。 図18-2は、提示手段による情報の提示例を示す図である。 図19は、第3実施形態の文書分類装置を示すブロック図である。 図20は、観点辞書記憶部に格納された観点の辞書の一例を示す図である。 図21は、分類対象の各文書から抽出した特徴語の一例を示す図である。 図22は、文書クラスタに付与された分類ラベルの一例を示す図である。 図23-1は、提示手段による情報の提示例を示す図である。 図23-2は、提示手段による情報の提示例を示す図である。 図23-3は、提示手段による情報の提示例を示す図である。 図24は、第4実施形態の文書分類装置を示すブロック図である。 図25は、文書記憶部に格納された文書集合の一例を示す図である。 図26は、データ処理装置のハードウェア構成例を示す説明図である。
 以下、実施形態の文書分類装置、方法およびプログラムを、図面を参照して説明する。なお、以下で示す実施形態は、評判分析に利用する文書分類装置への適用例であるが、適用可能な文書分類装置はこの例に限定されるものではなく、様々な形態の文書分類装置への適用が可能である。
<第1実施形態>
 図1は、第1実施形態の文書分類装置を示すブロック図である。第1実施形態の文書分類装置は、図1に示すように、記憶装置1と、データ処理装置2と、入出力装置3と、を備える。記憶装置1、データ処理装置2、および入出力装置3は、有線または無線により相互に情報の授受が可能に接続されている。なお、記憶装置1、データ処理装置2、および入出力装置3は、単一の情報処理装置により実現されていてもよい。
 記憶装置1は、文書記憶部101と、意図辞書記憶部102と、シソーラス記憶部103とを、備える。
 文書記憶部101は、分類の対象となる文書集合を格納する。
 図2は、文書記憶部101に格納された文書集合の一例を示す図である。文書集合に含まれる文書は、ある特定の形態に限定されるものではなく、例えば自然言語で記述された文書である。例えば、Webページ文書、業務上作成された文書、特許公報などの文書を含む文書集合が、文書記憶部101に格納される。文書記憶部101は、文書そのものだけでなく、文書IDを組にして格納してもよい。図2では、文書IDがD1の文書から文書IDがD10の文書までを含む文書集合が文書記憶部101に格納された例を示している。
 文書記憶部101には、例えば、ハードディスクやフラッシュメモリなどを用いることができる。
 意図辞書記憶部102は、一般的に使用される意図表現を格納する。ここで、意図表現とは、事象に対する評価や賛否、成否など、人が思いや意図を持って表現する言葉である。
 図3-1および図3-2は、意図辞書記憶部102に格納された意図表現の一例を示す図である。意図辞書記憶部102は、意図表現そのものだけでなく、意図表現の種類を組にして格納してもよい。図3-1では、意図辞書記憶部102に、「良い」、「いい」、「広い」、「悪い」、「残念」、「高い」の意図表現が格納された例を示している。図3-2では、「評価」が「好評」である意図表現の種類に対して、「良い」、「いい」、「広い」の意図表現が格納され、「評価」が「不評」である意図表現の種類に対して、「悪い」、「残念」、「高い」の意図表現が格納された例を示している。
 意図辞書記憶部102には、例えば、ハードディスクやフラッシュメモリなどを用いることができる。
 シソーラス記憶部103は、1つまたは複数のシソーラスを格納する。シソーラスとは、語句の上位/下位関係、部分/全体関係、同義関係、類義関係などによって語句を分類し、体系づけた辞書である。シソーラス記憶部103が格納するシソーラスは、登録語をノードとし、上位ノードと下位ノードをリンクで結んだ木構造を有する。
 図4は、シソーラス記憶部103に格納されたシソーラスの一例を示す図である。図4では、(a)と(b)の2つのシソーラスがシソーラス記憶部103に格納された例を示している。シソーラス記憶部103が格納するシソーラスとしては、既存のものを用いることができる。例えば、EDR概念体系辞書、JST科学技術用語シソーラス、WordNetなどを用いることができる。また、シソーラス記憶部103は、シソーラスの登録語や登録語間の関係だけではなく、登録語間の共起頻度や、共起の尺度を表す共起度を組にして格納してもよい。例えば、共起度には、自己相互情報量(Pointwise Mutual Information)を用いることができる。
 シソーラス記憶部103には、例えば、ハードディスクやフラッシュメモリなどを用いることができる。
 データ処理装置2は、特徴語抽出手段201と、特徴語クラスタリング手段202と、文書分類手段203と、分類ラベル付与手段204と、を備える。
 特徴語抽出手段201は、文書記憶部101に格納された文書集合に含まれる分類対象の各文書から特徴語を抽出する。具体的には、特徴語抽出手段201は、まず、意図辞書記憶部102に格納された意図表現を用いて、文書集合に含まれる分類対象の各文書から、意図表現の対象となる語句を抽出する。次に、特徴語抽出手段201は、抽出された意図表現の対象となる語句の中から、予め定めた基準に従って選択された語句を特徴語として抽出する。
 ここで、意図表現の対象となる語句の抽出には、例えば、形態素解析や意味情報抽出、複合語抽出、係り受け解析などの手法を用いることができる。例えば、複合語抽出の具体的な手法としては、C-valueを用いることができる。また、形態素解析や意味情報抽出、複合語抽出、係り受け解析の結果から、ある特定の種類を選択するようにしてもよい。
 また、意図表現の対象となる語句の中から特徴語を抽出する方法としては、例えば、出現頻度に基づいて計算される重みが所定値以上となる語句を特徴語として抽出するといった方法を用いることができる。ここでの所定値は、絞り込む特徴語の数などに応じて任意に選択できる。出現頻度に基づく重みとしては、例えば、tf-idfを用いることができる。また、文書記憶部101が保持する文書集合に含まれる文書数に応じて、文書数が多い場合はtf-idfを用い、文書数が少ない場合はtf(Term Frequency:語句の出現頻度)を用いるといった切り替えを行うようにしてもよい。
 図5-1および図5-2は、図2に示した文書集合に含まれる分類対象の各文書から抽出した特徴語の一例を示す図である。なお、ここでは図2に示したすべての文書が分類対象であるものとする。図5-1は、図3-1に示した意図表現を用いて抽出した特徴語の例であり、図5-2は、図3-2に示した意図表現を用いて抽出した特徴語の例である。
 特徴語抽出手段201が抽出した特徴語は、例えば、図5-1および図5-2に示すように、抽出元の文書を表す文書IDと関連付けて保持される。また、特徴語抽出手段201が抽出した特徴語は、図5-2に示すように、抽出元の文書を表す文書IDに加え、さらに抽出に用いた意図表現やその種類と関連付けて保持するようにしてもよい。図5-2の例では、意図表現の種類の二階層(好評、不評)を用いて特徴語がさらに分類されている。
 特徴語クラスタリング手段202は、特徴語抽出手段201が抽出した特徴語を、シソーラス記憶部103に格納されたシソーラスを用いてクラスタリングする。具体的には、特徴語クラスタリング手段202は、特徴語抽出手段201が抽出した特徴語を、各クラスタがシソーラスの部分木を構成するような複数の特徴語クラスタにクラスタリングする。ここで生成される複数の特徴語クラスタは、一の特徴語クラスタに属する特徴語が出現する文書数と、他の特徴語クラスタに属する特徴語が出現する文書数との差が、予め定めた基準値以下となるようにする。つまり、複数の特徴語クラスタ間で、各特徴語クラスタに属する特徴語が出現する文書数が同数に近くなるようにする。ここで、各特徴語クラスタに属する特徴語が出現する文書数の差として許容される基準値は、例えば、文書集合に含まれる文書の総数に対する割合に基づいて定めることができる。
 特徴語クラスタリング手段202によるクラスタリングの手法としては、例えば、シソーラス上の距離に基づく階層型クラスタリングの手法を用いることができる。具体的には、意味的に近い特徴語が1つの特徴語クラスタに属するようにシソーラスの部分木を下位の語句から上位の語句へと成長させていき、1つの特徴語クラスタに属する特徴語が出現する文書数が、例えば、文書集合に含まれる文書の総数に対する割合から定めた所定値に達したら、部分木の成長をとめるといった手法を用いることができる。このとき、1つの特徴語クラスタを構成する特徴語間のシソーラス上の距離は、決められた定数が許容される。また、1つの特徴語が複数のシソーラスに登録されている場合は、複数のシソーラスにまたがるように部分木を成長させていくようにしてもよい。
 図6は、特徴語クラスタリング手段202が特徴語をクラスタリングした結果の一例を示す図である。図6の例では、T1からT4までの4つの部分木を構成する特徴語クラスタがそれぞれ生成されている。部分木T1を構成する特徴語クラスタには、「予約」、「サービス」、「接客」、「スタッフ」、「従業員」の各特徴語が属している。部分木T2を構成する特徴語クラスタには、「値段」、「金額」、「料金」の各特徴語が属している。部分木T3を構成する特徴語クラスタには、「料理」、「和食」、「中華」、「洋食」、「バイキング」、「品数」の各特徴語が属している。部分木T4を構成する特徴語クラスタには、「喫煙」、「禁煙」の各特徴語が属している。なお、部分木T1は、(a)のシソーラス中の「スタッフ」と、(b)のシソーラス中の「スタッフ」とを同一とみなすことで、(a)と(b)の二つのシソーラスをまたがる部分木となっている。
 特徴語クラスタリング手段202は、上記のようにシソーラスの部分木を構成する特徴語クラスタに特徴語をクラスタリングするという手法を用いることで、特徴語抽出手段201が特徴語として抽出できなかった語句を、特徴語クラスタに属する特徴語として補うことができる。例えば、図6に示した部分木T3を構成する特徴語クラスタに属する特徴語のうち、「料理」、「中華」、「洋食」、「バイキング」は、図5-1および図5-2に示した特徴語抽出手段201による特徴語の抽出結果に含まれていない語句であるが、特徴語抽出手段201により特徴語として抽出された「和食」、「品数」が1つの特徴語クラスタに属するようにシソーラスの部分木を成長させることにより、このシソーラスの部分木を構成する特徴語クラスタに属する特徴語として、「料理」、「中華」、「洋食」、「バイキング」を補うことができる。
 また、特徴語クラスタリング手段202は、上記のようにシソーラスの部分木を構成する特徴語クラスタに特徴語をクラスタリングするという手法を用いることで、特徴語抽出手段201が特徴語として抽出した語句のうち、シソーラスの登録語として登録されていない語句を、特徴語クラスタに属する特徴語から除外することができる。例えば、図5-1および図5-2に示した特徴語抽出手段201による特徴語の抽出結果には、特徴語として「席」、「設定」、「駐車」、「希望」の語句が含まれているが、図6に示したシソーラスの登録語として登録されていないこれらの語句を、特徴語クラスタに属する特徴語から除外することができる。
 以上のように、特徴語クラスタリング手段202は、特徴語抽出手段201により抽出された特徴語の集合を単にクラスタリングするだけでなく、特徴語抽出手段201により抽出された特徴語とシソーラスの登録語との間のシソーラス上の距離に基づいて、特徴語の集合を補正しつつクラスタリングする機能を持つ。
 特徴語クラスタリング手段202が上記のように特徴語をクラスタリングする場合、一の特徴語クラスタに属する特徴語とシソーラス上の距離が大きい他の特徴語クラスタに属する特徴語については、シソーラスの部分木が成長せず、単独の部分木では上述した基準を満たす特徴語クラスタを構成できないことがある。このような場合、特徴語クラスタリング手段202は、単独では上述した基準を満たす1つの特徴語クラスタを構成できない部分木を複数集めて1つの特徴語クラスタとする。つまり、この特徴語クラスタは、意味的に離れた(シソーラス上で離散的な)特徴語を寄せ集めた特徴語クラスタとなる。図6に示した例では、破線で囲まれた部分木の集合が1つの特徴語クラスタとなり、例えば図5-1および図5-2に例示した特徴語のうち、「駅前」、「眺め」、「雰囲気」、「温度」の各特徴語が、この特徴語クラスタに属する特徴語となる。なお、この特徴語クラスタにおいても、特徴語抽出手段201が特徴語として抽出できなかった語句、「印象」、「エアコン」が、特徴語として補われている。
 文書分類手段203は、文書記憶部101に記憶された文書集合に含まれる分類対象の各文書を、特徴語クラスタリング手段202による特徴語クラスタリングの結果に基づいて分類し、文書クラスタを生成する。具体的には、文書分類手段203は、1つの特徴語クラスタに属する特徴語が出現する文書を1つの文書クラスタに分類し、特徴語クラスタリング手段202により生成された特徴語クラスタごとに、文書クラスタを生成する。なお、特徴語クラスタリング手段202により生成された特徴語クラスタに含まれる特徴語を1つも含まない文書については、未分類のクラスタに分類されるものとする。
 図7-1および図7-2は、図2に示した文書集合に含まれる分類対象の各文書を分類した結果の一例を示す図である。なお、ここでは図2に示したすべての文書が分類対象であるものとする。これら図7-1および図7-2は、図6に示した特徴語クラスタリング手段202による特徴語クラスタリングの結果に基づいて分類された文書の分類結果の例である。
 文書分類手段203による分類結果は、例えば、図7-1および図7-2に示すように、文書クラスタを表す文書クラスタIDごとに、各文書クラスタに属する文書の文書IDを関連付けた情報として保持される。また、各文書クラスタIDごとに、文書IDに加えてさらに各クラスタに属する特徴語を関連付けた情報として保持するようにしてもよい。図7-1および図7-2では、分類対象の各文書が、文書クラスタIDがC1の文書クラスタから文書クラスタIDがC5の文書クラスタまでの5つの文書クラスタに分類された例を示している。文書クラスタIDがC1の文書クラスタは、図6に示したシソーラスの部分木T1を構成する特徴語クラスタに対応する。また、文書クラスタIDがC2の文書クラスタは、図6に示したシソーラスの部分木T2を構成する特徴語クラスタに対応する。また、文書クラスタIDがC3の文書クラスタは、図6に示したシソーラスの部分木T3を構成する特徴語クラスタに対応する。また、文書クラスタIDがC4の文書クラスタは、図6に示したシソーラスの部分木T4を構成する特徴語クラスタに対応する。なお、文書クラスタIDがC5の文書クラスタは、図6に示した破線で囲まれたシソーラスの部分木を複数集めて生成した特徴語クラスタに対応する。図7-1および図7-2に示す例から分かるように、1つの文書が複数の文書クラスタに分類されることもある。
 分類ラベル付与手段204は、文書クラスタ(つまり、特徴語をクラスタリングしたクラスタ)のそれぞれに対して、各クラスタに属する特徴語を代表する語句である分類ラベルを付与する。分類ラベルは、例えば、各クラスタに属する特徴語の中から1つまたは複数選択される。分類ラベルの選択には、例えば、特徴語が出現する文書の範囲を基準として選択する方法や、特徴語のシソーラス中での位置を基準として選択する方法などを用いることができる。特徴語が出現する文書の範囲を基準にする場合は、例えば、特徴語の出現頻度が高いもの、あるいは特徴語が出現する文書の数が多いものを優先して、分類ラベルを選択する。また、特徴語のシソーラス中での位置を基準にする場合は、例えば、上位概念を優先する、あるいは同義語や異表記が多い語句を優先する、あるいは特徴語の分布の中心にあるものを優先して、分類ラベルを選択する。なお、特徴語に関連する意図表現の種類(好評、不評など)ごとに特徴語が分類されている場合には、意図表現の種類ごとに分類ラベルを選択するようにしてもよい。
 また、分類ラベル付与手段204は、シソーラスの部分木を複数集めて生成した特徴語クラスタに対応する文書クラスタに対しては、該クラスタがシソーラスの1つの部分木を構成しない複数の特徴語の集合であることを表す分類ラベル、つまり、この文書クラスタに属する文書は意味的に分類されたものではないことを表す分類ラベルを付与する。この場合の分類ラベルとしては、例えば、「その他」や「未分類」を用いることができる。また、「その他」や「未分類」とともに、代表的な特徴語を選択して分類ラベルとして付与してもよい。
 図8-1および図8-2は、分類ラベル付与手段204により付与された分類ラベルの一例を示す図である。図8-1は、図7-1に示した分類結果の各文書クラスタに対して付与された分類ラベルの例であり、図8-2は、図7-2に示した分類結果の各文書クラスタに対して付与された分類ラベルの例である。
 図8-1および図8-2の例では、文書クラスタIDがC1の文書クラスタに対して、「予約」、「サービス」が分類ラベルとして付与されている。また、文書クラスタIDがC2の文書クラスタに対して、「料金」、「値段」が分類ラベルとして付与されている。また、文書クラスタIDがC3の文書クラスタに対して、「バイキング」、「料理」が分類ラベルとして付与されている。また、文書クラスタIDがC4の文書クラスタに対して、「禁煙」が分類ラベルとして付与されている。また、文書クラスタIDがC5の文書クラスタに対して、「その他」、「立地」、「印象」、「空調」が分類ラベルとして付与されている。
 入出力装置3は、分類方法選択手段301と、提示手段302と、を備える。
 分類方法選択手段301は、文書記憶部101に格納された文書集合に含まれる文書のうち、分類対象の文書の選択を受け付ける。分類方法選択手段301は、ユーザによる分類対象の文書の選択を受け付けて、どの文書が選択されたかを明示的にデータ処理装置2に送信するための機能、例えば送信用のボタンなどを持つ。例えば、ユーザが任意のクエリを入力すると、文書記憶部101に格納された文書集合に含まれる文書のうち、入力されたクエリに対応する文書の集合を分類対象として選択し、選択した文書を明示する情報をデータ処理装置2に送信するといった方法を用いることができる。この分類方法選択手段301からの情報がデータ処理装置2に送信されると、データ処理装置2の特徴語抽出手段201が処理を開始する。なお、データ処理装置2の特徴語抽出手段201が処理を開始するタイミング(文書を分類するタイミング)は、分類方法選択手段301から情報が送信されたときに限らない。例えば、新たな文書が文書記憶部101に格納されたときに、データ処理装置2の特徴語抽出手段201が処理を開始するようにしてもよい。
 提示手段302は、文書分類手段203による文書の分類結果を、分類ラベル付与手段204により付与された分類ラベルと対応付けた情報として、ユーザに提示する。具体的には、提示手段302は、例えば、文書クラスタに分類された文書数を付したアイコンと、文書クラスタに付与された分類ラベルとの組合せを表示情報として生成し、この表示情報を入出力装置3のディスプレイ(図示せず)などに表示させる。また、提示手段302は、文書数を付したアイコンと分類ラベルとの組み合わせに、各クラスタに属する特徴語を対応付けた表示情報を生成し、この表示情報を入出力装置3のディスプレイなどに表示させるようにしてもよい。このとき、特徴語がその特徴語の抽出に用いた意図表現の種類ごとに分類されている場合には、文書数を付したアイコンと分類ラベルとの組み合わせに対応付けて表示する特徴語を、意図表現の種類ごとに区別できる形式で表示させるようにすることが望ましい。
 図9-1乃至図9-3は、提示手段302による情報の提示例を示す図である。図9-1乃至図9-3に示す例は、文書数を付したアイコンと分類ラベルとの組み合わせと、各クラスタに属する特徴語とを対応付けた表示情報を表示するようにした例である。これら図9-1乃至図9-3に示す例では、各クラスタに属する特徴語が、特徴語の抽出に用いた意図表現の種類ごとに区別できる形式で表示される。
 意図表現の種類ごとに区別できる形式の例としては、例えば、語句や語句の背景を色分けする、語句を異なる字体にする、意図表現の種類を表すアイコンを併記するといった例が挙げられる。例えば図9-1に示す例では、意図表現の種類が好評の特徴語は通常の字体で表示され、意図表現の種類が不評の特徴語はアンダーラインを付した斜体で表示されている。また、図9-2に示す例では、意図表現の種類が好評の特徴語に対しては笑い顔のアイコンが付され、意図表現の種類が不評の特徴語に対しては困り顔のアイコンが付されている。また、図9-3に示す例では、各クラスタに属する特徴語が意図表現の種類ごとに分離され、意図表現の種類が好評の特徴語に対しては笑い顔のアイコンが付され、意図表現の種類が不評の特徴語に対しては困り顔のアイコンが付されている。この図9-3のように、好評の評価と、不評の評価とを分けて提示することもできる。
 次に、第1実施形態の文書分類装置の動作について、図10乃至図13のフローチャートを参照しながら説明する。なお、以下では、初期状態として、文書記憶部101には図2に示した文書集合が格納され、意図辞書記憶部102には図3-2に示した意図表現が格納され、シソーラス記憶部103には図4に示したシソーラスが格納され、図2に示した文書集合に含まれるすべての文書が分類対象として選択されているものとして説明する。
 図10は、特徴語抽出手段201による処理の流れを示すフローチャートである。
 特徴語抽出手段201は、まず、文書記憶部101に格納された文書集合を取得する(ステップS101)。ここで取得される文書集合は、図2に示した文書集合であるものとする。
 次に、特徴語抽出手段201は、意図辞書記憶部102に格納された意図表現を取得する(ステップS102)。ここで取得される意図表現は、図3-2に示した意図表現であるものとする。
 次に、特徴語抽出手段201は、ステップS101で取得した文書集合に含まれる各文書から、意図辞書記憶部102に格納された意図表現に一致する意図表現を特定し、この意図表現の対象となる語句を抽出する(ステップS103)。
 次に、特徴語抽出手段201は、ステップS103で抽出した意図表現の対象となる語句の中から、予め定めた基準に従って選択された語句を特徴語として抽出し(ステップS104)、図10のフローチャートで示す一連の処理を終了する。
 図11は、特徴語クラスタリング手段202による処理の流れを示すフローチャートである。
 特徴語クラスタリング手段202は、まず、特徴語抽出手段201が抽出した特徴語を取得する(ステップS201)。ここで取得される特徴語は、図5-2に示した特徴語であるものとする。
 次に、特徴語クラスタリング手段202は、シソーラス記憶部103に格納されたシソーラスを取得する(ステップS202)。ここで取得されるシソーラスは、図4に示したシソーラスであるものとする。
 次に、特徴語クラスタリング手段202は、ステップS201で取得した特徴語のうち、ステップS202で取得したシソーラス中に存在する特徴語を抽出する(ステップS203)。
 次に、特徴語クラスタリング手段202は、ステップS203で抽出した特徴語間のシソーラス上の距離と、特徴語が出現する文書数を取得する(ステップS204)。特徴語間のシソーラス上の距離は、隣接する概念間の距離を単位距離で表す、概念間の距離を用いることができる。また、特徴語間のシソーラス上の距離として、シソーラス記憶部103に格納された概念間の共起頻度や、共起の尺度を表す共起度を用いてもよい。
 次に、特徴語クラスタリング手段202は、ステップS204で取得した特徴語間のシソーラス上の距離と、特徴語が出現する文書数とを用い、ステップS203で抽出した特徴語を、それぞれがシソーラスの部分木を構成する複数の特徴語クラスタにクラスタリングする(ステップS205)。このとき、特徴語クラスタリング手段202は、複数の特徴語クラスタ間で、各クラスタに属する特徴語が出現する文書数が同数に近くなるようにする。つまり、一の特徴語クラスタに属する特徴語が出現する文書数と、他の特徴語クラスタに属する特徴語が出現する文書数との差が、予め定めた基準値以下となるように、特徴語のクラスタリングを行う。ここで、特徴語が出現する文書数は、特徴語クラスタに属するすべての特徴語が出現する文書の総数を用いてもよいし、特徴語クラスタに属する特徴語の中から特定の特徴語が出現する文書数を用いるようにしてもよい。また、予め定めたある特定の数値を文書数として用いてもよい。この特徴語クラスタリング手段202による特徴語クラスタリングにより、特徴語抽出手段201が特徴語として抽出できなかった語句のうち、シソーラスの登録語として登録されている語句を特徴語クラスタに属する特徴語として補うことや、特徴語抽出手段201が特徴語として抽出した語句のうち、シソーラスの登録語として登録されていない語句を特徴語クラスタに属する特徴語から除外することができる。
 図12は、文書分類手段203による処理の流れを示すフローチャートである。
 文書分類手段203は、まず、特徴語クラスタリング手段202が生成した各特徴語クラスタに属する語句を特徴語として取得する(ステップS301)。
 次に、文書分類手段203は、文書記憶部101に格納された分類対象の文書集合の中から文書を1つ取得する(ステップS302)。
 次に、文書分類手段203は、ステップS302で取得した分類対象の文書中に、ステップS301で取得した特徴語が存在するか否かを判定する(ステップS303)。そして、文書分類手段203は、分類対象の文書中に特徴語が存在する場合は(ステップS303:Yes)、その特徴語が属する特徴語クラスタに、分類対象の文書を分類する(ステップS304)。一方、分類対象の文書中に特徴語が存在しない場合は(ステップS303:No)、文書分類手段203は、分類対象の文書を、未分類のクラスタに分類する(ステップS305)。
 次に、文書分類手段203は、分類対象の文書をすべて分類したか否かを判定する(ステップS306)。そして、文書分類手段203は、分類していない文書が残っていれば(ステップS306:No)、ステップS302に戻って以降の処理を繰り返し、分類対象のすべての文書の分類が終わったら(ステップS306:Yes)、図12のフローチャートで示す一連の処理を終了する。
 図13は、分類ラベル付与手段204による処理の流れを示すフローチャートである。
 分類ラベル付与手段204は、まず、文書分類手段203による文書の分類結果である文書クラスタを取得する(ステップS401)。
 次に、分類ラベル付与手段204は、ステップS401で取得した文書クラスタのそれぞれに対応するシソーラスの部分木を取得する(ステップS402)。
 次に、分類ラベル付与手段204は、各文書クラスタに対応するシソーラスの部分木の構造を用いて、各文書クラスタに属する特徴語を代表する語句を選択する(ステップS403)。なお、各文書クラスタに属する特徴語が意図表現の種類ごとに分類されている場合は、意図表現の種類ごとに特徴語を代表する語句を選択するようにしてもよい。
 次に、分類ラベル付与手段204は、ステップS403で選択した語句を分類ラベルとして各文書クラスタに付与し(ステップS404)、図13のフローチャートで示す一連の処理を終了する。
 以上、具体的な例を挙げながら詳細に説明したように、第1実施形態の文書分類装置によれば、分類対象の文書から抽出した特徴語を、個々のクラスタがシソーラスの部分木を構成し、各クラスタに属する特徴語が出現する文書数がほぼ等しくなるような複数の特徴語クラスタにクラスタリングする。そして、分類対象の文書を、特徴語クラスタに基づいて分類して文書クラスタを生成するとともに、各文書クラスタに分類ラベルを付与し、文書の分類結果を分類ラベルと対応付けてユーザに提示する。したがって、分類されたクラスタの数が多くなりすぎたり、クラスタごとに分類される文書数に大きな偏りがあったりといった弊害を有効に抑制し、文書の分類結果を、ユーザに対して分かり易く提示することができる。
 また、第1実施形態の文書分類装置によれば、意図表現の対象となる語句から選択された語句を特徴語として抽出し、シソーラスを用いて特徴語をクラスタリングするようにしているので、特定の分野に強く依存する観点の辞書を用いることなく、評判分析を行うことが可能となる。
 また、第1実施形態の文書分類装置によれば、文書の分類結果を分類ラベルと特徴語とに対応付けてユーザに提示するようにしているので、文書の分類結果を、ユーザに対してより分かり易く提示することができる。さらに、特徴語については、意図表現の種類ごとに区別できる形式で提示することで、文書の分類結果をさらに分かり易く提示することができる。
<第2実施形態>
 図14は、第2実施形態の文書分類装置を示すブロック図である。なお、第1実施形態と共通の構成については同一の符号を付している。第2実施形態の文書分類装置は、図14に示すように、記憶装置1aと、データ処理装置2aと、入出力装置3aと、を備える。記憶装置1a、データ処理装置2a、および入出力装置3aは、有線または無線により相互に情報の授受が可能に接続されている。なお、記憶装置1a、データ処理装置2a、および入出力装置3aは、単一の情報処理装置により実現されていてもよい。
 記憶装置1aは、文書記憶部101、意図辞書記憶部102、およびシソーラス記憶部103に加えて、指定文書記憶部104を備える。
 指定文書記憶部104は、分類対象の文書以外の文書、例えば、文書を分類するための背景知識を含む文書を格納する。この指定文書記憶部104に格納される文書は、分類対象の文書を分類する際に指定される文書である。以下、指定文書記憶部104に格納された文書を指定文書という。
 図15は、指定文書記憶部104に格納された指定文書の一例を示す図である。指定文書は、ある特定の形態に限定されるものではなく、例えば自然言語で記述された文書である。例えば、ニュースリリース、新聞記事、技術文書などが、指定文書として指定文書記憶部104に格納される。指定文書記憶部104は、指定文書そのものだけでなく、指定文書IDを組にして格納してもよい。図15では、指定文書IDがN1の指定文書と、指定文書IDがN2の指定文書とが指定文書記憶部104に格納された例を示している。
 指定文書記憶部104には、例えば、ハードディスクやフラッシュメモリなどを用いることができる。
 データ処理装置2aは、特徴語抽出手段201aと、特徴語クラスタリング手段202aと、文書分類手段203aと、分類ラベル付与手段204aと、を備える。
 特徴語抽出手段201aは、第1実施形態の特徴語抽出手段201と同様に、意図表現の対象となる語句のうち選択された語句を特徴語として抽出する。ただし、特徴語抽出手段201aは、意図表現の対象となる語句のうち選択された語句だけでなく、指定文書記憶部104が格納する指定文書に含まれる語句も特徴語として抽出する。すなわち、特徴語抽出手段201aは、分類対象の文書に含まれる語句のうち、指定文書にも含まれている語句を、特徴語として抽出する。
 図16は、図2に示した文書集合に含まれる分類対象の各文書と、図15に示した指定文書とから抽出した特徴語の一例を示す図である。なお、ここでは図2に示したすべての文書が分類対象であるものとする。
 特徴語抽出手段201aが抽出した特徴語は、例えば、図16に示すように、抽出元の文書を表す文書IDと関連付けて保持される。また、指定文書に含まれる語句であるとして抽出された特徴語は、指定文書に含まれる語句であることを示す情報と関連付けて保持するようにしてもよい。図16に示す例では、文書IDがD1の文書から抽出された特徴語のうち、「パイレーツ・ダイニング」および「禁煙エリア」が、指定文書に含まれる語句として抽出されたものであることが示されている。また、文書IDがD3の文書から抽出された特徴語のうち、「パイレーツ・ダイニング」が、指定文書に含まれる語句として抽出されたものであることが示されている。また、文書IDがD5の文書から抽出された特徴語のうち、「南国ビュッフェ」が、指定文書に含まれる語句として抽出されたものであることが示されている。また、文書IDがD6の文書から抽出された特徴語のうち、「パイレーツ・ダイニング」が、指定文書に含まれる語句として抽出されたものであることが示されている。また、文書IDがD8の文書から抽出された特徴語のうち、「パイレーツ・ダイニング」が、指定文書に含まれる語句として抽出されたものであることが示されている。
 特徴語クラスタリング手段202aは、第1実施形態の特徴語クラスタリング手段202と同様に、分類対象の文書から抽出された特徴語をクラスタリングする。ただし、特徴語クラスタリング手段202aは、指定文書に含まれる語句として抽出された特徴語については、1つのクラスタにクラスタリングする。図16に示した例では、指定文書に含まれる語句として抽出された特徴語である「パイレーツ・ダイニング」、「南国ビュッフェ」が、それぞれ1つのクラスタにクラスタリングされる。なお、指定文書に含まれる語句として抽出された特徴語であっても、「禁煙エリア」のように、分類対象の文書のみから抽出された特徴語と一致するものについては、第1実施形態で説明した方法でクラスタリングする。
 文書分類手段203aは、第1実施形態の文書分類手段203と同様に、特徴語クラスタリング手段202aによるクラスタリングの結果である特徴語クラスタに基づいて、分類対象の文書を分類する。ただし、文書分類手段203aは、分類対象の文書に指定文書から抽出された特徴語が出現する場合、その文書を指定文書から抽出された特徴語が属するクラスタに分類する。図16に示した例では、文書IDがD1の文書、文書IDがD3の文書、文書IDがD6の文書、文書IDがD8の文書が、それぞれ「パイレーツ・ダイニング」が属するクラスタに分類される。また、文書IDがD5の文書は、「南国ビュッフェ」が属するクラスタに分類される。
 分類ラベル付与手段204aは、第1実施形態の分類ラベル付与手段204と同様に、文書が分類されたクラスタである文書クラスタに対して、そのクラスタに属する特徴語を代表する語句を分類ラベルとして付与する。ただし、分類ラベル付与手段204aは、指定文書から抽出された特徴語が属するクラスタについては、指定文書から抽出された特徴語そのものを、分類ラベルとして付与する。
 図17は、分類ラベル付与手段204aにより付与された分類ラベルの一例を示す図である。図17の例では、指定文書から抽出された特徴語である「パイレーツ・ダイニング」が属するクラスタ(文書クラスタIDがC6のクラスタ)に対しては、「パイレーツ・ダイニング」そのものが分類ラベルとして付与されており、指定文書から抽出された特徴語である「南国ビュッフェ」が属するクラスタ(文書クラスタIDがC7のクラスタ)に対しては、「南国ビュッフェ」そのものが分類ラベルとして付与されている。
 入出力装置3aは、分類方法選択手段301aと、提示手段302aと、を備える。
 分類方法選択手段301aは、第1実施形態の分類方法選択手段301と同様に、分類対象の文書の選択を受け付ける。ただし、分類方法選択手段301aは、分類対象の文書の選択だけでなく、文書の分類に用いる指定文書の指定も受け付ける。分類方法選択手段301aは、ユーザによる分類対象の文書の選択と指定文書の指定を受け付けて、どの文書が分類対象として選択され、どの指定文書が指定されたかを明示的にデータ処理装置2aに送信するための機能、例えば送信用のボタンなどを持つ。例えば、ユーザが任意のクエリを入力すると、文書記憶部101に格納された文書集合に含まれる文書のうち、入力されたクエリに対応する文書の集合を分類対象として選択するとともに、指定文書記憶部104に格納された指定文書のうち、入力されたクエリに対応する指定文書を選択して、分類対象として選択した文書や指定文書を明示する情報をデータ処理装置2aに送信するといった方法を用いることができる。この分類方法選択手段301aからの情報がデータ処理装置2aに送信されると、データ処理装置2aの特徴語抽出手段201aが処理を開始する。
 提示手段302aは、第1実施形態の提示手段302と同様に、文書分類手段203aによる文書の分類結果を、分類ラベル付与手段204aにより付与された分類ラベルと対応付けた情報として、ユーザに提示する。ただし、提示手段302aは、指定文書から抽出された特徴語が属するクラスタについては、そのクラスタが、指定文書から抽出された特徴語が属するクラスタであることを判別できる形式で提示する。指定文書から抽出された特徴語が属するクラスタを判別できる形式で提示する例としては、例えば、分類ラベルに所定のアイコンを併記するといった例が挙げられる。
 図18-1および図18-2は、提示手段302aによる情報の提示例を示す図である。図18-1および図18-2に示す例は、文書数を付したアイコンと分類ラベルとの組み合わせと、各クラスタに属する特徴語とを対応付けた表示情報を表示するようにした例である。図9-1に示した第1実施形態の提示手段302による情報の提示例と比較すると、「禁煙」、「パイレーツ・ダイニング」、「南国ビュッフェ」の各分類ラベルに対して、これらの分類ラベルが付与されたクラスタが、指定文書から抽出された特徴語が属するクラスタであることを示す旗のアイコンが併記されている。また、図18-2に示す例は、旗のアイコンが併記された分類ラベルが上位に並ぶように、分類結果の並び順を入れ替えた例である。この図18-2に示す例のように、指定文書から抽出された特徴語が属するクラスタを繰り上げたかたちで、分類結果の情報を提示することもできる。
 以上、具体的な例を挙げながら詳細に説明したように、第2実施形態の文書分類装置によれば、分類対象の文書だけでなく指定文書からも特徴語を抽出し、指定文書から抽出した特徴語は1つのクラスタにクラスタリングする。そして、指定文書から抽出した特徴語が属するクラスタに対しては、指定文書から抽出した特徴語そのものを分類ラベルとして付与し、その分類ラベルが付与されたクラスタが、指定文書から抽出した特徴語が属するクラスタであることを判別できる形式で、文書の分類結果を提示する。したがって、ユーザの意図を反映させたかたちで文書の分類を行うことができるとともに、文書の分類結果を、ユーザに対して分かり易く提示することができる。
<第3の実施の形態>
 図19は、第3実施形態の文書分類装置を示すブロック図である。なお、第1実施形態と共通の構成については同一の符号を付している。第3実施形態の文書分類装置は、図19に示すように、記憶装置1bと、データ処理装置2bと、入出力装置3bと、を備える。記憶装置1b、データ処理装置2b、および入出力装置3bは、有線または無線により相互に情報の授受が可能に接続されている。なお、記憶装置1b、データ処理装置2b、および入出力装置3bは、単一の情報処理装置により実現されていてもよい。
 記憶装置1bは、文書記憶部101、意図辞書記憶部102、およびシソーラス記憶部103に加えて、観点辞書記憶部105を備える。
 観点辞書記憶部105は、意図表現の対象となる観点の辞書を格納する。観点の辞書は、文書の分類のための観点表現を記述している。観点表現とは、文書分析の視点を表す表現である。
 図20は、観点辞書記憶部105に格納された観点の辞書の一例を示す図である。観点辞書記憶部105は、観点表現そのものだけでなく、観点表現の種類を組にした観点の辞書を格納してもよい。図20では、「料金」の観点表現の種類に対して「料金」、「値段」、「価格」の観点表現、「サービス」の観点表現の種類に対して「サービス」、「従業員」、「接客」の観点表現、「立地」の観点表現の種類に対して「立地」、「駅前」、「駅近」の観点表現が、観点の辞書として観点辞書記憶部105に格納された例を示している。
 観点辞書記憶部105には、例えば、ハードディスクやフラッシュメモリなどを用いることができる。
 データ処理装置2bは、第1実施形態の特徴語抽出手段201に代えて特徴語抽出手段201bを備えるとともに、第1実施形態の分類ラベル付与手段204に代えて分類ラベル付与手段204bを備える。
 特徴語抽出手段201bは、第1実施形態の特徴語抽出手段201と同様に、意図表現の対象となる語句のうち選択された語句を特徴語として抽出する。ただし、特徴語抽出手段201bは、意図表現の対象となる語句のうち、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現を、特徴語として優先的に抽出する。
 図21は、図20に示した観点表現を用いて、図2に示した文書集合に含まれる分類対象の各文書から抽出した特徴語の一例を示す図である。なお、ここでは図2に示したすべての文書が分類対象であり、図20に示した観点表現のすべてを用いて文書を分類するものとする。
 特徴語抽出手段201bが抽出した特徴語は、例えば、図21に示すように、抽出元の文書を表す文書IDと関連付けて保持される。また、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現と一致する特徴語は、観点表現の種類と関連付けて保持される。図21に示す例では、文書IDがD1の文書から抽出された特徴語のうち、「サービス」という種類に含まれる「接客」が、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現と一致する特徴語であることが示されている。また、文書IDがD2の文書から抽出された特徴語のうち、「サービス」という種類に含まれる「従業員」および「接客」が、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現と一致する特徴語であることが示されている。また、文書IDがD6の文書から抽出された特徴語のうち、「料金」という種類に含まれる「料金」と、「立地」という種類に含まれる「駅前」とが、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現と一致する特徴語であることが示されている。また、文書IDがD7の文書や文書IDがD8の文書から抽出された特徴語のうち、「料金」という種類に含まれる「料金」が、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現と一致する特徴語であることが示されている。
 分類ラベル付与手段204bは、第1実施形態の分類ラベル付与手段204と同様に、文書が分類されたクラスタである文書クラスタに対して、そのクラスタに属する特徴語を代表する語句を分類ラベルとして付与する。ただし、分類ラベル付与手段204bは、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現と一致する特徴語が属するクラスタについては、その観点表現の種類を表す語句を分類ラベルとして優先的に選択する。
 図22は、分類ラベル付与手段204bにより付与された分類ラベルの一例を示す図である。図22の例では、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現である「接客」や「従業員」が属するクラスタ(文書クラスタIDがC1のクラスタ)に対しては、「接客」や「従業員」の種類を表す「サービス」という語句が、分類ラベルとして付与されている。また、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現である「料金」が属するクラスタ(文書クラスタIDがC2のクラスタ)に対しては、「料金」の種類を表す「料金」という語句が、分類ラベルとして付与されている。また、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現である「駅前」が属するクラスタ(文書クラスタIDがC5のクラスタ)に対しては、「駅前」の種類を表す「立地」という語句が、分類ラベルとして付与されている。
 入出力装置3bは、分類方法選択手段301bと、提示手段302bと、を備える。
 分類方法選択手段301bは、第1実施形態の分類方法選択手段301と同様に、分類対象の文書の選択を受け付ける。ただし、分類方法選択手段301bは、分類対象の文書の選択だけでなく、観点辞書記憶部105が保持する観点表現の種類のうち、文書の分類に用いる観点表現の種類の選択も受け付ける。分類方法選択手段301bは、ユーザによる分類対象の文書の選択と観点表現の種類の選択を受け付けて、どの文書が分類対象として選択され、文書の分類に用いる観点表現の種類としてどの種類が選択されたかを明示的にデータ処理装置2bに送信するための機能、例えば送信用のボタンなどを持つ。例えば、ユーザが任意のクエリを入力すると、文書記憶部101に格納された文書集合に含まれる文書のうち、入力されたクエリに対応する文書の集合を分類対象として選択するとともに、観点辞書記憶部105が保持する観点表現の種類のうち、入力されたクエリに対応する観点表現の種類を選択して、分類対象として選択した文書や文書の分類に用いる観点表現の種類を明示する情報をデータ処理装置2bに送信するといった方法を用いることができる。この分類方法選択手段301bからの情報がデータ処理装置2bに送信されると、データ処理装置2bの特徴語抽出手段201bが処理を開始する。
 提示手段302bは、第1実施形態の提示手段302と同様に、文書分類手段203による文書の分類結果を、分類ラベル付与手段204bにより付与された分類ラベルと対応付けた情報として、ユーザに提示する。ただし、提示手段302bは、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現と一致する特徴語が属するクラスタについては、そのクラスタが、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現と一致する特徴語が属するクラスタであることを判別できる形式で提示する。観点辞書記憶部105が格納する観点の辞書に含まれる観点表現と一致する特徴語が属するクラスタを判別できる形式で提示する例としては、例えば、分類ラベルに所定のアイコンを併記するといった例が挙げられる。
 図23-1乃至図23-3は、提示手段302bによる情報の提示例を示す図である。図23-1乃至図23-3に示す例は、文書数を付したアイコンと分類ラベルとの組み合わせと、各クラスタに属する特徴語とを対応付けた表示情報を表示するようにした例である。図9-1に示した第1実施形態の提示手段302による情報の提示例と比較すると、「予約、サービス」、「料金、値段」、「その他、立地、印象、空調」の各分類ラベルに対して、これらの分類ラベルが付与されたクラスタが、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現と一致する特徴語が属するクラスタであることを示す眼鏡のアイコンが併記されている。また、図23-2に示す例は、眼鏡のアイコンが併記された分類ラベルが上位に並ぶように、分類結果の並び順を入れ替えた例である。この図23-2に示す例のように、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現と一致する特徴語が属するクラスタを繰り上げたかたちで、分類結果の情報を提示することもできる。また、図23-3に示す例は、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現と一致する特徴語が属するクラスタのみを表した提示例である。特徴語抽出手段201bが、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現と一致する特徴語のみを抽出する場合は、図23-3に示す例のように分類結果の情報が提示される。
 以上、具体的な例を挙げながら詳細に説明したように、第3実施形態の文書分類装置によれば、分類対象の文書に含まれる意図表現の対象となる語句のうち、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現と一致する語句を、特徴語として優先的に抽出する。そして、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現と一致する特徴語が属するクラスタに対しては、その観点表現の種類を表す語句を分類ラベルとして付与し、その分類ラベルが付与されたクラスタが、観点辞書記憶部105が格納する観点の辞書に含まれる観点表現と一致する特徴語が属するクラスタであることを判別できる形式で、文書の分類結果を提示する。したがって、ユーザの意図を反映させたかたちで文書の分類を行うことができるとともに、文書の分類結果を、ユーザに対して分かり易く提示することができる。
<第4実施形態>
 図24は、第4実施形態の文書分類装置を示すブロック図である。なお、第1実施形態と共通の構成については同一の符号を付している。第4実施形態の文書分類装置は、図24に示すように、記憶装置1cと、データ処理装置2と、入出力装置3と、を備える。データ処理装置2および入出力装置3は、第1実施形態のものと同様である。記憶装置1c、データ処理装置2、および入出力装置3は、有線または無線により相互に情報の授受が可能に接続されている。なお、記憶装置1c、データ処理装置2、および入出力装置3は、単一の情報処理装置により実現されていてもよい。
 記憶装置1cは、第1実施形態の文書記憶部101に代えて、文書記憶部101cを備える。
 文書記憶部101cは、意図表現ごとに文書要素に分離されている構造化文書の文書集合を、分類の対象となる文書集合として格納する。
 図25は、文書記憶部101cに格納された文書集合の一例を示す図である。文書集合に含まれる構造化文書は、例えば、Webページ文書、業務上作成された文書、特許公報などの文書が、意図表現ごとに文書要素に分離されたかたちで格納される。文書記憶部101cは、構造化文書そのものだけでなく、文書IDを組にして格納してもよい。図25では、文書IDがD1の構造化文書から文書IDがD3の構造化文書までを含む文書集合が文書記憶部101cに格納された例を示している。文書IDがD1の構造化文書は、「広い」、「取れない」、「いい」の意図表現ごとに文書要素を持つ。また、文書IDがD2の構造化文書は、「笑顔」、「いい」、「おいしい」、「良心的」、「イライラ」の意図表現ごとに文書要素を持つ。また、文書IDがD3の構造化文書は、「多い」の意図表現に対応した文書要素を持つ。
 文書記憶部101cには、例えば、ハードディスクやフラッシュメモリなどを用いることができる。
 第4実施形態の文書分類装置において、データ処理装置2の特徴語抽出手段201は、第1実施形態と同様に、文書集合に含まれる分類対象の各文書から意図表現の対象となる語句を抽出し、意図表現の対象となる語句の中から、予め定めた基準に従って選択された語句を特徴語として抽出する。このとき、第4実施形態では、分類対象の文書が、意図表現ごとに文書要素に分離された構造化文書であるため、特徴語抽出手段201は各文書の文書要素から特徴語を抽出すればよく、処理が簡便になる。
 以上のように、第4実施形態の文書分類装置によれば、分類対象の文書が構造化文書として文書記憶部101cに格納されているので、第1実施形態の効果に加えて、分類対象の文書から特徴語を抽出する処理を簡便に行って、文書の分類を効率良く行うことができるという効果が得られる。
 以上説明した各実施形態において、データ処理装置2,2a,2bが備える上述した各機能は、例えば、データ処理装置2,2a,2bが所定のプログラムを実行することにより実現できる。このときのデータ処理装置2,2a,2bのハードウェア構成について、図26を用いて説明する。図26は、データ処理装置2,2a,2bのハードウェア構成例を示す説明図である。
 データ処理装置2,2a,2bは、CPU(Central Processing Unit)51などの制御装置と、ROM(Read Only Memory)52やRAM(Random Access Memory)53などの記憶装置と、ネットワークに接続して通信を行う通信I/F54と、HDD(Hard Disk Drive)、CD(Compact Disc)ドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置と、各部を接続するバス61を備えており、通常のコンピュータを利用したハードウェア構成となっている。
 上記のようなハードウェア構成を有するデータ処理装置2,2a,2bで実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD-ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD-R(Compact Disk Recordable)、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。
 また、データ処理装置2,2a,2bで実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、データ処理装置2,2a,2bで実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。
 また、データ処理装置2,2a,2bで実行されるプログラムを、データ処理装置2,2a,2bのROM52等に予め組み込んで提供するように構成してもよい。
 データ処理装置2,2a,2bで実行されるプログラムは、データ処理装置2,2a,2bの各手段(特徴語抽出手段201(201a,201b)、特徴語クラスタリング手段202(202a)、文書分類手段203(203a)、分類ラベル付与手段204(204a,204b)など)を含むモジュール構成となっており、実際のハードウェアとしては、例えば、CPU51(プロセッサ)が記憶媒体からプログラムを読み出して実行することにより、上記の各手段が主記憶装置上にロードされ、上記の各手段が主記憶装置上に生成されるようになっている。
 以上述べた少なくとも一つの実施形態の文書分類装置によれば、分類されたクラスタの数が多くなりすぎたり、クラスタごとに分類される文書数に大きな偏りがあったりといった弊害を有効に抑制し、文書の分類結果を、ユーザに対して分かり易く提示することができる。 
 なお、以上述べた各実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (11)

  1.  文書集合に含まれる文書から特徴語を抽出する特徴語抽出手段と、
     抽出した前記特徴語を、木構造を有するシソーラスの部分木を構成する複数のクラスタであって、一のクラスタに属する前記特徴語が出現する前記文書の数と、他のクラスタに属する前記特徴語が出現する前記文書の数との差が、予め定めた基準値以下となる複数のクラスタにクラスタリングする特徴語クラスタリング手段と、
     前記文書集合に含まれる前記文書を、該文書に出現する前記特徴語が属するクラスタに分類する文書分類手段と、
     前記複数のクラスタのそれぞれに、各クラスタに属する前記特徴語を代表する語句である分類ラベルを付与する分類ラベル付与手段と、
     前記文書の分類結果を、分類されたクラスタに付与された前記分類ラベルと対応付けて提示する提示手段と、を備えることを特徴とする文書分類装置。
  2.  前記特徴語抽出手段は、意図表現の対象となる語句から、予め定めた基準に従って選択された語句を、前記特徴語として抽出することを特徴とする請求項1に記載の文書分類装置。
  3.  前記特徴語抽出手段は、意図表現の対象となる語句から、出現頻度に基づいて計算される重みが所定値以上となる語句を、前記特徴語として抽出することを特徴とする請求項2に記載の文書分類装置。
  4.  前記提示手段は、前記文書の分類結果を、分類されたクラスタに付与された前記分類ラベルと、分類されたクラスタに属する前記特徴語とに対応付けて提示することを特徴とする請求項2に記載の文書分類装置。
  5.  前記提示手段は、前記文書の分類結果に対応付けて提示する前記特徴語を、該特徴語の抽出に用いた前記意図表現の種類ごとに区別できる形式で提示することを特徴とする請求項4に記載の文書分類装置。
  6.  前記特徴語抽出手段は、前記文書集合に含まれる前記文書以外の指定された文書である指定文書から前記特徴語をさらに抽出し、
     前記特徴語クラスタリング手段は、前記指定文書から前記特徴語が抽出された場合、1つの前記指定文書から抽出された前記特徴語を1つのクラスタにクラスタリングし、
     前記文書分類手段は、前記文書集合に含まれる前記文書に前記指定文書から抽出された前記特徴語が出現する場合、該文書を前記指定文書から抽出された前記特徴語が属するクラスタに分類することを特徴とする請求項1に記載の文書分類装置。
  7.  意図表現の対象となる観点の辞書を格納する観点辞書記憶手段をさらに備え、
     前記特徴語抽出手段は、意図表現の対象となる語句のうち、前記観点の辞書に含まれる語句を、前記特徴語として抽出することを特徴とする請求項2に記載の文書分類装置。
  8.  前記文書集合に含まれる文書は、意図表現ごとに文書要素に分離された構造化文書であり、
     前記特徴語抽出手段は、前記文書要素から前記特徴語を抽出することを特徴とする請求項2に記載の文書分類装置。
  9.  前記特徴語クラスタリング手段は、前記シソーラスにおいて1つの部分木を構成しない複数の前記特徴語を1つのクラスタにクラスタリングし、
     前記分類ラベル付与手段は、前記シソーラスにおいて1つの部分木を構成しない複数の前記特徴語が属するクラスタに対して、該クラスタがシソーラスの1つの部分木を構成しない複数の前記特徴語の集合であることを表す分類ラベルを付与することを特徴とする請求項1に記載の文書分類装置。
  10.  文書集合に含まれる文書から特徴語を抽出するステップと、
     抽出した前記特徴語を、木構造を有するシソーラスの部分木を構成する複数のクラスタであって、一のクラスタに属する前記特徴語が出現する前記文書の数と、他のクラスタに属する前記特徴語が出現する前記文書の数との差が、予め定めた基準値以下となる複数のクラスタにクラスタリングするステップと、
     前記文書集合に含まれる前記文書を、該文書に出現する前記特徴語が属するクラスタに分類するステップと、
     前記複数のクラスタのそれぞれに、各クラスタに属する前記特徴語を代表する語句である分類ラベルを付与するステップと、
     前記文書の分類結果を、分類されたクラスタに付与された前記分類ラベルと対応付けて提示するステップと、を備えることを特徴とする文書分類方法。
  11.  コンピュータに、
     文書集合に含まれる文書から特徴語を抽出する機能と、
     抽出した前記特徴語を、木構造を有するシソーラスの部分木を構成する複数のクラスタであって、一のクラスタに属する前記特徴語が出現する前記文書の数と、他のクラスタに属する前記特徴語が出現する前記文書の数との差が、予め定めた基準値以下となる複数のクラスタにクラスタリングする機能と、
     前記文書集合に含まれる前記文書を、該文書に出現する前記特徴語が属するクラスタに分類する機能と、
     前記複数のクラスタのそれぞれに、各クラスタに属する前記特徴語を代表する語句である分類ラベルを付与する機能と、
     前記文書の分類結果を、分類されたクラスタに付与された前記分類ラベルと対応付けて提示する機能と、を実現させるプログラム。
PCT/JP2012/066184 2011-09-15 2012-06-25 文書分類装置、方法およびプログラム WO2013038774A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201280002991.6A CN103119596B (zh) 2011-09-15 2012-06-25 文件分类装置和方法
US13/845,989 US9507857B2 (en) 2011-09-15 2013-03-18 Apparatus and method for classifying document, and computer program product

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-202281 2011-09-15
JP2011202281A JP5389130B2 (ja) 2011-09-15 2011-09-15 文書分類装置、方法およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US13/845,989 Continuation US9507857B2 (en) 2011-09-15 2013-03-18 Apparatus and method for classifying document, and computer program product

Publications (1)

Publication Number Publication Date
WO2013038774A1 true WO2013038774A1 (ja) 2013-03-21

Family

ID=47883018

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/066184 WO2013038774A1 (ja) 2011-09-15 2012-06-25 文書分類装置、方法およびプログラム

Country Status (4)

Country Link
US (1) US9507857B2 (ja)
JP (1) JP5389130B2 (ja)
CN (1) CN103119596B (ja)
WO (1) WO2013038774A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016013209A1 (ja) * 2014-07-23 2016-01-28 日本電気株式会社 文集合抽出システム、方法およびプログラム
WO2022014328A1 (ja) * 2020-07-15 2022-01-20 ソニーグループ株式会社 情報処理装置及び情報処理方法

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9082047B2 (en) * 2013-08-20 2015-07-14 Xerox Corporation Learning beautiful and ugly visual attributes
CN103488689B (zh) * 2013-09-02 2017-09-12 新浪网技术(中国)有限公司 基于聚类的邮件分类方法和系统
CN104077385A (zh) * 2014-06-27 2014-10-01 北京海泰方圆科技有限公司 一种文件的分类及检索方法
WO2016041181A1 (en) * 2014-09-18 2016-03-24 Google Inc. Clustering communications based on classification
JP6234978B2 (ja) * 2015-10-16 2017-11-22 Necパーソナルコンピュータ株式会社 情報処理装置、情報処理システム、およびプログラム
CN106778862B (zh) * 2016-12-12 2020-04-21 上海智臻智能网络科技股份有限公司 一种信息分类方法及装置
US10366461B2 (en) * 2017-03-06 2019-07-30 Aon Risk Services, Inc. Of Maryland Automated document analysis for varying natural languages
JP6707483B2 (ja) * 2017-03-09 2020-06-10 株式会社東芝 情報処理装置、情報処理方法、および情報処理プログラム
CN108628869A (zh) * 2017-03-16 2018-10-09 富士施乐实业发展(中国)有限公司 一种对电子文书进行类别划分的方法和装置
JP6880974B2 (ja) * 2017-04-19 2021-06-02 富士通株式会社 情報出力プログラム、情報出力方法および情報処理装置
CN107168958A (zh) * 2017-05-15 2017-09-15 北京搜狗科技发展有限公司 一种翻译方法及装置
CN107391751A (zh) * 2017-08-15 2017-11-24 郑州云海信息技术有限公司 一种文件分类方法及装置
CN110490027B (zh) * 2018-05-15 2023-06-16 触景无限科技(北京)有限公司 人脸特征提取训练方法及系统
CN110489558B (zh) * 2019-08-23 2022-03-18 网易传媒科技(北京)有限公司 文章聚合方法和装置、介质和计算设备
RU2749969C1 (ru) * 2019-12-30 2021-06-21 Александр Владимирович Царёв Цифровая платформа классификации исходных данных и способы ее работы
JPWO2021166692A1 (ja) * 2020-02-21 2021-08-26

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11316768A (ja) * 1998-01-26 1999-11-16 Xerox Corp 任意のコ―パスサブセットをほぼ一定時間でクラスタ化するための方法および装置
JP2003196298A (ja) * 2001-12-25 2003-07-11 Fujitsu Ltd 分野体系構築支援装置
JP2005063366A (ja) * 2003-08-20 2005-03-10 Hitachi Software Eng Co Ltd 情報管理装置および情報管理方法
JP2009251825A (ja) * 2008-04-03 2009-10-29 Nec Corp 文書クラスタリングシステム、その方法及びプログラム
JP2009294939A (ja) * 2008-06-05 2009-12-17 Toshiba Corp 文書分類装置
JP2010267141A (ja) * 2009-05-15 2010-11-25 Toshiba Corp 文書分類装置およびプログラム
JP2011053881A (ja) * 2009-09-01 2011-03-17 Mitsubishi Electric Corp 文書管理システム

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0935206A3 (en) * 1996-07-18 2000-01-19 Matsushita Electric Industrial Co., Ltd. Data retrieval support apparatus, data retrieval support method and medium storing data retrieval support program
US6446061B1 (en) * 1998-07-31 2002-09-03 International Business Machines Corporation Taxonomy generation for document collections
JP2000348041A (ja) * 1999-06-03 2000-12-15 Nec Corp 文書検索方法及びその装置並びにプログラムを記録した機械読み取り可能な記録媒体
US6701314B1 (en) * 2000-01-21 2004-03-02 Science Applications International Corporation System and method for cataloguing digital information for searching and retrieval
KR100426382B1 (ko) * 2000-08-23 2004-04-08 학교법인 김포대학 엔트로피 정보와 베이지안 에스오엠을 이용한 문서군집기반의 순위조정 방법
CN1360253A (zh) * 2000-12-21 2002-07-24 意蓝科技股份有限公司 中文文件自动分类法
US8090678B1 (en) * 2003-07-23 2012-01-03 Shopping.Com Systems and methods for extracting information from structured documents
US20070088743A1 (en) * 2003-09-19 2007-04-19 Toshiba Solutions Corporation Information processing device and information processing method
US7788086B2 (en) * 2005-03-01 2010-08-31 Microsoft Corporation Method and apparatus for processing sentiment-bearing text
US7676463B2 (en) * 2005-11-15 2010-03-09 Kroll Ontrack, Inc. Information exploration systems and method
KR100816923B1 (ko) * 2006-04-13 2008-03-26 엘지전자 주식회사 문서 분류 시스템 및 그 방법
WO2007149216A2 (en) * 2006-06-21 2007-12-27 Information Extraction Systems An apparatus, system and method for developing tools to process natural language text
JP4910582B2 (ja) * 2006-09-12 2012-04-04 ソニー株式会社 情報処理装置および方法、並びに、プログラム
CN100578500C (zh) * 2006-12-20 2010-01-06 腾讯科技(深圳)有限公司 一种网页分类方法及装置
CN101819601B (zh) * 2010-05-11 2012-02-08 同方知网(北京)技术有限公司 学术文献自动分类的方法
JP5338835B2 (ja) * 2011-03-24 2013-11-13 カシオ計算機株式会社 類義語リストの生成方法および生成装置、当該類義語リストを用いた検索方法および検索装置、ならびに、コンピュータプログラム
US8983963B2 (en) * 2011-07-07 2015-03-17 Software Ag Techniques for comparing and clustering documents

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11316768A (ja) * 1998-01-26 1999-11-16 Xerox Corp 任意のコ―パスサブセットをほぼ一定時間でクラスタ化するための方法および装置
JP2003196298A (ja) * 2001-12-25 2003-07-11 Fujitsu Ltd 分野体系構築支援装置
JP2005063366A (ja) * 2003-08-20 2005-03-10 Hitachi Software Eng Co Ltd 情報管理装置および情報管理方法
JP2009251825A (ja) * 2008-04-03 2009-10-29 Nec Corp 文書クラスタリングシステム、その方法及びプログラム
JP2009294939A (ja) * 2008-06-05 2009-12-17 Toshiba Corp 文書分類装置
JP2010267141A (ja) * 2009-05-15 2010-11-25 Toshiba Corp 文書分類装置およびプログラム
JP2011053881A (ja) * 2009-09-01 2011-03-17 Mitsubishi Electric Corp 文書管理システム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016013209A1 (ja) * 2014-07-23 2016-01-28 日本電気株式会社 文集合抽出システム、方法およびプログラム
JPWO2016013209A1 (ja) * 2014-07-23 2017-04-27 日本電気株式会社 文集合抽出システム、方法およびプログラム
WO2022014328A1 (ja) * 2020-07-15 2022-01-20 ソニーグループ株式会社 情報処理装置及び情報処理方法

Also Published As

Publication number Publication date
JP5389130B2 (ja) 2014-01-15
JP2013065097A (ja) 2013-04-11
CN103119596A (zh) 2013-05-22
US9507857B2 (en) 2016-11-29
US20130268535A1 (en) 2013-10-10
CN103119596B (zh) 2017-11-03

Similar Documents

Publication Publication Date Title
JP5389130B2 (ja) 文書分類装置、方法およびプログラム
US10565313B2 (en) Automatic semantic rating and abstraction of literature
US9898526B2 (en) Computer-implemented system and method for inclusion-based electronically stored information item cluster visual representation
JP3810463B2 (ja) 情報フィルタリング装置
US20160342578A1 (en) Systems, Methods, and Media for Generating Structured Documents
US8996593B2 (en) File management apparatus and file management method
JP4129048B2 (ja) 固有表現抽出装置、方法、及びプログラム
JP5796494B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JPH10320411A (ja) 文書分類装置、方法及び文書分類プログラムを記録した記録媒体
CN102640145A (zh) 可信查询系统和方法
JP2010541092A5 (ja)
CN101458703A (zh) 用于控制相对重要性的标签表示或标签组表示大小调整
JP2011100403A (ja) 情報処理装置、情報抽出方法、プログラム及び情報処理システム
US20120096003A1 (en) Information classification device, information classification method, and information classification program
US20070277106A1 (en) Method and structure for managing electronic slides using a slide-reading program
JP5224532B2 (ja) 評判情報分類装置及びプログラム
Spitz et al. Topexnet: entity-centric network topic exploration in news streams
US11106739B2 (en) Document structures for searching within and across messages
KR101688829B1 (ko) 사용자 패턴을 반영한 문서 제공 방법 및 그 장치
US20220156228A1 (en) Data Tagging And Synchronisation System
US20130060778A1 (en) Device, method, and program for displaying document list
JP3921540B2 (ja) 文書セット分類装置及びそのプログラム
JP2004303198A (ja) 文書処理装置、文書処理方法および文書処理プログラム
KR100350785B1 (ko) 멀티미디어 데이타의 특징 기술정보 생성방법
Steglich et al. Twitter Event Detection in a City

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201280002991.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12831904

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12831904

Country of ref document: EP

Kind code of ref document: A1