WO2006048998A1 - キーワード抽出装置 - Google Patents

キーワード抽出装置 Download PDF

Info

Publication number
WO2006048998A1
WO2006048998A1 PCT/JP2005/018712 JP2005018712W WO2006048998A1 WO 2006048998 A1 WO2006048998 A1 WO 2006048998A1 JP 2005018712 W JP2005018712 W JP 2005018712W WO 2006048998 A1 WO2006048998 A1 WO 2006048998A1
Authority
WO
WIPO (PCT)
Prior art keywords
document group
group
document
index word
calculating
Prior art date
Application number
PCT/JP2005/018712
Other languages
English (en)
French (fr)
Inventor
Hiroaki Masuyama
Haru-Tada Sato
Makoto Asada
Kazumi Hasuko
Hideaki Hotta
Original Assignee
Intellectual Property Bank Corp.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intellectual Property Bank Corp. filed Critical Intellectual Property Bank Corp.
Priority to JP2006542917A priority Critical patent/JPWO2006048998A1/ja
Priority to EP05793129A priority patent/EP1830281A1/en
Priority to US11/667,097 priority patent/US20080195595A1/en
Publication of WO2006048998A1 publication Critical patent/WO2006048998A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/31Indexing; Data structures therefor; Storage structures
    • G06F16/313Selection or weighting of terms for indexing

Definitions

  • the present invention relates to a technique for automatically extracting, from a document group consisting of a plurality of documents, a key word representing the subject of the document group by a computer, and in particular, a keyword extraction device, an extraction method, and an extraction program. About.
  • Patent documents, technical documents, and other documents are newly created every day, and the number is enormous.
  • a technique for automatically extracting a keyword representing the characteristics of the document is known.
  • Non-Patent Document 1 discloses a method of extracting a keyword representing a document claim.
  • the broad words (HighFreq) of the number of appearances in the document are extracted.
  • the co-occurrence degree of the document is calculated based on the presence / absence of co-occurrence of High Freqs in sentence units, and the combination of High Freqs having high co-occurrence degrees is defined as a “base”. HighFreq with low co-occurrence will belong to different foundations.
  • the co-occurrence degree with the word in the foundation is calculated based on the presence or absence of the co-occurrence with the word in each foundation in the sentence unit, and these foundations are calculated based on the co-occurrence degree with the word in the foundation. Extract words (roofs) that integrate sentences supported by.
  • Non-Patent Document 1 Yukio Osawa et al. “KeyGraph: Extracting key words by dividing and integrating co-occurrence graphs of words” IEICE Transactions Vol.J82-DI, No.2, 391-400 (February 1999) Invention Disclosure
  • Non-Patent Document 1 does not extract a keyword representing the characteristics of a document group composed of a plurality of documents.
  • the technology described in Non-Patent Document 1 above is a document written to assert the author's own idea, Since it is based on the premise that a flow is formed, it cannot be applied to a group of documents consisting of multiple independent documents.
  • An object of the present invention is to provide a keyword extraction device, an extraction method, and an extraction program capable of automatically extracting a keyword representing a feature of a document group including a plurality of documents.
  • Another object of the present invention is to automatically extract a plurality of viewpoints of keywords representing characteristics of a document group having a plurality of document capabilities so that the characteristics of the document group can be understood three-dimensionally.
  • a keyword extraction device of the present invention is a device for extracting a keyword from a document group consisting of a plurality of documents, and includes the following means. That is,
  • Index word extraction means for extracting index words from the data of the document group
  • a high-frequency word extracting unit that calculates a weight including an evaluation of a high appearance frequency in the document group for each index word, and extracts a high-frequency word that is an index word having a large weight, and each of the high-frequency words
  • a high-frequency word-one index word for calculating the co-occurrence degree in the document group of each of the high-frequency words and each of the index words based on the presence or absence of co-occurrence of each of the index words and each of the index words.
  • Clustering means for classifying the high-frequency words based on the calculated co-occurrence and generating clusters
  • Keyword extracting means for extracting a keyword based on the calculated score.
  • keywords representing the characteristics of a document group having a plurality of document capabilities are classified based on the co-occurrence degree based on the presence or absence of co-occurrence in document units with each of the index words in the document group to generate clusters, and more clusters. It is possible to extract keywords that accurately represent the characteristics of document groups by extracting keywords by highly evaluating index words that co-occur with high-frequency words belonging to a raster and co-occur in more documents. it can.
  • the high-frequency word is extracted by calculating a weight including the high frequency of appearance in the document group for each of the extracted index words. This is done by extracting a predetermined number of words.
  • weight may be GF (E) (described later) indicating the high frequency of appearance in the document group, or a function value including GF (E) as a variable.
  • the co-occurrence degree with each of the p index words is set. Create a P-dimensional vector as a component. Then, clustering is performed by the clustering means based on the degree of similarity (similarity or dissimilarity) of the p-dimensional vector for each high-frequency word.
  • index word As a method of highly evaluating index words that co-occur with more frequent words belonging to more clusters, for example, each index word and intra-cluster high-frequency words for all clusters (the foundation described later) It is conceivable that a score derived from a polynomial including the product of the co-occurrence degree (index word—base co-occurrence degree (described later)) is used as the score of each index word.
  • a score derived from a polynomial including the product of the co-occurrence degree index word—base co-occurrence degree (described later)
  • index word base co-occurrence degree (described later)
  • index word base co-occurrence degree
  • Co-occurrence degree (1 or 0, or given weight to this) index word—base co-occurrence degree Co (w, g)
  • a function value that includes w ′) (described later) or index word-base co-occurrence degree Co ′ (w, g) (described later)) as a variable may be used as the score of each index word.
  • the score calculated by the score calculating means for each index word has a lower appearance frequency in a document group including documents other than the document group, and the index word is Desirably, the score should be higher. This makes it possible to extract keywords by highly evaluating index terms unique to the document group to be analyzed.
  • Examples of the appearance frequency in the document group here include DF (P) described later.
  • DF the reciprocal number of DF (P), or the reciprocal number of DF (P) X the number of documents in the document group, or the logarithm of any one of these, the higher frequency words belonging to the above-mentioned more clusters.
  • Co-occurrence and co-occurrence in more documents can be added to or multiplied by the highly rated score.
  • Skey (w) which will be described later, can be cited as a score that highly evaluates an index word having a low DF (P).
  • the score calculated by the score calculation means for each index word is a score obtained by highly evaluating an index word having a higher appearance frequency in the document group. I want it! /
  • the frequency of appearance in the document group here is, for example, GF (E) described later.
  • GF (E) a score that highly co-occurs with a high-frequency word belonging to the above-mentioned more clusters and that co-occurs in a larger number of documents is multiplied by GF (E) or calorieated. It is possible.
  • a score that highly evaluates an index word having a high GF (E) is S key (w) described later.
  • the keyword extracting means may determine the number of keyword extractions based on the appearance frequency of the index word highly evaluated by the score calculating means in the document group. .
  • the frequency of appearance in the document group here is, for example, DF (E) described later.
  • the keyword extracting means is preferably configured to extract the determined number of extracted keywords based on a word appearance rate in a title of each document belonging to the document group. Better ,. As a result, a keyword that accurately represents the contents of the document group can be extracted.
  • Evaluation value calculating means for calculating an evaluation value in each document group for each index word for the document group group including the document group to be analyzed and another document group, and each document group for each index word The sum of the evaluation values in all document groups belonging to the document group group is calculated, the ratio of the evaluation value in each document group to the sum is calculated for each document group, and the square of the ratio is calculated.
  • a concentration degree calculating means for calculating a concentration degree of distribution of each index word in the document group group, which is obtained by calculating a sum of squares of the ratios in all document groups belonging to the document group group; e,
  • the keyword extracting means may extract a keyword by adding the degree of concentration calculated by the concentration degree calculating means to the evaluation in addition to the score calculated for the document group to be analyzed by the score calculating means. Hope.
  • Words with high scores by the score calculation means and low concentrations by the concentration calculation means are dispersed throughout the document group group, and thus broadly capture the technical area to which the document group to be analyzed belongs. It can be positioned as a thing.
  • the individual document group in this case can be obtained by clustering a document group group, for example.
  • Evaluation value calculation means for calculating an evaluation value in each document group for each index word for a document group group including the document group to be analyzed and another document group, and each of the document groups in the analysis target Calculate the sum of the index word evaluation values for all index words extracted for each document group power belonging to the document group group, and calculate the ratio of the index word evaluation values to the sum for each index word.
  • Share calculation means for calculating a share of each index word in the document group to be analyzed obtained by the keyword extraction means, the score calculated for the document group to be analyzed by the score calculation means In addition, it is desirable to extract a keyword by adding the share calculated by the share calculating means to the document group to be analyzed in addition to the evaluation.
  • Words with high scores by the score calculation means and high shares by the share calculation means are: Since the share of the analysis target document group is higher than that of other words, the analysis target document group can be positioned as a well-explained (main word).
  • a first reciprocal calculation means for calculating a function value of the reciprocal of the appearance frequency in a document group group including the document group to be analyzed and another document group;
  • a second reciprocal calculating means for calculating a function value of the reciprocal of the appearance frequency in the large document group including the document group group for each index word;
  • originality calculation means for calculating the originality of each index word in the document group group by a function value obtained by subtracting the calculation result of the second inverse calculation means from the calculation result of the first inverse calculation means ,
  • the keyword extraction means may extract a keyword by adding the originality calculated by the originality calculation means to the evaluation in addition to the score calculated for the analysis target document group by the score calculation means. Hope.
  • a large value of the reciprocal of the appearance frequency in the document group group means that the word is rare in this document group group.
  • the value of the reciprocal of the frequency of appearance in the large document group including the document group group, and the dilemma are used in the document group group even if they are frequently used in other fields. It can be said that the use in such a field is original.
  • a word having a high score by the score calculating means and a high originality by the originality calculating means can be regarded as a word representing an original viewpoint in the field.
  • an IDF inverse document frequency
  • Another keyword extraction device of the present invention is:
  • the document group power which also has multiple document powers, is a device that extracts keywords, and includes the following means. That is,
  • Index word extraction means for extracting an index word from data of a document group group including the document group to be analyzed and another document group;
  • An evaluation value calculating means for calculating an evaluation value in each document group for each index word for the document group group; For each index word, the sum of the evaluation values in each document group is calculated for all document groups belonging to the document group group, and the ratio of the evaluation value in each document group to the sum is calculated for each document group. Concentration for calculating the degree of concentration of each index word distribution in the document group group obtained by calculating the square of the ratio and calculating the sum of the square of the ratio in all document groups belonging to the document group group. Degree calculation means;
  • a keyword extracting means for extracting a keyword based on a combination of the concentration degree calculated by the concentration degree calculating means and the share calculated for the document group to be analyzed by the share calculating means.
  • words with a low sum of squares calculated by the concentration level calculation means are words that are distributed across multiple document groups. Can be positioned.
  • words with a high ratio calculated by the share calculator can be positioned as those that can explain the analyzed document group well (main words) because the share in the analyzed document group is a high language word. .
  • keywords can be categorized by the two viewpoints, and the characteristics of the document group can be understood three-dimensionally.
  • a first reciprocal calculating means for calculating a function value of the reciprocal of the appearance frequency in the document group group for each index word
  • a second reciprocal calculating means for calculating a function value of the reciprocal of the appearance frequency in the large document group including the document group group for each index word;
  • the keyword extracting means further extracts a keyword based on a combination with the originality calculated by the originality calculating means.
  • keywords can be categorized from three viewpoints so that the characteristics of the document group can be understood three-dimensionally. Become.
  • the keyword extraction device of the present invention is a device for extracting a keyword from a document group consisting of a plurality of documents, and includes the following means. That is,
  • Index word extraction means for extracting an index word from data of a document group group including the document group to be analyzed and another document group;
  • Appearance frequency calculating means for calculating a function value of the appearance frequency in the analysis target document group for each index word
  • Keywords representing the characteristics of a document group consisting of a plurality of documents and to understand the characteristics of the document group in a three-dimensional manner.
  • the functions of the concentration calculated by the concentration calculator, the shear calculated by the shear calculator, the originality calculated by the originality calculator, and the appearance frequency calculated by the appearance frequency calculator Since keywords are categorized and extracted based on a combination of at least two of the values, the characteristics of the document group can be understood three-dimensionally.
  • the keyword extracting means includes
  • An index word having a function value of an appearance frequency in the document group to be analyzed is a predetermined threshold or more is determined as an important word in the document group to be analyzed
  • an index word having the concentration level equal to or lower than a predetermined threshold is determined as a technical domain word in the document group to be analyzed
  • an index word whose share in the analysis target document group is equal to or greater than a predetermined threshold is determined as a main word in the analysis target document group
  • an index word having the originality of a predetermined threshold or more is determined as a unique word in the analysis target document group
  • the function value of the reciprocal of the appearance frequency in the document group group is obtained by standardizing the inverse document frequency (IDF) in the document group group with all index words of the document group to be analyzed,
  • the function value of the reciprocal of the appearance frequency in the large document group including the document group group is the standard value of the inverse document frequency (IDF) in the large document group with all index words of the document group to be analyzed. It is desirable that
  • the present invention also provides a keyword extraction method including the same steps as the method executed by each of the above apparatuses, and allows a computer to execute the same process as the process executed by each of the above apparatuses.
  • This is a keyword extraction program.
  • This program can be recorded on a recording medium such as an FD, CDROM, or DVD, or it can be sent and received over a network.
  • FIG. 1 is a diagram showing a hardware configuration of a keyword extraction device according to the first embodiment of the present invention.
  • FIG. 2 is a diagram for explaining in detail the configuration and functions of the keyword extraction device of the first embodiment.
  • FIG. 3 is a flowchart showing an operation procedure of the processing device 1 in the keyword extracting device of the first embodiment.
  • ⁇ 4 A diagram for explaining in detail the configuration and function of the keyword extracting device according to the second embodiment of the present invention.
  • FIG. 5 is a flowchart showing an operation procedure of the processing device 1 in the keyword extracting device of the second embodiment.
  • FIG. 6 is a reference diagram showing an example in which keywords extracted by the keyword extracting device of the present invention are entered in a document correlation diagram showing the relationship between documents.
  • FIG. 7 is a diagram for explaining in detail the configuration and functions of a keyword extraction device according to a third embodiment of the present invention.
  • FIG. 8 is a flowchart showing an operation procedure of the processing device 1 in the keyword extracting device of the third embodiment. Explanation of symbols
  • index word extraction section index word extraction means
  • 30 High frequency word extraction section (high frequency word extraction means)
  • 40 High frequency word / index word co-occurrence calculation section (High frequency word / index word co-occurrence) Degree calculation means)
  • 50 clustering section (clustering means)
  • 70 key (w) calculation section (score calculation means)
  • 80 S key (w) calculation section (score calculation means)
  • 90 keyword extraction section (keywords) Extraction means)
  • label extraction unit key extraction means
  • Similarity Similarity or dissimilarity between objects to be compared.
  • Each target to be compared is expressed as a vector, and expressed using a product function between vector components such as cosine or Tanimoto correlation (an example of similarity) between vectors.
  • a product function between vector components such as cosine or Tanimoto correlation (an example of similarity) between vectors.
  • There is a method of expressing using a function of a difference between vector components such as an example of similarity.
  • Index word A word cut out from all or part of a document. Extracting meaningful parts of speech, excluding particles and conjunctions, using traditionally known methods that have no particular restrictions on how to extract words, or, for example, commercially available morphological analysis software for Japanese documents Alternatively, the index word dictionary (thesaurus) database may be stored in advance and index words obtained from the database may be used.
  • the index word dictionary thesaurus
  • High-frequency words Predetermined number of words that have a high weight to include in the evaluation the high frequency of occurrence in the group of documents to be analyzed among the index words. For example, a function value including GF (E) (described later) or G F (E) as a variable as a weight of an index word is calculated, and a predetermined number of words having a large value are extracted.
  • E Document group to be analyzed.
  • the document group E for example, a document group constituting individual clusters when a large number of documents are clustered based on similarity is used.
  • E (u l, 2, ⁇ ⁇ ⁇ , n when displaying each document group in the document group group S with multiple document groups E.
  • n is the number of documents. ) Is displayed.
  • a document group group including a plurality of document groups E For example, it consists of 300 patent documents similar to a patent document or group of patent documents.
  • Means summation within a range that satisfies condition H.
  • C (w, w) Co-occurrence degree in a document group calculated based on the presence or absence of co-occurrence of index words in document units. All of the index word w and index word w belonging to the document group ⁇ (with weighting ⁇ (w, D) and
  • Co (w, g) Index term Base co-occurrence.
  • the co-occurrence degree C (w, w ') of the index word w and the high-frequency word w' belonging to the base g is the sum of all the w's (excluding w) belonging to the base g.
  • y The average occurrence rate of title terms.
  • the title term appearance rate f is divided by the genus m of the index word w (k k k v title term) that appears in each title a.
  • T, T, ⁇ ⁇ ⁇ Title (title) extracted in descending order as the title score.
  • K Keyword suitability. This is calculated to determine the number of labels (explained later), and indicates the degree of keyword occupancy for document group E.
  • DF (w, D) Document frequency in document D according to index word w, that is, 1 if index word w is included in document D, 0 if it is not included!
  • TF * IDF (P) product of TF (D) and IDF (P). Calculated for each index word in the document.
  • FIG. 1 is a diagram showing a hardware configuration of the keyword extracting device according to the first embodiment of the present invention.
  • the keyword extraction device of the present embodiment is an input means such as a processing device 1 composed of a CPU (central processing unit) and a memory (recording device), and a keyboard (manual input device). Created by input device 2, document data and conditions, and processing device 1 It consists of a recording device 3 which is a recording means for storing business results and an output device 4 which is an output means for displaying or printing the extracted keywords.
  • FIG. 2 is a diagram for explaining in detail the configuration and functions of the keyword extracting device of the first embodiment.
  • the processing device 1 includes a document reading unit 10, an index word extraction unit 20, a high frequency word extraction unit 30, a high frequency word / index word co-occurrence calculation unit 40, a clustering unit 50, and an index word base co-occurrence degree.
  • a calculation unit 60, a key (w) calculation unit 70, a Skey (w) calculation unit 80, and a keyword extraction unit 90 are provided.
  • the recording device 3 includes a condition recording unit 310, a work result storage unit 320, a document storage unit 330, and the like.
  • the document storage unit 330 includes an external database and an internal database.
  • An external database means, for example, a document digital database such as IPDL of a patent digital library serviced by the Japan Patent Office or PATOLIS serviced by Patrice Co., Ltd.!
  • the internal database is a database that stores data such as patent JP-ROM that is sold on its own, FD (flexible disk), CD (compact disk) ROM, MO (magneto-optical disk), DVD that stores documents.
  • Media power reading device digital video disc
  • OCR optical information reading device
  • a communication means for exchanging signals and data among the processing device 1, the input device 2, the recording device 3, and the output device 4 is a USB (Universal System Bus) cable or the like. It may be connected directly, may be transmitted / received via a network such as a LAN (local area network), or may be via a medium such as FD, CDROM, MO, or DVD that stores documents. Alternatively, some or a combination of these may be used.
  • a network such as a LAN (local area network)
  • a medium such as FD, CDROM, MO, or DVD that stores documents.
  • some or a combination of these may be used.
  • the input device 2 accepts inputs such as a document reading condition, a high-frequency word extraction condition, a clustering condition, a saddle diagram creation condition, a saddle diagram cutting condition, a score calculation condition, and a keyword output condition. These input conditions are sent to the condition recording unit 310 of the recording device 3. Stored.
  • the document reading unit 10 reads the document group E including a plurality of documents D to D to be analyzed from the document storage unit 330 of the recording device 3 in accordance with the reading conditions stored in the condition recording unit 310 of the recording device 3.
  • the data of the read document group is directly sent to the index word extraction unit 20 and used for processing there, and is also sent to the work result storage unit 320 of the recording device 3 and stored therein.
  • the data sent from the document reading unit 10 to the index word extraction unit 20 or the work result storage unit 320 may be all data including the document data of the read document group E. Further, only bibliographic data (for example, an application number or a publication number in the case of patent documents) specifying each document D belonging to the document group E may be used. In the latter case, the data of each document D may be read again from the document storage unit 330 based on the bibliographic data when necessary for the subsequent processing.
  • bibliographic data for example, an application number or a publication number in the case of patent documents
  • the index word extraction unit 20 extracts an index word of each document from the document group read by the document reading unit 10.
  • the index word data of each document is sent directly to the high-frequency word extraction unit 30 and used for processing there, and is also sent to the work result storage unit 320 of the recording device 3 for storage.
  • the high-frequency word extraction unit 30 is based on the index word of each document extracted by the index word extraction unit 20, and in accordance with the high-frequency word extraction conditions stored in the condition recording unit 310 of the recording device 3, A predetermined number of index words with high weights including the high appearance frequency in the evaluation are extracted. Specifically, for each index word, first, GF (E) that is the number of appearances in the document group E is calculated. Furthermore, it is preferable to calculate IDF (P) of each index word and calculate GF (E) * 1 DF (P) which is a product of GF (E).
  • a predetermined upper number of index words of GF (E) or GF (E) * IDF (P), which are the weights of the calculated index words, are extracted as high-frequency words.
  • the extracted high-frequency word data is sent directly to the high-frequency word-index word co-occurrence degree calculation unit 40 for use in processing there, and is also sent to the work result storage unit 320 of the recording device 3 for storage. Is done.
  • the GF (E) of each index word calculated above and the IDF (P) of each index word determined to be preferably calculated are also sent to the work result storage unit 320 of the recording device 3 for storage. It is preferable to be paid.
  • the high-frequency word-index word co-occurrence degree calculation unit 40 extracts each high-frequency word extracted by the high-frequency word extraction unit 30 and the index word extraction unit 20 to the work result storage unit 320.
  • the co-occurrence degree in document group E is calculated based on the presence or absence of co-occurrence of each index word stored in the document unit. If there are P index words and q high-frequency words are extracted, the matrix data is p rows and q columns.
  • the co-occurrence degree data calculated by the high-frequency word-index word co-occurrence degree calculation unit 40 is directly sent to the clustering unit 50 and used for processing there, or the work result storage unit of the recording device 3 Sent to 320 for storage.
  • the clustering unit 50 follows the clustering conditions stored in the condition recording unit 310 of the recording device 3 based on the co-occurrence degree data calculated by the high-frequency word / index word co-occurrence degree calculating unit 40. Cluster analysis of q high-frequency words.
  • the degree of similarity (similarity or dissimilarity) of co-occurrence with each index word is calculated.
  • the calculation of the similarity is executed by calling the similarity calculation module for calculating the similarity from the condition recording unit 310 based on the condition input from the input device 2.
  • the similarity degree calculation is based on the cosine or distance between all the p-dimensional column vectors for each high-frequency word to be compared. It can be done (vector space method).
  • the cosine (similarity) between the outer points means that the larger the value, the higher the degree of similarity, and the distance between the vectors (dissimilarity) means the higher the degree of similarity.
  • the similarity may be defined using other methods, not limited to the outer space method.
  • a saddle diagram in which high-frequency words are connected in a saddle shape is created in accordance with the saddle diagram creation conditions stored in the condition recording unit 310 of the recording device 3. It is desirable to create a dendrogram that reflects the dissimilarity between high-frequency words in the height of the joint position (joint distance).
  • the base data formed by the clustering unit 50 is directly sent to the index word base co-occurrence degree calculation unit 60 for use in processing there, or sent to the work result storage unit 320 of the recording device 3 for storage. Is done.
  • the base co-occurrence degree calculation unit 60 extracts each base word formed by the clustering unit 50 for each index word extracted by the index word extraction unit 20 and stored in the work result storage unit 320 of the recording device 3. The co-occurrence degree with is calculated. The co-occurrence degree data calculated for each index word is sent directly to the k ey (w) calculation unit 70 and used for processing there, or sent to the work result storage unit 320 of the recording device 3 for storage.
  • the key (w) calculation unit 70 is based on the co-occurrence degree of each index word with the base calculated by the index word-base co-occurrence degree calculation unit 60. w) is calculated. The calculated key (w) data is sent directly to the Skey (w) calculation unit 80 and used for processing there, or sent to the work result storage unit 320 of the recording device 3 and stored therein.
  • the Skey (w) calculation unit 80 calculates the key (w) score of each index word calculated by the key (w) calculation unit 70, and the work result storage unit of the recording device 3 calculated by the high-frequency word extraction unit 30. Based on the GF (E) and IDF (P) of each index word stored in 320, the Skey (w) score is calculated. The calculated data of Skey (w) is sent directly to the keyword extraction unit 90 and used for processing there, or sent to the work result storage unit 320 of the recording device 3 and stored therein.
  • the keyword extraction unit 90 extracts a predetermined number of index words higher in the Skey (w) score of each index word calculated by the Skey (w) calculation unit 80 as keywords of the analysis target document group.
  • the extracted keyword data is sent to and stored in the work result storage unit 320 of the recording device 3 and output by the output device 4 as necessary.
  • the condition recording unit 310 records information such as conditions obtained from the input device 2, and sends necessary data based on a request from the processing device 1.
  • the work result storage unit 320 stores the work result of each component in the processing device 1 and sends necessary data based on the request of the processing device 1.
  • the document storage unit 330 includes an input device 2 or a processing device 1 Store and provide necessary document data obtained from external database or internal database based on the requirements of
  • the output device 4 in FIG. 2 outputs the keywords of the document group extracted by the keyword extraction unit 90 of the processing device 1 and stored in the work result storage unit 320 of the recording device 3.
  • Examples of the output form include display on a display device, printing on a print medium such as paper, or transmission to a computer device on a network via a communication device.
  • FIG. 3 is a flowchart showing an operation procedure of the processing device 1 in the keyword extracting device of the first embodiment.
  • the document reading unit 10 reads a plurality of documents D to D to be analyzed from the document storage unit 330 of the recording device 3 (step S10).
  • the index word extraction unit 20 extracts index words of each document from the document group read in the document reading step S10 (step S20).
  • the index word data of each document can be expressed by a vector whose component is the function value of the number of occurrences of the index word included in the document group E in each document D (index word frequency TF (D)). .
  • the high-frequency word extraction unit 30 based on the index word data of each document extracted in the index word extraction step S20, a predetermined number of high-weight index words including the high frequency of appearance in the document group E in the evaluation Extract.
  • GF (E) that is the number of appearances in the document group E is calculated for each index word (step S30).
  • the index word frequency TF (D) in each document of each index word calculated in the index word extraction step S20 is used as the documents D to D belonging to the document group E. You can sum up.
  • a predetermined number of index words with the highest appearance frequency are extracted (step S31).
  • the number of high-frequency words extracted is, for example, 10 words. In this case, for example, if the 10th and 11th words have the same rank, the 11th word is extracted as a high-frequency word.
  • index word w to index word w are extracted as high-frequency words.
  • index words may be cut out differently depending on the morphological analysis software, so it is impossible to create a necessary and sufficient unnecessary word list. Therefore, it is desirable to eliminate unnecessary words as much as possible.
  • unnecessary word list for example, the following examples can be considered in patent documents. [No meaning as a keyword] The above, the above, the following, the description, the claim, the patent, the number, the formula, the general, the above, the following, the means, the feature
  • each high-frequency word extracted in the high-frequency word extraction step S31 and each index extracted in the index word extraction step S20 The co-occurrence degree with the word is calculated (step S40).
  • the co-occurrence degree C (w, w) in the document group E of the index word w and the index word w is calculated by, for example, the following equation.
  • ⁇ (w, D) TF (w, D)
  • ⁇ (w, D) TF (w, D) XIDF (w, P)
  • DF (w, D) is 1 if the document word D contains the index word w, and 0 otherwise.
  • DF (w, D) XDF (w, D) is an index 1 if the word w and the index word w co-occur in one document D, 0 otherwise. This is the sum of all documents D belonging to document group E (weighted by j8 (w, D) and j8 (w, D)) Co-occurrence of index word w and index word w Degree C (w, w).
  • c (wi, wj) ⁇ (seneD ⁇ [TF (wi, sen) x TF (wj, sen)] where sen means each sentence in document D. [TF (w, sen) XT
  • F (w, sen)] returns a value greater than or equal to 1 if the index words w and w co-occur in a sentence j I j
  • the index word w and the index word w which are the same index words, co-occur in a total of three documents, Document D to Document D, and the co-occurrence degree C (w, w
  • index word w and index word w are included in two documents, Document D and Document D.
  • the clustering unit 50 performs cluster analysis on the high-frequency words based on the co-occurrence degree data calculated in the high-frequency word-index word co-occurrence degree calculation step S40.
  • step S50 the degree of similarity (similarity or dissimilarity) of co-occurrence with each index word is calculated.
  • the lower left half of the table is omitted because it overlaps with the upper right half.
  • high frequency word w to high frequency word w have a correlation coefficient exceeding 0.8 in any combination thereof.
  • the high frequency word w to the high frequency word w exceed the correlation coefficient power in any combination thereof.
  • the correlation coefficients are all less than 0.8.
  • step S 51 a saddle diagram in which high-frequency words are connected in a saddle shape is created.
  • a dendrogram that reflects the dissimilarity between high-frequency words in the height of the joint position (joint distance).
  • the principle of creating a dendrogram is briefly explained. First, based on the dissimilarity between high-frequency words, the high-frequency words with the lowest dissimilarity (maximum similarity) are joined together to form a combination. Generate. Furthermore, a new combination is formed by combining the conjugate and other high-frequency words, or the conjugate and the conjugate in order of their dissimilarity. Repeat the work to generate. Thus, it can be expressed as a hierarchical structure. The dissimilarity between the combination and other high-frequency words, or the dissimilarity between the combination and the combination is updated based on the dissimilarity between each high-frequency word. For example, a known Ward method is used as the update method.
  • the clustering unit 50 cuts the created cage diagram (step S52). For example, cut at the position of ⁇ d> + ⁇ ⁇ where the bond distance in the dendrogram is d
  • the high-frequency words belonging to h have different bases with high similarity in co-occurrence with the index word g
  • the high-frequency word belonging to h has a low degree of co-occurrence with the index word.
  • the index word-base co-occurrence degree calculation unit 60 for each index word extracted in the index word extraction step S20, the co-occurrence degree with each base formed in the clustering step S53 (index word-base co-occurrence) (Occurrence) Co (w, g) is calculated (step S60).
  • the index word base co-occurrence degree Co (w, g) is calculated, for example, by the following equation.
  • CO (W, g) L ⁇ w. Eg, w ' ⁇ w] C (w, w) where w' is the high frequency words belonging to a base g, and the co-occurrence degree Co (w, g ) Other than the index word W that is the measurement target.
  • the co-occurrence degree Co (w, g) between the index word w and the base g is the sum of the co-occurrence degrees C (w, w,) with w for all w and all.
  • the index word base co-occurrence is not limited to the above Co (w, g), and may be calculated by the following equation.
  • DF (w ', D)) is one of the high-frequency words belonging to the base g, and the document D contains at least one word w' other than the index word w whose co-occurrence is measured. If it is not included at all, 0 is returned.
  • DF (w, D) returns 1 if at least one co-occurrence index word w force document D is included, and 0 if it is not included at all.
  • Multiplying DF (w, D) by ⁇ (X) returns 1 if w and any w 'belonging to base g co-occur in document D, and 0 otherwise. Will return.
  • Co '(w, g) is obtained by multiplying this by the weight j8 (w, D) defined above and totaling all documents D belonging to the document group E.
  • the index word of the above [Equation 3], the co-occurrence degree Co (w, g), is the weight j8 for all E's in the presence or absence (1 or 0) of w and w 'in D. Summed with (w, D) X j8 (w ′, D) (C (w, w ′)), and summed this for w ′ in g.
  • the index word-base co-occurrence degree Co '(w, g) in [Equation 4] indicates the presence or absence of co-occurrence (1 or 0) in D of w and any of w in g. All E were added together with weights (w, D).
  • index word base co-occurrence degree Co (w, g) in [Equation 3] increases or decreases depending on the number of w's in the base g co-occurring with the index word w.
  • the index word-base co-occurrence degree Co (w, g) increases or decreases depending on the presence or absence of w 'in the base g that co-occurs with the index word w, and the number of co-occurrence w's is irrelevant.
  • the evaluation score of each index word is key ( w) is calculated (step S70).
  • the key (w) is calculated by the following equation, for example.
  • Co (w, g) in [Equation 3] above is used as the index word-base co-occurrence, but Co '(w, g) in [Equation 4] above may also be used. This is as described above.
  • the order of key (w) is greatly influenced by the order of document frequency DF (E) in document group E.
  • DF (E) has the most index word w, key (w) is first, and DF (
  • next index word w is second in key (w), and the index words w, w, w, etc.
  • An index word with a large document frequency DF (E) in document group E can co-occur with high-frequency words in more documents. Therefore, a larger index word base co-occurrence degree Co (w, g) or Co ′ (w, g) is obtained. This is the reason why the ranking of DF (E) has a great influence on the ranking of key (w).
  • the rank of key (w) is the global frequency GF (E) in document group E. The impact of the ranking is expected to increase.
  • the direction key (w) that the degree word straddles more foundations is large.
  • the key (w) is larger than the index word w or w. [0080] In addition, as shown in [Table 2] and [Table 6], the index words w to w are compared.
  • GF (E) of each index word and IDF (P) of each index word calculate Skey (w) score (step S80 ).
  • the Skey (w) score is calculated by the following equation.
  • GF (w, E) gives a large value to words that frequently appear in document group E
  • IDF (P) is a word unique to document group E, which is rare in all documents P.
  • the key (w) is a score that is affected by DF (E) as described above and gives a large value to words that co-occur with more foundations. The larger the values of GF (w, E), IDF (P), and key (w)! /, The larger Skey (w) becomes.
  • TF * IDF which is often used as a weight for index words, is the product of the index word frequency TF and the IDF that is the logarithm of the reciprocal of the index word occurrence probability DF (P) ZN (P). It is. IDF has the effect of minimizing the contribution of index terms that appear with high probability in a document group, and can give high weight to index terms that appear only in a specific document. However, it sometimes has the disadvantage that the value jumps just because the document frequency is low. As will be explained below, the Skey (w) score has the effect of improving these shortcomings.
  • Skey (w) score when the key “(w) in [Equation 7] is used is written as Skey (key”), and the Skey (w) score when the key (w) in [Equation 5] is used. Skey (key) and comparing the two,
  • the keyword extraction unit 90 extracts a predetermined number of index words higher in the Skey (w) score of each index word calculated in the Skey (w) calculation step S80 as keywords of the analysis target document group ( Step S90).
  • index words that co-occur with high-frequency words in a document are highly evaluated and keywords are extracted. Since high-frequency words belonging to different foundations are not similar in co-occurrence with each index word, index words that co-occur with many foundations may cause variations in topics and claims of document group E. It can be said that it is a bridging word. In addition, it can be said that index words that co-occur with high-frequency words in many documents are words that express topics and claims that are common to the document group whose document frequency DF (E) in document group E is high. By highly evaluating such index terms, it is possible to automatically extract keywords that accurately represent the characteristics of multiple document groups D.
  • FIG. 4 is a diagram for explaining in detail the configuration and function of the keyword extracting apparatus according to the second embodiment of the present invention. Parts similar to those in FIG. 2 according to the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
  • the keyword extracting device of the second embodiment includes a title extracting unit 100, a title score calculating unit 110, a Skey (w) broader word reading unit 120, a label number determining unit 130, in addition to the components of the first embodiment.
  • a label extraction unit 140 is provided in the processing apparatus 1.
  • the calculation result of the Skey (w) calculation unit 80 may be stored as it is in the work result storage unit 320 without including the keyword extraction unit 90 among the constituent elements of the first embodiment.
  • the title extraction unit 100 extracts the title (title) of each document from the document data read by the document reading unit 10 and stored in the work result storage unit 320. For example, in the case of a patent document, the description of “Title of Invention” is extracted.
  • the extracted title data is sent directly to the title score calculation unit 110 and used for processing there, or the data of the recording device 3 is created. It is sent to the business result storage unit 320 and stored.
  • the title score calculation unit 110 uses the title data of each document extracted by the title extraction unit 100 and the index word data of the document group E extracted by the index word extraction unit 20 to The title score ⁇ is calculated for the title of. This title score ⁇ is
  • the k calculation method will be described later.
  • the calculated title score ⁇ is extracted from the label
  • the Skey (w) broader word reading unit 120 calculates the Skey (w) based on the Skey (w) of each index word w calculated by the Skey (w) calculation unit 80 and stored in the work result storage unit 320. Top of the score A predetermined number of index terms are extracted. For example, 10 samples are extracted. The extracted Skey (w) broader term data is directly sent to the label number determination unit 130 and used for processing there, or sent to the work result storage unit 320 of the recording device 3 and stored therein.
  • the label number determination unit 130 is an index indicating the content uniformity of the document group E based on the data of the Skey (w) broader term extracted by the Skey (w) broader term reading unit 120.
  • the keyword fitness ⁇ is calculated. Then, the number of labels to be extracted is determined based on the keyword matching degree ⁇ . A method for calculating the keyword fitness ⁇ and determination of the number of labels based on this will be described later.
  • the data of the determined number of labels is sent directly to the label extraction unit 140 and used for processing there, or sent to the work result storage unit 320 of the recording device 3 and stored therein.
  • the label extraction unit 140 extracts the number of titles determined by the label number determination unit 130 based on the title score ⁇ of each title calculated by the title score calculation unit 110, and k
  • this label corresponds to the keyword of the present invention.
  • FIG. 5 shows an operation procedure of the processing device 1 in the keyword extracting device of the second embodiment. It is a flowchart.
  • the keyword extraction device according to the second embodiment calculates Skey (w) through the same processing as in the first embodiment (up to step S80). The processing until Skey (w) is calculated is the same as in FIG.
  • Step S100 Since one title is extracted for one document D force, the number of documents N (E k ) (E k ).
  • the title extraction unit 100 determines the title character k in the document group E from the title a of each document.
  • strll means string sum.
  • strll means string sum.
  • a title term obtained by sharing the title sum s is defined as an index word dictionary.
  • index word dictionary an index word dictionary obtained by sharing the document content of the document group E may be used as the index word dictionary instead of the index word obtained from the title sum s.
  • index word dictionary only a predetermined number of index words (for example, 30 words) in the keyword score Skey (w) may be used as an index word dictionary.
  • the title score calculation unit 110 calculates the title score ⁇ for the title of each document (step SI 10).
  • the title score ⁇ is calculated using the title described below. Use current rate x and title term appearance rate average y.
  • f k (1 / N (E)) ⁇ TF (w v , s) x IDF (w v , P) x ⁇ (TF (w v , a k )) where the index word in the title sum s
  • the number of occurrences of w v is given by TF (w, s).
  • the title score ⁇ is an increase function of the title appearance rate X and the title term appearance rate average y.
  • the title score ⁇ may be obtained by the following equation.
  • each title is set as ⁇ , ⁇ , '"from the top of ⁇ .
  • the Skey (w) broader word reading unit 120 extracts a predetermined number (t) of index words of the Skey (w) score (step S120).
  • the label number determination unit 130 calculates the key adaptability ⁇ indicating the content uniformity of the document group E, and determines the number of labels to be extracted (step S130).
  • represents the degree of occupation in the document group E of words evaluated as keywords by Skey (w). If document group E consists of a single field, keywords are highly related and will not be diversified, so the degree of occupation is high. On the other hand, if the document group E is composed of multiple fields, the number of documents per field is small, the keywords are various, and the degree of occupation is low. Therefore, if the value of ⁇ is high, the uniformity of the contents of document group E is high. If the value of ⁇ is low, it can be determined that document group E is composed of multiple fields.
  • the number of labels and the output mode, which are the keywords extracted in the second embodiment, are determined in accordance with the obtained keyword adaptability value ⁇ . For example,
  • the threshold value of ⁇ is not limited to the set of [0.55, 0.35, 0.2], and other values may be selected.
  • the ⁇ threshold is used instead of the above ⁇ threshold set.
  • the set [0.3, 0.2, 0.02] is preferably used.
  • the title score ⁇ of each title calculated in the title score calculation step S110 and the label number determination step S130 determine k
  • the labels are extracted (step S140).
  • the number of extracted keywords (labels) is determined based on the appearance frequency of each high-frequency word higher in the Skey (w) score. To do.
  • an appropriate number of keywords representing the characteristics of the document group can be automatically extracted according to the degree of content uniformity of the document group E. wear.
  • the keywords are extracted by evaluating words with a high appearance rate, so a key word that accurately represents the contents of the document group must be extracted. Can do.
  • the cluster analysis is based on the TF of the index word included in each of the above 850 documents.
  • the mean value, ⁇ is the standard deviation of d.
  • the top three words of Skey (w) were used as keywords according to the first embodiment.
  • the keyword matching degree ⁇ is calculated, and based on this, the label according to the second embodiment is generated.
  • the index word dictionary for extracting labels according to the second embodiment uses title terms obtained by sharing the title sum s as described above. However, if an index word obtained by dividing the document content of document group E is used, a label is generated, and if a result different from that obtained using the title sum s is obtained, a ⁇ * Attached together.
  • the publication order of the documents was set in descending order of the keyword relevance ⁇ , and we tried to understand the difference in the expression of the labels at a glance.
  • Oral Composition Label ⁇ Oral Composition ⁇ Dispersant etc. ”* Oral Composition ⁇ Deodorant Composition Keyword [Acid. Salt. Oral]
  • Keywords [document.loading.mutan] As described above, the labels of each document group according to the second embodiment are assigned to each document group by humans. There was a tendency to match the title.
  • each document group according to the first embodiment is not limited to general names for the subject of the invention, but more specifically terms indicating technical contents were selected.
  • FIG. 6 is a reference diagram showing an example in which the keywords extracted by the keyword extracting device of the present invention are entered in a document correlation diagram showing the relationship between documents.
  • This document correlation diagram shows the content and temporal relationships among the 27 document groups shown in the above example.
  • a dendrogram is constructed based on the similarity between the 26 vectors created in this way. At the position of ⁇ d> + ⁇ , where d is the coupling distance in the dendrogram.
  • Clusters were extracted by cutting the program. Where ⁇ d> is the average value of d and ⁇ is the standard deviation of d
  • the document correlation diagram created in this way is categorized based on the contents of the document and arranged in chronological order, and it shows the development trend of the household chemicals manufacturers surveyed. Useful for analysis.
  • the labels which may be the keywords of the first embodiment
  • the method of the second embodiment of the present invention are entered in the document correlation diagram for each set of documents. Therefore, development trends can be grasped at a glance.
  • the keyword is extracted from the document group E.
  • the plurality of document groups E are preferably individual clusters obtained by clustering the document group group S, but conversely, a plurality of document groups E may be collected to form the document group group S.
  • FIG. 7 is a diagram for explaining in detail the configuration and function of the keyword extracting device according to the third embodiment of the present invention. Parts similar to those in FIG. 2 according to the first embodiment are denoted by the same reference numerals, and description thereof is omitted.
  • the keyword extraction device of the third embodiment includes an evaluation value calculation unit 200, a concentration degree calculation unit 210, a share calculation unit 220, a first reciprocal number calculation unit 230, and a second reciprocal number calculation unit 240.
  • the originality calculation unit 250 and the keyword extraction unit 260 are provided in the processing device 1. Yes.
  • the keyword extraction unit 90 among the components of the first embodiment may not be provided, and the calculation result of the Skey (w) calculation unit 80 is stored in the work result storage unit 320 as it is.
  • the evaluation value calculation unit 200 reads the index word w of each document extracted by the index word extraction unit 20 from the work result storage unit 320 for the document group group S including a plurality of document groups E. Alternatively, the evaluation value calculation unit 200 reads the Skey (w) of the index word calculated for each document group E by the Skey (w) calculation unit 80 from the work result storage unit 320. If necessary, the evaluation value calculation unit 200 may read the data of each document group E read by the document reading unit 10 from the work result storage unit 320 and count the number of documents N (E). Further, GF (E) and IDF (P) calculated in the process of high-frequency word extraction in the high-frequency word extraction unit 30 may be read from the work result storage unit 320.
  • the evaluation value calculation unit 200 calculates an evaluation value A (w, E) based on the appearance frequency of each index word w in each document group E based on the read information.
  • the calculated evaluation value is sent to and stored in the work result storage unit 320, or directly sent to the concentration degree calculation unit 210 and the share calculation unit 220 and used for processing there.
  • the degree-of-concentration calculation unit 210 reads the evaluation value A (w, E) in each document group E of each index word w calculated by the evaluation value calculation unit 200 from the work result storage unit 320 or evaluates the evaluation value Received directly from the calculation unit 200.
  • the concentration degree calculation unit 210 calculates the concentration degree of the distribution of each index word w in the document group group S for each index word w based on the obtained evaluation value A (w, E). This degree of concentration is calculated by calculating the sum of the evaluation value A (w, E) in each document group E for all index groups w in all document groups E belonging to the document group group S, and for each document for that sum. The ratio of the evaluation value A (w, E) in group E is calculated for each document group E, the square of the ratio is calculated, and the sum of the squares of the ratio in all document groups E belonging to the document group group S is calculated. This is obtained by calculating. The calculated degree of concentration is sent to the work result storage unit 320 and stored therein.
  • the share calculation unit 220 reads the evaluation value A (w, E) in each document group E of each index word w calculated by the evaluation value calculation unit 200 from the work result storage unit 320 or calculates the evaluation value Receive directly from part 200.
  • the share calculation unit 220 calculates a share in each document group E for each index word ⁇ based on the obtained evaluation value A (w ⁇ E u ).
  • This share is the sum of the evaluation values A (w, E) of each index word w in the document group E to be analyzed for all index words w extracted for each document group E force belonging to the document group group S.
  • the ratio of the evaluation value A (w, E) of each index word w to the sum is calculated for each index word w.
  • the calculated degree of concentration is sent to and stored in the work result storage unit 320.
  • First reciprocal calculation unit 230 reads index word w of each document extracted by index word extraction unit 20 from work result storage unit 320 for document group group S including a plurality of document groups E. Then, the first reciprocal calculation unit 230, based on the data of the index word w of each document of the document group group S that has been read, the function value of the reciprocal of the appearance frequency in the document group group S for each index word w (for example, described later Standardized IDF (S)). The calculated function value of the reciprocal of the appearance frequency in the document group group S is sent to and stored in the work result storage unit 320, or directly sent to the originality calculation unit 250 and used for processing there.
  • S Standardized IDF
  • the second reciprocal calculator 240 calculates a function value of the reciprocal of the appearance frequency in the large document group including the document group group S. All documents P are used as a large document group.
  • the IDF (P) calculated in the process of high-frequency word extraction in the high-frequency word extraction unit 30 is also read out from the work result storage unit 320, and its function value (for example, standard ID IDF (P) described later) is read. calculate.
  • the calculated function value of the reciprocal of the appearance frequency in the large document group P is sent to and stored in the work result storage unit 320, or directly sent to the originality calculation unit 250 and used for processing there.
  • the originality calculation unit 250 reads the function value of the reciprocal of each appearance frequency calculated by the first reciprocal calculation unit 230 and the second reciprocal calculation unit 240 from the work result storage unit 320 or calculates the first reciprocal. Directly received from the unit 230 and the second reciprocal calculation unit 240. Also, the GF (E) calculated in the process of high-frequency word extraction in the high-frequency word extraction unit 30 is obtained from the work result storage unit 320.
  • the originality calculation unit 250 calculates a function value obtained by subtracting the calculation result of the first reciprocal calculation unit 230 from the calculation result of the second reciprocal calculation unit 240 as the originality. This function value reduces the calculation result power of the first reciprocal calculation unit 230 and the calculation result of the second reciprocal calculation unit 240.
  • the calculated result may be divided by the sum of the calculation result of the first reciprocal calculation unit 230 and the calculation result of the second reciprocal calculation unit 240, and GF (E u ) in each document group E u It is also possible to multiply by.
  • the calculated originality is sent to and stored in the work result storage unit 320.
  • the keyword extraction unit 260 includes the Skey (w) calculated by the Skey (w) calculation unit 80, the concentration calculated by the concentration calculation unit 210, the share and originality calculated by the share calculation unit 220. Each data of originality calculated in the calculation unit 250 is read from the work result storage unit 320.
  • the keyword extraction unit 260 extracts a keyword based on two or more indexes selected from the four parameters of the read Skey (w), the degree of concentration, the share, and the originality.
  • the keyword extraction method may be based on, for example, whether the total value of a plurality of selected indicators is equal to or greater than a predetermined threshold or whether the power is within a predetermined rank, or based on a combination of the plurality of selected indicators. You can also categorize and extract keywords! /.
  • the extracted keyword data is sent to and stored in the work result storage unit 320 of the recording device 3 and output by the output device 4 as necessary.
  • FIG. 8 is a flowchart showing an operation procedure of the processing device 1 in the keyword extracting device of the third embodiment.
  • the plurality of document groups E are, for example, individual clusters obtained by clustering a certain document group group S.
  • step S10 to step S80 the processing from step S10 to step S80 is executed for each document group E belonging to the document group group S by the same processing as in the first embodiment, and each index in each document group E is executed. Calculate the Skey (w) of the word. The processing until Skey (w) is calculated is the same as in FIG.
  • the evaluation value calculation unit 200 0 evaluates the evaluation value A (w, based on the function value of the appearance frequency of the index word w in each document group E. E) is calculated for each document group E and each index word w (step S200).
  • the evaluation value A (w, E) for example, the force using the above Skey (w) as it is, Skey (w) / N (E), or GF (E) * IDF (P) is used.
  • the concentration calculation unit 210 calculates the concentration for each index word ⁇ as follows (step S210).
  • the evaluation value A (w, E) in each document group E is calculated as a sum n A (w, E) for all document groups E belonging to the document group group S. Ratio of evaluation value A (w, E) in each document group E to the sum
  • the Share calculating unit 220 calculates the share of each document group E u as follows for each index word ⁇ (step S 220).
  • the first reciprocal calculation unit 230 calculates a function value of the reciprocal of the appearance frequency in the document group group S for each index word Wi (step S 230).
  • the document frequency DF (S) As the appearance frequency in the document group group S, for example, the document frequency DF (S) is used.
  • the function value of the reciprocal of the appearance frequency the total index extracted from the document group E to be analyzed is the inverse document frequency IDF (S) in the document group group S, or IDF (S) as a particularly preferable example.
  • IDF (S) is the logarithm of “reciprocal number of DF (S) X number of documents N of document group N (S)”.
  • a deviation value is used as an example of the standard. The reason for standardization is to make it easy to calculate the originality by combining with the IDF (P) described later by aligning the distribution.
  • a function value of the reciprocal of the appearance frequency in the large document group P including the document group group S is calculated (step S 240).
  • the function value of the reciprocal of the appearance frequency is IDF (P) or particularly preferred.
  • IDF (P) Is normalized with all index words extracted from the document group E u to be analyzed (standardized IDF (P)).
  • standardized IDF (P) For example, a deviation value is used as an example of the standard.
  • the reason for normalization is to make it easy to calculate the originality by combining with the above IDF (S) by aligning the distribution.
  • the originality calculation unit 250 calculates, for each index word w, the function value of ⁇ function value of IDF (S) —function value of I DF (P) ⁇ as the originality (step S250).
  • the originality is calculated as one value for each index word w.
  • standardized IDF (S) or standardized IDF (P) standardized in document group E is used, or when weighted separately with GF (E), etc., the originality of each document group E and each It is calculated for each index word w.
  • the originality is particularly preferably given by the following DEV.
  • the standard ⁇ GF (E), which is the first factor of DEV, is the global frequency GF (E) of each index word w in the document group E to be analyzed. It is a standardized index word.
  • the second factor of DEV is that the IDF standard value in document group S is a large document. It is positive if it is larger than the standard value of I DF in group P, and negative if it is smaller.
  • a large IDF in the document group S means that it is a rare word in this document group S.
  • words with a small IDF in the large document group P including the document group group S are used in the field related to the document group group S even if they are frequently used in other fields. In particular, it can be said that it has originality.
  • the second factor of DEV is in the range of 1 to +1, which makes it easy to compare different document groups E become.
  • DEV is proportional to the standard (GF (E)
  • GF (E) the more frequently used words in the target document group are also higher numerical values.
  • each of these document groups E is set as an analysis target document group, and a ranking of originality is created.
  • the common index word in the document group group S falls to the lower level, and the characteristic words for each document group E come to the upper level in each document group E. Therefore, grasp the characteristics of each document group E. It is useful.
  • the keyword extraction unit 260 extracts keywords based on two or more indicators selected from the four indicators Skey (w), concentration, share, and originality obtained in the above steps (step S 260).
  • the index word w of the target document group E is defined as “non-important word” and “ Important words are extracted by classifying them into one of “technical domain words”, “main words”, “original words”, and “other important words”.
  • the classification method is as follows.
  • Skey (w) is used for the first determination.
  • a Skey (w) descending ranking is created, and keywords lower than the predetermined rank are set as “non-important words” and excluded from keyword extraction targets. Since the keywords within the predetermined order are important words in each document group E, they are classified as “important words” and further classified by the following judgment.
  • the second determination uses concentration. Words with a low degree of concentration are words that are distributed throughout the document group, and can therefore be regarded as a broader view of the technical domain to which the document group to be analyzed belongs. Therefore, an ascending ranking of the degree of concentration in the document group group S is created, and those within a predetermined rank are defined as “technical domain words”. From the key words of each document group E, keywords that match the above technical domain words are classified as “technical domain words” of the document group E.
  • the third judgment uses shares. A word with a high share has a higher share in the group of documents to be analyzed than other words, so it can be positioned as something that can explain the group of documents to be analyzed well (main word).
  • each document group E a sheer descending ranking is created for important words that are not classified in the second judgment, and those within a predetermined rank are designated as “major words”.
  • the fourth determination uses the originality.
  • it was not classified by the third judgment Create a descending order of originality for important words, and place words within a specified rank as “original words”.
  • the remaining important words are “other important words”.
  • Skey (w) is used as the importance index used for the first determination.
  • the present invention is not limited to this, and another index indicating the importance in the document group may be used.
  • GF (E) * IDF (P) may be used.
  • classification was made using four indicators of importance, concentration, share, and originality. By using any two or more of these indicators, the classification of index terms is also possible. Is possible.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

キーワード抽出装置は、複数の文書Dからなる文書群Eに含まれる索引語wのうち前記文書群Eにおける出現頻度の高さを評価に含む重みの大きい索引語である高頻度語を抽出する高頻度語抽出手段30と、前記高頻度語を、前記文書群Eにおける前記索引語wの各々との文書単位での共起有無に基づく共起度Cに基づいてクラスタリングするクラスタリング手段50と、前記索引語wのうち、より多くのクラスタgに属する高頻度語と共起し、且つより多くの文書Dにおいて前記高頻度語と共起するものを、より高く評価したスコアkey(w)を個々の索引語wにつき算出するスコア算出手段70と、前記スコアに基づいてキーワードを抽出するキーワード抽出手段90と、を備える。これにより、複数の文書からなる文書群の特徴を表すキーワードを自動抽出する。

Description

明 細 書
キーワード抽出装置
技術分野
[0001] 本発明は、複数の文書からなる文書群から、当該文書群の主題を表現するキーヮ ードを、コンピュータにより自動抽出する技術に係り、特にキーワードの抽出装置、抽 出方法及び抽出プログラムに関する。
背景技術
[0002] 特許文書をはじめ技術的文書やその他の文書は日々新しく生み出され、膨大な数 になっている。これらの文書の検索や分析を行うために、文書の特徴を表すキーヮー ドを自動抽出する技術が知られて 、る。
[0003] 例えば、大澤幸生ら著「KeyGraph:語の共起グラフの分割'統合によるキーワード抽 出」電子情報通信学会論文誌 Vol.J82-D-I, No.2, 391-400頁(1999年 2月)(非特許 文献 1)には、文書の主張を表すキーワードを抽出する方法が開示されている。この 方法では先ず、当該文書での出現回数の上位語 (HighFreq)を抽出する。そして、 Hi ghFreq同士のセンテンス単位での共起有無に基づいて、当該文書における共起度 を算出し、共起度の高い HighFreq同士の組合せを「土台」とする。共起度が高くない HighFreq同士は別々の土台に属することになる。更に、各土台中の語とのセンテンス 単位での共起有無に基づいて、土台中の語との共起度を算出し、この土台中の語と の共起度に基づいて、これら土台たちに支えられて文章を統合する語 (屋根)を抽出 する。
[0004] 非特許文献 1:大澤幸生ら著「KeyGraph:語の共起グラフの分割 ·統合によるキーヮ ード抽出」電子情報通信学会論文誌 Vol.J82-D-I, No.2, 391-400頁(1999年 2月) 発明の開示
発明が解決しょうとする課題
[0005] しかし、上記非特許文献 1に記載の技術は、複数の文書からなる文書群の特徴を 表すキーワードを抽出するものではない。特に、上記非特許文献 1に記載の技術は、 1つの文書は著者独自の考えを主張するために書かれ、その主張を目指して一つの 流れを形成するという前提に立っているので、複数の独立文書からなる文書群に適 用することは不可能である。
[0006] 本発明の課題は、複数の文書からなる文書群の特徴を表すキーワードを自動抽出 することができるキーワード抽出装置、抽出方法及び抽出プログラムを提供すること である。
また、本発明の別の課題は、複数の文書力もなる文書群の特徴を表すキーワード を複数の観点力 自動抽出し、文書群の特性を立体的に理解できるようにすることで ある。
課題を解決するための手段
[0007] (1)本発明のキーワード抽出装置は、複数の文書からなる文書群からキーワードを 抽出する装置であって、以下の各手段を備えている。すなわち、
前記文書群のデータから索引語を抽出する索引語抽出手段と、
前記索引語の各々にっき前記文書群における出現頻度の高さを評価に含む重み を算出し、当該重みの大きい索引語である高頻度語を抽出する高頻度語抽出手段と 前記高頻度語の各々と前記索引語の各々との文書単位での共起有無に基づいて 、前記高頻度語の各々と前記索引語の各々との前記文書群における共起度を算出 する高頻度語一索引語共起度算出手段と、
前記算出された共起度に基づいて前記高頻度語を分類しクラスタを生成するクラス タリング手段と、
前記索引語のうち、より多くの前記クラスタに属する高頻度語と共起し、且つより多く の文書において前記高頻度語と共起するものを、より高く評価したスコアを個々の索 引語につき算出するスコア算出手段と、
前記算出されたスコアに基づいてキーワードを抽出するキーワード抽出手段と、を 備えている。
これにより、複数の文書力 なる文書群の特徴を表すキーワードを自動抽出するこ とができる。特に、高頻度語を、前記文書群における前記索引語の各々との文書単 位での共起有無に基づく共起度に基づいて分類して、クラスタを生成し、より多くのク ラスタに属する高頻度語と共起し、且つより多くの文書において共起する索引語を高 く評価してキーワードを抽出することにより、文書群の特徴を的確に表したキーワード を抽出することができる。
[0008] ここでいう高頻度語の抽出は、前記文書群のデータ力 抽出された索引語の各々 にっき前記文書群における出現頻度の高さを評価に含む重みを算出し、当該重み の大きい索引語を所定数抽出することにより行う。このような重みとしては、前記文書 群における出現頻度の高さそのものを示す GF (E) (後述)でもよいし、 GF (E)を変数 として含む関数値でもよい。
また、高頻度語と前記索引語の各々との共起度に基づいて前記高頻度語を分類 するには、例えば、各高頻度語について、 p個の索引語の各々との共起度を成分と する P次元ベクトルを作成する。そして、クラスタリング手段により、各高頻度語につい ての上記 p次元ベクトルの類似度合!ヽ (類似度又は非類似度)に基づくクラスタ分析 を行う。
また、より多くの前記クラスタに属する高頻度語と共起する索引語を高く評価する方 法としては、例えば、すべてのクラスタ (後述の土台)についての、各索引語とクラスタ 内高頻度語との共起度 (索引語—土台共起度 (後述) )の積を含む多項式で導出さ れる値を、各索引語のスコアとすることが考えられる。また、より多くの文書において 前記高頻度語と共起する索引語を高く評価する方法としては、例えば、文書群に属 するすべての文書についての、各索引語と高頻度語との文書単位での共起有無(1 若しくは 0又はこれに所定の重みをつけたもの)の和(索引語—土台共起度 Co (w, g ) (後述)を算出するための共起度 C (w, w' ) (後述)、或いは、索引語-土台共起度 Co' (w, g) (後述))を変数として含む関数値を、各索引語のスコアとすることが考えら れる。このようにして、より多くの前記クラスタに属する高頻度語と共起し、且つより多く の文書において前記高頻度語と共起するものをより高く評価したスコアとしては、後 述の key(w)、 Skey(w)が考えられる。
[0009] (2)上記各キーワード抽出装置において、前記スコア算出手段が個々の索引語に つき算出するスコアは、前記文書群以外の文書を含む文書集団における出現頻度 がより低 、索引語を、より高く評価したスコアであることが望ま 、。 これにより、分析対象の文書群に特有の索引語を高く評価してキーワードを抽出す ることがでさる。
ここでいう文書集団における出現頻度としては、例えば後述の DF (P)が挙げられる 。具体的には、例えば DF (P)の逆数、或いは DF (P)の逆数 X文書集団の文書数、 或いはこれらのうち何れかの対数を、上述のより多くの前記クラスタに属する高頻度 語と共起し、且つより多くの文書において共起するものを高く評価したスコアに対して 加え、或いは乗じることが考えられる。 DF (P)の低い索引語を高く評価したスコアとし ては、後述の Skey(w)が挙げられる。
[0010] (3)上記キーワード抽出装置において、前記スコア算出手段が個々の索引語につ き算出するスコアは、前記文書群における出現頻度がより高い索引語を、より高く評 価したスコアであることが望まし!/、。
これにより、文書群の内容をより的確に表したキーワードを抽出することができる。 ここでいう文書群における出現頻度としては、例えば後述の GF (E)が挙げられる。 具体的には、上述のより多くの前記クラスタに属する高頻度語と共起し、且つより多く の文書において共起するものを高く評価したスコアに対し、 GF (E)を乗じ、或いはカロ えることが考えられる。 GF (E)の高い索引語を高く評価したスコアとしては、後述の S key(w)が挙げられる。
[0011] (4)上記各キーワード抽出装置において、前記キーワード抽出手段は、前記スコア 算出手段において高く評価された索引語の前記文書群における出現頻度に基づい て、キーワード抽出数を決定しても良い。
これにより、文書群の内容統一性の程度に応じて、文書群の特徴を表す適切な個 数のキーワードを抽出することができる。
ここでいう文書群における出現頻度としては、例えば後述の DF (E)が挙げられる。
[0012] (5)上記キーワード抽出装置において、前記キーワード抽出手段は、前記文書群 に属する各文書のタイトルにおける語の出現率に基づいて、前記決定された抽出数 のキーワードを抽出することが望まし 、。 これにより、文書群の内容を的確に表したキーワードを抽出することができる。
[0013] (6)上記キーワード抽出装置において、 分析対象である前記文書群と他の文書群とを備えた文書群集団について、各索引 語についての各文書群における評価値をそれぞれ算出する評価値算出手段と、 各索引語について、各文書群における評価値の、前記文書群集団に属する全て の文書群での和を算出し、当該和に対する各文書群における評価値の比を各文書 群について算出し、当該比の二乗をそれぞれ算出し、当該比の二乗の前記文書群 集団に属する全ての文書群における和を算出することによって得られる、前記文書 群集団における各索引語の分布の集中度を算出する集中度算出手段と、を更に備 え、
前記キーワード抽出手段は、前記スコア算出手段により前記分析対象の文書群に つき算出されたスコアの他に、前記集中度算出手段によって算出された集中度を評 価に加えてキーワードを抽出することが望ま 、。
スコア算出手段によるスコアが高ぐ且つ集中度算出手段による集中度が低い語は 、文書群集団全体に分散している語であるから、分析対象の文書群が属している技 術領域を広く捉えたものとして位置づけることができる。
この場合の個々の文書群は、例えば文書群集団をクラスタリングして得たものとする ことができる。
(7)上記キーワード抽出装置において、
分析対象である前記文書群と他の文書群とを備えた文書群集団について、各索引 語についての各文書群における評価値をそれぞれ算出する評価値算出手段と、 前記分析対象の文書群における各索引語の評価値の、前記文書群集団に属する 各文書群力 抽出された全ての索引語についての和を算出し、当該和に対する各 索引語の評価値の比を各索引語について算出することによって得られる、前記分析 対象の文書群における各索引語のシェアを算出するシェア算出手段と、を更に備え 前記キーワード抽出手段は、前記スコア算出手段により前記分析対象の文書群に つき算出されたスコアの他に、前記シェア算出手段によって前記分析対象の文書群 にっき算出されたシェアを評価に加えてキーワードを抽出することが望ましい。
スコア算出手段によるスコアが高ぐ且つシェア算出手段によるシェアが高い語は、 分析対象の文書群でのシェアが他の語より高いので、分析対象の文書群をよく説明 できるもの(主要語)として位置づけることができる。
[0015] (8)上記キーワード抽出装置において、
各索引語について、分析対象である前記文書群と他の文書群とを備えた文書群集 団での出現頻度の逆数の関数値を算出する第 1逆数算出手段と、
各索引語について、前記文書群集団を含む大文書集団での出現頻度の逆数の関 数値を算出する第 2逆数算出手段と、
前記第 1逆数算出手段の算出結果から前記第 2逆数算出手段の算出結果を減算 したものの関数値によって、前記文書群集団における各索引語の独創度を算出する 独創度算出手段と、を更に備え、
前記キーワード抽出手段は、前記スコア算出手段により前記分析対象の文書群に つき算出されたスコアの他に、前記独創度算出手段によって算出された独創度を評 価に加えてキーワードを抽出することが望ま 、。
文書群集団での出現頻度の逆数の値が大きいことは、この文書群集団では珍しい 語であることを意味する。この、文書群集団では珍しい語のうち、文書群集団を含む 大文書集団での出現頻度の逆数の値力 、さい語は、他分野では良く使われていると しても当該文書群集団に係る分野で用いることに独創性があるということができる。 スコア算出手段によるスコアが高ぐ且つ独創度算出手段による独創度が高い語は 、当該分野では独創的な観点を表す語として位置づけることができる。
ここで、出現頻度の逆数の関数値としては、例えば、当該文書群内の全索引語で 規格ィ匕した IDF (逆文書頻度)を用いることができる。
[0016] (9)本発明の他のキーワード抽出装置は、
複数の文書力もなる文書群力もキーワードを抽出する装置であって、以下の各手 段を備えている。すなわち、
分析対象である前記文書群と他の文書群とを備えた文書群集団のデータから索引 語を抽出する索引語抽出手段と、
前記文書群集団について、各索引語についての各文書群における評価値をそれ ぞれ算出する評価値算出手段と、 各索引語について、各文書群における評価値の、前記文書群集団に属する全て の文書群での和を算出し、当該和に対する各文書群における評価値の比を各文書 群について算出し、当該比の二乗をそれぞれ算出し、当該比の二乗の前記文書群 集団に属する全ての文書群における和を算出することによって得られる、前記文書 群集団における各索引語の分布の集中度を算出する集中度算出手段と、
前記分析対象の文書群における各索引語の評価値の、前記文書群集団に属する 各文書群力 抽出された全ての索引語についての和を算出し、当該和に対する各 索引語の評価値の比を各索引語について算出することによって得られる、前記分析 対象の文書群における各索引語のシェアを算出するシェア算出手段と、
前記集中度算出手段により算出された集中度と、前記シェア算出手段により前記 分析対象の文書群につき算出されたシェアとの組合せに基づいてキーワードを抽出 するキーワード抽出手段と、を備えている。
これにより、複数の文書からなる文書群の特徴を表すキーワードを自動抽出し、文 書群の特性を立体的に理解できるようにすることができる。特に、集中度算出手段に より算出される二乗和が低い語は、複数の文書群全体に分散している語であるから、 分析対象の文書群が属している技術領域を広く捉えたものとして位置づけることがで きる。一方、シェア算出手段により算出される比が高い語は、分析対象の文書群での シェアが高 ヽ語であるから、分析対象の文書群をよく説明できるもの(主要語)として 位置づけることができる。これら算出手段による算出結果を組合せることによって、 2 つの観点力もキーワードをカテゴライズすることができ、文書群の特性を立体的に理 解でさるよう〖こなる。
(10)上記キーワード抽出装置において、
各索引語について、前記文書群集団での出現頻度の逆数の関数値を算出する第 1逆数算出手段と、
各索引語について、前記文書群集団を含む大文書集団での出現頻度の逆数の関 数値を算出する第 2逆数算出手段と、
前記第 1逆数算出手段の算出結果から前記第 2逆数算出手段の算出結果を減算 したものの関数値によって独創度を算出する独創度算出手段と、を更に備え、 前記キーワード抽出手段は、更に前記独創度算出手段によって算出された独創度 との組合せに基づ 、てキーワードを抽出することが望まし 、。
上記集中度及びシ アに加え、独創度算出手段により算出された独創度を組合せ ることによって、 3つの観点からキーワードをカテゴライズすることができ、文書群の特 性を立体的に理解できるようになる。
(11)また、本発明のキーワード抽出装置は、複数の文書からなる文書群からキー ワードを抽出する装置であって、以下の各手段を備えている。すなわち、
分析対象である前記文書群と他の文書群とを備えた文書群集団のデータから索引 語を抽出する索引語抽出手段と、
(a)各索引語について、前記分析対象の文書群における出現頻度の関数値を算 出する出現頻度算出手段、
(b)各索引語についての各文書群における評価値をそれぞれ算出し、各索引語に ついて、各文書群における評価値の、前記文書群集団に属する全ての文書群での 和を算出し、当該和に対する各文書群における評価値の比を各文書群について算 出し、当該比の二乗をそれぞれ算出し、当該比の二乗の前記文書群集団に属する 全ての文書群における和を算出することによって得られる、前記文書群集団における 各索引語の分布の集中度を算出する集中度算出手段、
(c)各索引語についての各文書群における評価値をそれぞれ算出し、前記分析対 象の文書群における各索引語の評価値の、前記文書群集団に属する各文書群から 抽出された全ての索引語についての和を算出し、当該和に対する各索引語の評価 値の比を各索引語について算出することによって得られる、前記分析対象の文書群 における各索引語のシ アを算出するシ ア算出手段、及び
(d)各索引語について、前記文書群集団での出現頻度の逆数の関数値力 前記 文書群集団を含む大文書集団での出現頻度の逆数の関数値を減算したものの関数 値によって独創度を算出する独創度算出手段、
のうち何れか 2つ以上の手段と、
前記何れか 2つ以上の手段により算出される、前記分析対象の文書群における出 現頻度の関数値、前記集中度、前記分析対象の文書群におけるシェア、及び前記 独創度、のうち何れか 2つ以上の組合せに基づいて、キーワードをカテゴライズして 抽出するキーワード抽出手段と、を備えている。
これにより、複数の文書からなる文書群の特徴を表すキーワードを自動抽出し、文 書群の特性を立体的に理解できるようにすることができる。特に、集中度算出手段に より算出される集中度、シ ア算出手段により算出されるシ ア、独創度算出手段に より算出される独創度、及び出現頻度算出手段により算出される出現頻度の関数値 のうち少なくとも 2つの組合せに基づいて、キーワードをカテゴライズして抽出するの で、文書群の特性を立体的に理解できるようになる。
[0019] (12)上記キーワード抽出装置において、
前記キーワード抽出手段は、
前記分析対象の文書群における出現頻度の関数値が所定の閾値以上である索引 語を前記分析対象の文書群における重要語と判定し、
前記分析対象の文書群における前記重要語のうち、前記集中度が所定の閾値以 下である索引語を前記分析対象の文書群における技術領域語と判定し、
前記分析対象の文書群における前記技術領域語以外の前記重要語のうち、前記 分析対象の文書群におけるシェアが所定の閾値以上である索引語を前記分析対象 の文書群における主要語と判定し、
前記分析対象の文書群における前記技術領域語及び前記主要語以外の前記重 要語のうち、前記独創度が所定の閾値以上である索引語を前記分析対象の文書群 における独創語と判定し、
前記キーワードをカテゴライズして抽出することが望ましい。
これにより、キーワードの具体的な位置付けが明瞭になり、文書群の特徴を容易に 理解することができるよう〖こなる。
[0020] (13)上記キーワード抽出装置において、
前記文書群集団での出現頻度の逆数の関数値は、前記文書群集団での逆文書 頻度 (IDF)を、分析対象である前記文書群の全索引語で規格ィ匕したものであり、 前記文書群集団を含む大文書集団での出現頻度の逆数の関数値は、前記大文書 集団での逆文書頻度 (IDF)を、前記分析対象である前記文書群の全索引語で規格 化したものであることが望まし 、。
これにより、文書群で出現する索引語の独創度を的確に評価することができるよう になる。
[0021] (14)また本発明は、上記各装置によって実行される方法と同じ工程を備えたキー ワード抽出方法、並びに上記各装置によって実行される処理と同じ処理をコンビユー タに実行させることのできるキーワード抽出プログラムである。このプログラムは、 FD、 CDROM、 DVDなどの記録媒体に記録されたものでもよぐネットワークで送受信さ れるものでもよ ヽ。
発明の効果
[0022] 本発明によれば、複数の文書力もなる文書群の特徴を表すキーワードを自動抽出 することができるキーワード抽出装置、抽出方法及び抽出プログラムを提供すること ができる。
図面の簡単な説明
[0023] [図 1]本発明の第 1実施形態に係るキーワード抽出装置のハードウェア構成を示す図
[図 2]第 1実施形態のキーワード抽出装置における構成と機能を詳細に説明する図。
[図 3]第 1実施形態のキーワード抽出装置における処理装置 1の動作手順を示すフロ ーテヤート。
圆 4]本発明の第 2実施形態に係るキーワード抽出装置の構成と機能を詳細に説明 する図。
[図 5]第 2実施形態のキーワード抽出装置における処理装置 1の動作手順を示すフロ ーテヤート。
[図 6]本発明のキーワード抽出装置により抽出されたキーワードを、文書相互の関係 を示した文書相関図に記入した例を示す参考図。
[図 7]本発明の第 3実施形態に係るキーワード抽出装置の構成と機能を詳細に説明 する図。
[図 8]第 3実施形態のキーワード抽出装置における処理装置 1の動作手順を示すフロ ーテヤート。 符号の説明
[0024] 1 :処理装置、 2 :入力装置、 3 :記録装置、4 :出力装置、
20 :索引語抽出部 (索引語抽出手段 )、30 :高頻度語抽出部 (高頻度語抽出手段) 、 40 :高頻度語一索引語共起度算出部 (高頻度語一索引語共起度算出手段 )、 50 : クラスタリング部(クラスタリング手段)、 70 :key(w)算出部 (スコア算出手段)、 80 : S key(w)算出部 (スコア算出手段)、 90 :キーワード抽出部 (キーワード抽出手段)、 1 40:ラベル抽出部(キーワード抽出手段)
発明を実施するための最良の形態
[0025] 以下、本発明の実施の形態を、図面を参照して詳細に説明する。
[0026] < 1.語彙の説明等 >
本明細書の中で使用する語彙を説明する。
類似度合い: 比較される対象間の類似度又は非類似度。比較される対象をそれ ぞれベクトル表現し、ベクトル間の余弦乃至 Tanimoto相関(類似度の一例)などべタト ル成分間の積の関数を用いて表現する方法、べ外ル間の距離 (非類似度の一例) などベクトル成分間の差の関数を用いて表現する方法がある。
索引語: 文書の全部或いは一部から切り出される単語。単語の切り出し方に特段 の制約はなぐ従来から知られている方法や、例えば日本語文書であれば市販の形 態素解析ソフトを活用して、助詞や接続詞を除き、意味ある品詞を抽出する方法でも よいし、又索引語の辞書 (シソーラス)のデータベースを事前に保持し該データべ一 スから得られる索引語を利用する方法でもよい。
高頻度語: 索引語のうち分析対象となる文書群での出現頻度の高さを評価に含 む重みが大きい、所定個数の語。例えば、索引語の重みとして GF (E) (後述)又は G F (E)を変数として含む関数値を算出し、その値の大きい語を所定数抽出することに より抽出する。
[0027] 以降の説明を簡素にするため、略号を決める。
E : 分析対象の文書群。文書群 Eとしては、例えば、多数の文書を類似度に基づ いてクラスタリングした場合の個々のクラスタを構成する文書群を用いる。文書群 Eを 複数備えた文書群集団 Sにおける各文書群を表示するときは E (u= l, 2, · · · , n。 nは文書群の数。 )と表示する。
S : 文書群 Eを複数備えた文書群集団。例えば、ある特許文書又は特許文書群 に類似する 300件の特許文書で構成される。
P : 文書群 Eを含み、且つ文書群集団 Sを含む文書集団 (大文書集団)である全 文書。全文書 Pとしては、特許文献についての分析であれば、例えば日本国内で過 去 10年間に発行されたすベての公開特許公報及び登録実用新案公報約 500万件 を用いる。
N(E)又は N(P) : 文書群 E又は文書集団 Pに含まれる文書の数。
D、 D又は D〜D : 文書群 Eに含まれる個々の文書。
k 1 N(E)
W : 文書群 Eに含まれる索引語の総数。
w、w、w: 文書群 Eに含まれる個々の索引語 (i=l, ···, WJ = 1, ',D。
∑ : 条件 Hを満たす範囲で和をとることを意味する。
(条件 H}
Π : 条件 Hを満たす範囲で積をとることを意味する。
(条件 H}
[0028] β (w, D): 文書 Dにおける索引語 wの重み
C(w, w): 索引語の文書単位での共起有無に基づいて算出される文書群での 共起度。索引語 wと索引語 wの 1つの文書 Dにおける共起有無(1又は 0)を、 (β (w , D)及び |8 (w, D)により重み付けの上で)文書群 Εに属するすべての文書 Dにつ いて合計したもの。
g又は g
h: 高頻度語のうち各索引語との共起度が類似するもの同士で構成される「 土台」。土台数 =b(h=l, 2, ···, b)。
Co(w, g): 索引語 土台共起度。索引語 wと、土台 gに属する高頻度語 w'との 共起度 C(w, w')を、土台 gに属するすべての w' (但し wを除く。)にっき合計したも の。
[0029] a: 文書 Dのタイトル (題名)。
k k
s : タイトル a (k=l, ···, N(E))の文字列連結。
k
x: 題名出現率。題名和 sの中での各題名 aの(文書数 N (E)に対する)出現率で k k
ある。
m: 各題名 aにおいて出現した索引語 w (題名用語)の種数。
k k v f : 題名用語についての、題名和 s中での(文書数 N(E)に対する)出現率。
k
y: 題名用語出現率平均。題名用語出現率 f を、各題名 aに出現した索引語 w ( k k k v 題名用語)の種数 mで除したものである。
k
τ : タイトルスコア。ラベル (後述)の抽出順位を決めるために、文書群 Εに属する k
各文書のタイトルごとに算出する。
T、 T、 · · ·: タイトルスコアて 降順で抽出されるタイトル (題名)。
1 2 k
K : キーワード適合度。ラベル (後述)の抽出個数を決めるために算出するもの で、文書群 Eに対するキーワードの占有度を示す。
[0030] TF(D)又は TF(w, D): 索引語 wによる、文書 Dの中での出現頻度(索引語頻度 ; Term requencyノ。
DF(P)又は DF(w, P): 索引語 wによる、母集団である全文書 Pの中での文書頻 度 (Document Frequency) 0文書頻度とは、ある索引語で、複数文書から検索したと きのヒット文書数をいう。
DF(E)又は DF(w, E): 索引語 wによる、文書群 Eでの文書頻度。
DF(w, D): 索引語 wによる、文書 Dでの文書頻度、すなわち、索引語 wが文書 D に含まれて 、れば 1、含まれて!/、なければ 0となる。
IDF (P)又は IDF (w, P): "DF (P)の逆数 X全文書の総文書数 N (P) "の対数。 例えば、 ln(N(P)ZDF(P))。
GF(E)又は GF(w, E): 索引語 wによる、文書群 Eの中での出現頻度(大域的頻 度; ulobal Frequency)。
TF*IDF(P): TF(D)と IDF(P)との積。文書の索引語ごとに演算される。
GF(E) *IDF(P): GF(E)と IDF(P)との積。文書の索引語ごとに演算される。
[0031] <2.第 1実施形態の構成 >
図 1は本発明の第 1実施形態に係るキーワード抽出装置のハードウェア構成を示す 図である。同図に示すように、本実施形態のキーワード抽出装置は、 CPU (中央演 算装置)およびメモリ (記録装置)などから構成される処理装置 1、キーボード (手入力 器具)などの入力手段である入力装置 2、文書データや条件や処理装置 1による作 業結果などを格納する記録手段である記録装置 3、および抽出されたキーワードを 表示又は印刷等する出力手段である出力装置 4から構成される。
[0032] 図 2は第 1実施形態のキーワード抽出装置における構成と機能を詳細に説明する 図である。
[0033] 処理装置 1は、文書読み出し部 10、索引語抽出部 20、高頻度語抽出部 30、高頻 度語一索引語共起度算出部 40、クラスタリング部 50、索引語 土台共起度算出部 6 0、 key(w)算出部 70、 Skey (w)算出部 80、キーワード抽出部 90、を備えている。
[0034] 記録装置 3は、条件記録部 310、作業結果格納部 320、文書格納部 330などから 構成される。文書格納部 330は外部データベースや内部データベースを含んで 、る 。外部データベースとは、例えば日本国特許庁でサービスしている特許電子図書館 の IPDLや、株式会社パトリスでサービスして!/、る PATOLISなどの文書データべ一 スを意味する。又内部データベースとは、販売されている例えば特許 JP— ROMなど のデータを自前で格納したデータベース、文書を格納した FD (フレキシブルディスク )、 CD (コンパクトディスク) ROM、 MO (光磁気ディスク)、 DVD (デジタルビデオディ スク)などの媒体力 読み出す装置、紙などに出力された或いは手書きされた文書を 読み込む OCR (光学的情報読み取り装置)などの装置及び読み込んだデータをテ キストなどの電子データに変換する装置などを含んでいるものとする。
[0035] 図 1及び図 2において、処理装置 1、入力装置 2、記録装置 3、および出力装置 4の 間で信号やデータをやり取りする通信手段としては、 USB (ユニバーサルシステムバ ス)ケーブルなどで直接接続してもよ 、し、 LAN (ローカルエリヤネットワーク)などの ネットワークを介して送受信してもよいし、文書を格納した FD、 CDROM、 MO、 DV Dなどの媒体を介してもよい。或いはこれらの一部、又はいくつかを組み合わせたも のでもよい。
[0036] < 2— 1.入力装置 2の詳細 >
次に、図 2により上記のキーワード抽出装置における構成と機能を詳しく説明する。 入力装置 2では、文書の読み出し条件、高頻度語抽出条件、クラスタリング条件、 榭状図作成条件、榭状図切断条件、スコア算出条件、キーワード出力条件などの入 力を受け付ける。これら入力された条件は、記録装置 3の条件記録部 310へ送られ て格納される。
[0037] < 2— 2.処理装置 1の詳細 >
文書読み出し部 10は、記録装置 3の条件記録部 310に格納された読み出し条件 に従って、分析対象となる複数の文書 D〜D からなる文書群 Eを記録装置 3の文 書格納部 330から読み出す。読み出された文書群のデータは、索引語抽出部 20に 直接送られてそこでの処理に用いられる他、記録装置 3の作業結果格納部 320に送 られて格納される。
なお、文書読み出し部 10から索引語抽出部 20或いは作業結果格納部 320に送ら れるデータは、読み出された文書群 Eの文書データを含むすべてのデータであって も良い。また、これら文書群 Eに属する各々の文書 Dを特定する書誌データ (例えば 特許文献であれば出願番号又は公開番号など)のみであっても良い。後者の場合、 以後の処理で必要なときは当該書誌データに基づいて再度文書格納部 330から各 文書 Dのデータを読み出せばよい。
[0038] 索引語抽出部 20は、文書読み出し部 10で読み出された文書群から、各文書の索 引語を抽出する。各文書の索引語のデータは、高頻度語抽出部 30に直接送られて そこでの処理に用いられる他、記録装置 3の作業結果格納部 320に送られて格納さ れる。
[0039] 高頻度語抽出部 30は、索引語抽出部 20で抽出された各文書の索引語に基づき、 記録装置 3の条件記録部 310に格納された高頻度語抽出条件に従って、文書群 E における出現頻度の高さを評価に含む重みの大きい索引語を所定個数抽出する。 具体的には、まず、各索引語について、文書群 Eにおける出現回数である GF (E) を算出する。また更に各索引語の IDF (P)を算出し、 GF (E)との積である GF (E) * 1 DF (P)を算出するのが好ましい。次に、算出された各索引語の重みである GF (E) 或いは GF (E) * IDF (P)の上位所定個数の索引語を、高頻度語として抽出する。 抽出された高頻度語のデータは、高頻度語-索引語共起度算出部 40に直接送ら れてそこでの処理に用いられる他、記録装置 3の作業結果格納部 320に送られて格 納される。また、上記算出した各索引語の GF (E)及び算出することが好ましいとされ た各索引語の IDF (P)についても、記録装置 3の作業結果格納部 320に送られて格 納されることが好ましい。
[0040] 高頻度語-索引語共起度算出部 40は、高頻度語抽出部 30にて抽出された各高 頻度語と、上記索引語抽出部 20にて抽出され作業結果格納部 320に格納された各 索引語との文書単位での共起有無に基づいて、文書群 Eにおける共起度を算出す る。索引語が P個、そのうち高頻度語が q個抽出されたとすれば、 p行 q列の行列デー タとなる。
高頻度語-索引語共起度算出部 40で算出された共起度のデータは、クラスタリン グ部 50に直接送られてそこでの処理に用いられ、或いは記録装置 3の作業結果格 納部 320に送られて格納される。
[0041] クラスタリング部 50は、高頻度語-索引語共起度算出部 40で算出された共起度デ ータに基づき、記録装置 3の条件記録部 310に格納されたクラスタリング条件に従つ て、 q個の高頻度語をクラスタ分析する。
クラスタ分析を行うためには、まず、 q個の高頻度語の各々について、各索引語との 共起度の類似度合 ヽ (類似度又は非類似度)を演算する。この類似度合 、の演算は 、入力装置 2から入力された条件に基づき、類似度算出のための類似度算出モジュ ールを条件記録部 310から呼び出してきて実行する。また、類似度合いの演算は、 例えば上記 p行 q列の共起度データの例で言えば、比較対象となる高頻度語の各々 につ 、ての p次元列ベクトル間の余弦又は距離に基づ!/、て行うことができる(ベクトル 空間法)。なお、べ外ル間の余弦 (類似度)は値が大きいほど類似度合いが高いこと を意味し、ベクトル間の距離 (非類似度)は値が小さいほど類似度合いが高いことを 意味する。また、べ外ル空間法に限らず、他の方法を用いて類似度を定義しても良 い。
[0042] 次に、類似度合いの演算結果に基づき、記録装置 3の条件記録部 310に格納され た榭状図作成条件に従って、高頻度語を榭状に結線した榭状図を作成する。榭状 図としては、高頻度語間の非類似度を結合位置の高さ (結合距離)に反映させたデ ンドログラムを作成することが望まし 、。
[0043] 次に、記録装置 3の条件記録部 310に記録された榭状図切断条件に従って、上記 作成した榭状図を切断する。切断の結果、 q個の高頻度語が、各索引語との共起度 の類似度合 、に基づ 、てクラスタリングされる。クラスタリングにより生成された個々の クラスタを「土台」 g (h= l, 2, · · · , b)と呼ぶことにする。
h
クラスタリング部 50で形成された土台のデータは、索引語 土台共起度算出部 60 に直接送られてそこでの処理に用いられ、或 、は記録装置 3の作業結果格納部 320 に送られて格納される。
[0044] 索引語 土台共起度算出部 60は、索引語抽出部 20で抽出され記録装置 3の作 業結果格納部 320に格納された各索引語について、クラスタリング部 50で形成され た各土台との共起度を算出する。各索引語について算出された共起度のデータは k ey (w)算出部 70に直接送られてそこでの処理に用いられ、或いは記録装置 3の作 業結果格納部 320に送られて格納される。
[0045] key (w)算出部 70は、索引語-土台共起度算出部 60で算出された各索引語の土 台との共起度に基づき、各索引語の評価スコアである key (w)を算出する。算出され た key (w)のデータは Skey (w)算出部 80に直接送られてそこでの処理に用いられ、 或いは記録装置 3の作業結果格納部 320に送られて格納される。
[0046] Skey (w)算出部 80は、 key (w)算出部 70で算出された各索引語の key (w)スコア 、高頻度語抽出部 30で算出され記録装置 3の作業結果格納部 320に格納された各 索引語の GF (E)及び各索引語の IDF (P)に基づき、 Skey (w)スコアを算出する。 算出された Skey (w)のデータはキーワード抽出部 90に直接送られてそこでの処理 に用いられ、或いは記録装置 3の作業結果格納部 320に送られて格納される。
[0047] キーワード抽出部 90は、 Skey (w)算出部 80で算出された各索引語の Skey (w)ス コアの上位所定個数の索引語を、分析対象文書群のキーワードとして抽出する。抽 出されたキーワードのデータは、記録装置 3の作業結果格納部 320に送られて格納 され、必要に応じて出力装置 4にて出力される。
[0048] < 2— 3.記録装置 3の詳細 >
図 2の記録装置 3において、条件記録部 310は、入力装置 2から得られた条件など の情報を記録し、処理装置 1の要求に基づき、必要なデータを送る。作業結果格納 部 320は、処理装置 1における各構成要素の作業結果を格納し、処理装置 1の要求 に基づき、必要なデータを送る。文書格納部 330は、入力装置 2或いは処理装置 1 の要求に基づき、外部データベース或いは内部データベース力 得た、必要な文書 データを格納し、提供する。
< 2— 4.出力装置 4の詳細 >
図 2の出力装置 4は、処理装置 1のキーワード抽出部 90で抽出され記録装置 3の作 業結果格納部 320に格納された文書群のキーワードを出力する。出力の形態として は、例えばディスプレイ装置への表示、紙などの印刷媒体への印刷、或いは通信手 段を介してのネットワーク上のコンピュータ装置への送信などが挙げられる。
[0050] < 3.第 1実施形態の作用 >
図 3は第 1実施形態のキーワード抽出装置における処理装置 1の動作手順を示す フローチャートである。
[0051] < 3— 1.文書読み出し >
まず、文書読み出し部 10において、分析対象となる複数の文書 D〜D 力らなる 文書群 Eを記録装置 3の文書格納部 330から読み出す (ステップ S 10)。
[0052] く 3— 2.索引語抽出 >
次に、索引語抽出部 20において、文書読み出しステップ S10で読み出された文書 群から、各文書の索引語を抽出する (ステップ S20)。各文書の索引語データは、例 えば、文書群 Eに含まれる索引語の各文書 D内における出現回数 (索引語頻度 TF ( D) )の関数値を成分とするベクトルで表現することができる。
[0053] < 3— 3.高頻度語抽出 >
次に、高頻度語抽出部 30において、索引語抽出ステップ S20で抽出された各文書 の索引語データに基づき、文書群 Eにおける出現頻度の高さを評価に含む重みの 大きい索引語を所定個数抽出する。
具体的には、まず、各索引語について、文書群 Eにおける出現回数である GF (E) を算出する (ステップ S30)。各索引語の GF (E)を算出するには、上記索引語抽出ス テツプ S20において算出した各索引語の各文書における索引語頻度 TF (D)を、文 書群 Eに属する文書 D〜D について合計すればよい。
[0054] 説明をわかり易くするために、 6個の文書 D〜D力もなる文書群 Eに合計 14個の 索引語 w〜w が含まれる場合の TF (D)及び GF (E)の仮想事例を次の表に示す。
1 14
以下の説明にお 、て、この仮想事例を適宜参照する。
[表 1]
各索引語の T F ( D ) 及び G F ( E )
Figure imgf000021_0001
[0055] 次に、算出された各索引語の GF (E)に基づき、出現頻度上位の索引語を所定個 数抽出する (ステップ S31)。高頻度語の抽出数は例えば 10語とする。この場合、例 えば 10語目と 11語目が同順位であれば、 11語目も高頻度語として抽出する。
高頻度語の抽出にあたっては、更に各索引語の IDF (P)を算出して GF (E) * IDF (P)の上位所定個数の索引語を抽出するのが好ましい。但し、上記の仮想事例によ る以下の説明にお 、ては、簡単のため GF (E)上位 7語を高頻度語とすることにする 。すなわち、索引語 w〜索引語 wが高頻度語として抽出される。
[0056] なお、索引語から高頻度語を抽出するにあたっては、予め全索引語から不要語を 除き、その残りから高頻度語を抽出するのが好ましい。但し、例えば日本語文書であ れば形態素解析ソフトウェアの違いによって索引語の切り出しがまちまちになるので 、必要十分な不要語リストを作成することは不可能である。従って不要語の排除は最 小限とするのが望ましい。不要語リストとしては、例えば特許文書では以下の例が考 えられる。 〔キーワードとして意味をなさな 、もの〕 前記、上記、該、下記、記載、請求、項、特許、数、式、一般、以上、以下、手段、特 徴
〔キーワードとして重要性が低 、語'単位記号 ·ローマ数字〕 全体、範囲、種、類、系、用、%、 mm、 ml、 nm、 μ mなど
ここでは汎化能力を問題にしているため、上記のような不要語選択になっているが 、勿論、使用する形態素解析ソフトウェアや文書群の分野に合わせて必要なリストを 与えることは自由である。
[0057] <3— 4.高頻度語一索引語共起度算出 >
次に、高頻度語-索引語共起度算出部 40において、上記高頻度語抽出ステップ S 31にて抽出された各高頻度語と、上記索引語抽出ステップ S 20にて抽出された各 索引語との共起度を算出する (ステップ S40)。
[0058] 索引語 wと索引語 wとの文書群 Eにおける共起度 C(w, w)は、例えば次の式によ り算出する。
[数 1]
C (w; , w j ) = ∑ [D≡E] [ (w i , D) X /8 (w ' , D) X D F (w i , D) X D F (w j , D)]
[0059] ここで 13 (w , D)は文書 Dにおける索引語 wの重みであり、
β (w , D)=l
β (w , D)=TF(w , D)
β (w , D) =TF(w , D) XIDF(w , P)
等が考えられる。
[0060] DF(w , D)は文書 Dに索引語 wが含まれていれば 1、含まれていなければ 0となる 力ら、 DF(w, D) XDF(w, D)は、索引語 wと索引語 wが 1つの文書 Dにおいて共 起していれば 1、共起していなければ 0となる。これを、(j8 (w, D)及び j8 (w, D)に より重み付けの上で)文書群 Eに属するすべての文書 Dについて合計したもの力 索 引語 wと索引語 wとの共起度 C(w, w)である。
[0061] なお、上記 [数 1]の類似例として、 ίβ (w, Ό) X β (w, D)]の代わりに、索引語 w と索引語 wとのセンテンス内共起有無に基づいて算出した文書 Dにおける共起度 c ( w, w)を用いても良い。文書 Dにおける共起度 c(w, w)は、例えば以下の式により 算出する。
[数 2]
c (w i , w j ) = ∑ (seneD} [T F (w i , sen) x T F (w j , sen) ] ここで senは文書 Dにおける各センテンスを意味するものとする。 [TF(w, sen) XT
F(w, sen)]は、あるセンテンス内に索引語 wと wが共起していれば 1以上の値を返 j I j
し、共起していなければ 0を返す。これを文書 Dにおけるすべてのセンテンス senにつ き合計したものが、文書 Dにおける共起度 c(w, w)である。
上記の仮想事例に基づいて、上記 [数 1]により、重み j8 (w, D) =1として共起度 を算出すると以下の通りである。まず、同じ索引語である索引語 wと索引語 wは、文 書 D〜文書 Dの計 3文書において共起していると言うことができ、共起度 C(w , w
1 3 1 1
) =3である。また、索引語 wと索引語 wは、文書 D及び文書 Dの計 2文書におい
2 1 1 3
て共起しており、共起度 C(w , w ) =2である。以下同様にして、索引語 w〜w の
2 1 1 14 何れか 1つと高頻度語 w〜wの何れか 1つとの組すべてについて共起度 C(w , w) を算出すると、次の表のような 14行 7列の行列データが得られる。
[表 2]
各高頻度語の各索引語との共起度
Figure imgf000023_0001
[0063] < 3- 5.クラスタリング〉
次に、クラスタリング部 50において、高頻度語—索引語共起度算出ステップ S40で 算出された共起度データに基づき、上記高頻度語をクラスタ分析する。
[0064] クラスタ分析を行うためには、まず、上記高頻度語の各々について、各索引語との 共起度の類似度合 ヽ (類似度又は非類似度)を演算する (ステップ S50)。
[0065] 上記仮想事例において、類似度合いとして、高頻度語 w〜wの各々についての 1 4次元列ベクトル間の相関係数を採用した場合の演算結果を示すと、次の表の通り である。
[表 3] 共起度の類似度合い (相関係数)
Figure imgf000024_0001
表の左下半部は右上半部と重複するので省略している。この表によると、例えば高 頻度語 w〜高頻度語 wは、それらの何れの組合せでも相関係数が 0.8を超えている
1 4
。また高頻度語 w〜高頻度語 wは、それらの何れの組合せでも相関係数力 を超
5 7
えている。逆に、高頻度語 W〜高頻度語 Wの何れかと高頻度語 W〜高頻度語 Wの
1 4 5 7 何れかとの組合せでは、相関係数がすべて 0.8未満となって 、る。
[0066] 次に、類似度合いの演算結果に基づき、高頻度語を榭状に結線した榭状図を作成 する(ステップ S 51)。
榭状図としては、高頻度語間の非類似度を結合位置の高さ (結合距離)に反映させ たデンドログラムを作成することが望ま 、。デンドログラムの作成原理を簡単に説明 すると、まず、各高頻度語間の非類似度に基づいて、非類似度が最小 (類似度が最 大)の高頻度語同士を結合させて結合体を生成する。更に結合体と他の高頻度語、 或いは結合体と結合体を、これらの非類似度の小さ 、順に結合させて新たな結合体 を生成する作業を繰り返す。こうして階層構造として表現することができる。結合体と 他の高頻度語との非類似度、或いは結合体と結合体との非類似度は、各高頻度語 間の非類似度に基づ 、て更新する。更新方法としては例えば公知の Ward法などを 用いる。
[0067] 次に、クラスタリング部 50において、上記作成した榭状図を切断する (ステップ S52 )。例えばデンドログラムにおける結合距離を dとしたときの <d>+ δ σ の位置で切 d
断する。ここで <d>は dの平均値、 σ は dの標準偏差である。 δは— 3≤ δ≤3の範 d
囲で与え、好ましくは δ =οとする。
切断の結果、高頻度語が、各索引語との共起度の類似度合いに基づいてクラスタ リングされ、各クラスタに属する高頻度語群力もなる「土台」 g (h=l, 2, ···, b)が形 h
成される。同じ土台 g
hに属する高頻度語は、索引語との共起度の類似度が高ぐ異 なる土台 g
hに属する高頻度語は、索引語との共起度の類似度が低いことになる。
[0068] 榭状図とその切断過程については上記の仮想事例による説明を省略するが、高頻 度語 W〜高頻度語 Wからなる土台 gと、高頻度語 W〜高頻度語 Wからなる土台 g 1 4 1 5 7 2 という 2つの土台(土台数 b = 2)が形成されたものとする。
[0069] <3-6.索引語 土台共起度算出 >
次に、索引語—土台共起度算出部 60において、上記索引語抽出ステップ S20で 抽出された各索引語について、クラスタリングステップ S53で形成された各土台との 共起度 (索引語—土台共起度) Co (w, g)を算出する (ステップ S60)。
[0070] 索引語 土台共起度 Co (w, g)は、例えば、次の式により算出する。
[数 3]
C O (W, g ) = L {w. e g, w' ≠w] C (w, w ) ここで w'は、ある土台 gに属する高頻度語であり、かつ共起度 Co (w, g)の計測対 象である索引語 W以外のものをいう。索引語 wと土台 gとの共起度 Co (w, g)は、 w, すべてについての、 wとの共起度 C(w, w,)の合計である。
[0071] 例えば上記の仮想事例において、索引語 wと土台 gとの共起度 Co (w , g )は、 し o(w , g ;=C(w , w )+し (w , wノ + C、w , w )
1 1 1 2 1 3 1 4
であり、上の表 2より、この値は、 2 + 3 + 3 = 8 となる。 また、索引語 wと土台 gとの共起度 Co (w , g )は、
1 2 1 2
Co(w, g )=C(w, w )+C(w, w )+C(w, w )=1 + 1 + 0 = 2 となる。
1 2 1 5 1 6 1 7
同様にして、すべての索引語 wについて土台 g , gとの共起度を算出すると、次の
1 2
表のようになる。
[表 4]
索引語 wと土台 gの共起度 C o (w, g)
Figure imgf000026_0001
なお、索引語 土台共起度は、上記 Co(w, g)に限らず、次の式により算出しても 良い。
C o' (w, g) =∑ (DeE} [β (w, D) x D F(w, D) Χ Θ (Σ lw.eg, w.≠wl D F (w ' , D) ) ] ここで Θ (X)は、 Χ>0なら 1を返し、 Χ≤0なら 0を返す関数である。 Θ (∑ , ,
tw ^g, w ≠w
DF(w' , D))は、土台 gに属する何れかの高頻度語であってかつ共起度の計測対象 索引語 w以外の語 w'が、文書 Dに 1つでも含まれていれば 1を返し、まったく含まれ ていなければ 0を返すことになる。 DF (w, D)は共起度の計測対象索引語 w力 文 書 Dに 1つでも含まれていれば 1を返し、まったく含まれていなければ 0を返す。 DF ( w, D)に Θ (X)を乗じることで、 wと土台 gに属する何れかの w'とが文書 Dにおいて 共起していれば 1を返し、共起していなければ 0を返すことになる。これに、上で定義 した重み j8 (w, D)を乗じ、さらに文書群 Eに属するすべての文書 Dについて合計し たものが、 Co' (w, g)である。
[0073] 上記 [数 3]の索引語 土台共起度 Co (w, g)は、 wと w'の D内での共起有無(1又 は 0)をすベての Eについて重み j8 (w, D) X j8 (w', D)付きで合計(C (w, w' ) )し 、これを g内の w'について合計した。これに対し、上記 [数 4]の索引語-土台共起度 Co' (w, g)は、 wと g内の何れかの w,の D内での共起有無(1又は 0)をすベての Eに ついて重み (w, D)付きで合計した。
従って、いずれの場合でも、より多くの文書 Dで高頻度語と共起した方が、より大き い索引語 土台共起度が得られる。また、 [数 3]の索引語 土台共起度 Co (w, g) は索引語 wと共起する土台 g内の w'の数の多寡により増減するものであるのに対し、 [数 4]の索引語-土台共起度 Co (w, g)は索引語 wと共起する土台 g内の w'の存 否により増減するもので、共起する w'の多寡は無関係である。 [数 3]の索引語 土 台共起度 Co (w, g)を用いる場合は重み j8 (w, D) = lとするのが好ましぐ [数 4]の 索引語—土台共起度 Co' (w, g)を用いる場合は重み j8 (w, D) =TF (w, D)とする のが好ましい。
[0074] く 3— 7. key(w)算出〉
次に、 key (w)算出部 70において、上記索引語—土台共起度算出ステップ S60で 算出された各索引語の土台との共起度に基づき、各索引語の評価スコアである key( w)を算出する (ステップ S70)。
[0075] key(w)は、例えば、次の式により算出する。
[数 5] k e y (w) = 1 ― TT ≤h≤b] [ 1 — C o (w, g h) / F ( g h) ] ここで、 F (g ) =∑ Co (w, g )と定義する。索引語 wと土台 gとの共起度 Co (w h {w^E} h h
, g )の、全索引語 wについての合計である。 Co(w, g )を F(g )で除して 1との差を h h h
とり、これをすベての土台 g (h=l, 2, ···, b)について乗じて 1との差をとつたもの h
力 key (w)である。
なお、索引語—土台共起度として、ここでは上記 [数 3]の Co (w, g)を用いたが、上 記 [数 4]の Co' (w, g)を用いてもょ 、ことは上述の通りである。
例えば上記の仮想事例において、 F(g )を算出すると、上記 [表 4]より、
F(g)=Co(w, g)+Co(w, g)H hCo (w , g)=85
1 1 1 2 1 14 1
F(g)=Co(w, g)+Co(w, g)H hCo (w , g)=59
2 1 2 2 2 14 2
となる。そこで、 key(w)は、
key(w)=l-(l-Co (w , g )/85) (l-Co(w , g )/59)
1 1 1 1 2
=1一 (1 一 8/85) (1 一 2/59)
= 0.125
key(w)=l-(l-Co (w , g )/85) (l-Co(w , g )/59)
2 2 1 2 2
=1一 (1 一 8/85) (1 一 4/59)
= 0.156
以下同様に、すべての索引語について key (w)を算出すると、次の表の通りである。
[表 5]
索引語 k e y ( w) 順位
W! 1 - (1 - 8/85) ( 1 - 2/59) 8
=0.125
W。 1 - (1 - 8/85) ( 1 - 4/59) 6
=0.156
W 3 1 - (1 - 1 0 8 5) ( 1 - 5/59) 3
=0.192
W 4 1 - (1 - 1 0ノ 85) ( 1 - 8/59) 2
= 0.237
w5 1 - (1 - 8Z85) ( 1 - 6/59) 4
=0.186
W 6 1 - (1 - 7/85) ( 1 - 6/59) 5
=0.176
W 7 1 - (1 - 4/85) ( 1 - 6/59) 7
=0.144
W 8 1 - (1 - 1 5 8 5) ( 1 - 1 1 /59) 1
=0.330
W g 1 - (1 - 4/85) ( 1 - 0/59) 1 4
= 0.047
1 o 1 - (1 - 3/85) ( 1 - 1 /59) 1 2
=0.052
W ! ! 1 - (1 - 4/85) ( 1 - 1 /59) 1 0
= 0.063
w ^ 2 1 - (1 - 3/85) ( 1 - 3/59) 9
= 0.084
^ 3 1 - (1 - 1 /85) ( 1 - 3/59) 1 1
= 0.062
1 4 1 - (1 - 0/85) ( 1 - 3/59) 1 3
= 0.051 この表の右端の欄は key (w)の大き 、順に並べた場合の順位を示して 、る。
key (w)の特質を説明するために、 [表 1]と同じものに各索引語の文書頻度 DF(E
)と上記 key (w)順位とを付記して次に示す。
[表 6] 各索引語の T F ( D ) 及び G F ( E ) 等
Figure imgf000030_0001
[0078] この表力もわ力るように、 key (w)の順位には文書群 Eでの文書頻度 DF (E)の順位 の影響が大きい。例えば、 DF (E)最多の索引語 wは key (w)が第 1位であり、 DF (
8
E)次点の索引語 wは key (w)が第 2位であり、以下索引語 w、 w、 w等がそれに
4 3 5 6
続いている。
文書群 Eでの文書頻度 DF (E)が大きい索引語なら、より多くの文書において高頻 度語と共起することができる。したがって、より大きい索引語一土台共起度 Co (w, g) 又は Co' (w, g)が得られる。 key (w)の順位に DF (E)の順位の影響が大きい理由は ここにあると考えられる。
なお、共起度の算出に用いる重み j8 (w, D)を TF (w, D)とした場合には、 key(w )の順位には文書群 Eでの大域的頻度 GF (E)の順位の影響が大きくなると考えられ る。
[0079] また、 [表 2]及び [表 6]で索引語 w〜w を比較するとわ力るように、共起する高頻
9 14
度語がより多くの土台にまたがつている方力 key(w)が大きい。例えば、索引語 w
10
〜w と共起する高頻度語は、 2つの土台にまたがっているのに対し、索引語 wや w
13 9 1 と共起する高頻度語は、 1つの土台に偏っている。そして、索引語 w 〜w の方が
4 10 13 索引語 wや w より key (w)が大きくなつている。 [0080] また、 [表 2]及び [表 6]で索引語 w 〜w を比較するとわ力るように、より多くの高
10 13
頻度語と共起している方力 key (w)が大きい傾向がある。例えば、 w 〜w のうち、
10 13 最も多くの高頻度語と共起している w は、それらのうちで最も key (w)が大きぐその
12
次に多くの高頻度語と共起して 1ヽる w は、その次に key (w)が大き 、。
11
[0081] なお、各索引語の評価スコアとして、上記 key (w)の代わりに、次の式を用いても良 い。
[数 6]
b
k e y' (w) = ( 1 X Φ) ( 1ズ b) x ∑ C o (w, gh)
h = 1 ここで Φは適当な規格ィ匕定数であり、例えば Φ =∑ bF(g )とする。 F(g )は上
h=l h h 記 [数 5]で定義した通りである。
ke (w)は、索引語 wと土台 gとの共起度 Co (w, g )の、全土台 g (h=l, ···, b
h h h
)における平均値を定数(1ΖΦ)倍したものである。
[0082] また、各索引語の評価スコアとして、上記 key (w)の代わりに、次の式を用いても良 い。
[数 7]
b
k e y" (w) 二 (1 Zb) x ∑ [C o (w, gh) / (gh) ]
h = 1 key"(w)は、索引語 wと土台 gとの共起度 Co (w, g )を F(g )で除して、全土台 g
h h h h
(h=l, ···, b)における平均値をとつたものである。
[数 5]の key (w)において積部分を展開し、高次の微小項 0[(Co(w, g )/F(g )
h h
)2]を無視すると、
key (w)
= 1一 [ 1— Co(w,g )/F(g )] X [ 1— Co(w,g )/F(g )] X · · ·
1 1 2 2
^ 1 - l+Co(w,g )/F(g ) + Co(w,g )/F(g ) +···
1 1 2 2
となるから、 key"(w) = (1/b) key (w)ということができる。
[0083] く 3— 8. Skey(w)算出〉
次に Skey (w)算出部 80にお!/、て、上記 key (w)算出ステップ S70で算出された各 索引語の key (w)スコア、高頻度語抽出ステップ S31で算出された各索引語の GF( E)及び各索引語の IDF (P)に基づき、 Skey(w)スコアを算出する (ステップ S80)。
[0084] Skey(w)スコアは、次の式により算出する。
[数 8]
S k e y (w) = G F (w, E) x In [ k e y (w) ÷ ( D F (w , Pレ N ( P ) ) ]
= G F (w, E) x [ I D F(P) + In k e y (w) ]
[0085] GF (w, E)は文書群 Eにお 、て多く出現する語に対して大きな値が与えられるもの であり、 IDF(P)は全文書 Pにおいては珍しく文書群 E特有の語に対して大きな値が 与えられるものであり、 key(w)は上記のように DF(E)の影響を受け、より多くの土台 と共起する語に大きな値が与えられるスコアである。これら GF(w, E)、 IDF(P)及び key (w)の値が大き!/、ほど Skey (w)は大きくなる。
[0086] 索引語に対する重み付けとして良く用いられている TF*IDFは、索引語頻度 TFと 、文書集団における索引語の出現確率 DF(P)ZN(P)の逆数の対数である IDFとの 積である。 IDFは文書集団において高確率で出現する索引語の寄与を小さく抑える 効果を有し、特定の文書にのみ偏って出現する索引語に高い重みを与えることがで きる。しかし、時にただ文書頻度が小さいだけで値が跳ね上がるという欠点も持って いる。次に説明するように、 Skey (w)スコアは、このような欠点を改善する効果を有す るものである。
[0087] 分析対象の文書群 Eにおいて、索引語 wを含む文書が出現する確率を P(A)、土 台(に属する索引語)を含む文書が出現する確率を P(B)、索引語 wと土台をともに 含む文書が出現する確率( =文書内で共起する確率)を P (A ΓΊ B)とすると、 P (A) = DF (w, E) Z N (E)
Figure imgf000032_0001
で表せる。これより、文書群 Eにおいて、索引語 wを含む文書が選出された時に土台 と共起する確率 (条件付確率)は、
[数 9]
P (B I A) = P (A Π B) Z P (A)
= k e y (w) x N (E) D F (w, E) となる。更に、一様性の仮定 (IDF (E) =IDF(P))を考慮し、かつ上記条件付確率の 対数をとると、
[数 10]
In P (B I A) 二 In [k e y (w) x N (P) / D F (w, P) ]
二 In k e y (w) + I D F (P) となる。この値は、 key (w) =1ならば IDF (P)に等しい。そして、 DF→0の極限では、 N(P) /DF(w, P)→∞且つ key(w)→0なので、 N(P)ZDF(w, P)と key(w)の 積をとることによって、 DF値が小さいときに IDF値が特異的に跳ね上がるという上記 の欠点を改善することができる。 [数 8]の Skey(w)スコアは、 GF(w, E)と、上記 [数 10]の In key(w) + IDF (P)との積をとつたものであるから、共起度によって補正さ れた GF(E) *IDF(P)ということができる。
[0088] なお、 [数 8]による Skey(w)の算出において、 [数 5]の key (w)の代わりに、 [数 6] の key' (w)や [数 7]の key"(w)を用いても良!、ことは上記の通りである。
[数 7]の key"(w)を用いた場合の Skey(w)スコアを Skey(key")と表記し、 [数 5] の key (w)を用いた場合の Skey (w)スコアを Skey (key)と表記して両者を比較する と、
S ey (Key)― ¾key (key )
= GF、w, E) X [In key、w)— In key (wノ]
= GF(w, E) X In b
よって、 [数 7]の key" (w)を用いた Skey (w)と、 [数 5]の key (w)を用いた場合の S key (w)の振る舞いは土台数 bの違 、を除 、て本質的に合致し、土台数 bが大きくな い限りは Skey (w)スコアの順位に大きな影響は及ぼさな!/、。
[0089] <3— 9.キーワード抽出 >
次に、キーワード抽出部 90において、上記 Skey (w)算出ステップ S80で算出され た各索引語の Skey(w)スコアの上位所定個数の索引語を、分析対象文書群のキー ワードとして抽出する (ステップ S90)。
[0090] < 3— 10.第 1実施形態の効果 >
本実施形態によれば、より多くの土台に属する高頻度語と共起し、且つより多くの 文書において高頻度語と共起する索引語を高く評価してキーワードを抽出する。異 なる土台に属する高頻度語は、各索引語との共起度が似ていないもの同士であるか ら、多くの土台と共起する索引語は、文書群 Eの話題や主張のばらつきを橋渡しする 語であるということができる。また、多くの文書において高頻度語と共起する索引語は 、もともと文書群 Eにおける文書頻度 DF (E)が高ぐ文書群に共通の話題や主張を 表す語であるということができる。このような索引語を高く評価することにより、複数の 文書 D力 なる文書群 Eの特徴を的確に表したキーワードを自動抽出することができ る。
また、重み 13 (w, D) = 1とすることにより、 key(w)スコアに対する DF (E)順位の影 響が大きくなり、文書群 E内の多数の文書に出現する語を高く評価してキーワードを 抽出することができる。
また、文書群 Eにおける出現頻度 GF (E)と、全文書 Pにおける文書頻度の逆数の 対数である IDF (P)を加味することにより、文書群 Eで頻出する索引語や、文書群 E に特有の索引語を高く評価してキーワードを抽出することができる。
[0091] <4.第 2実施形態の構成 >
図 4は本発明の第 2実施形態に係るキーワード抽出装置の構成と機能を詳細に説 明する図である。第 1実施形態に係る図 2と同様の部分には同一の符号を付してそ の説明を省略する。
[0092] 第 2実施形態のキーワード抽出装置は、第 1実施形態の構成要素に加え、タイトル 抽出部 100、タイトルスコア算出部 110、 Skey(w)上位語読み込み部 120、ラベル 個数決定部 130、ラベル抽出部 140を、処理装置 1内に備えている。また、第 1実施 形態の構成要素のうちキーワード抽出部 90は設けられていなくてもよぐ Skey(w) 算出部 80の算出結果はそのまま作業結果格納部 320に格納される。
[0093] タイトル抽出部 100は、文書読み出し部 10で読み出され作業結果格納部 320に格 納された文書データから、各文書のタイトル (題名)を抽出する。例えば特許文書であ れば「発明の名称」の記載内容を抽出する。抽出されたタイトルのデータは、タイトル スコア算出部 110に直接送られてそこでの処理に用いられ、或いは記録装置 3の作 業結果格納部 320に送られて格納される。
[0094] タイトルスコア算出部 110は、タイトル抽出部 100で抽出された各文書のタイトルの データと、上記索引語抽出部 20で抽出された文書群 Eの索引語データとに基づいて 、各文書のタイトルについてタイトルスコア τ を算出する。このタイトルスコア τ は、
k k 文書群 Eの特徴を表すラベルとしての価値を示すスコアである。タイトルスコアて の
k 算出方法については後述する。算出されたタイトルスコア τ のデータは、ラベル抽出
k
部 140に直接送られてそこでの処理に用いられ、或いは記録装置 3の作業結果格納 部 320に送られて格納される。
[0095] Skey (w)上位語読込み部 120は、上記 Skey (w)算出部 80で算出され作業結果 格納部 320に格納された各索引語 wの Skey (w)に基づき、 Skey (w)スコアの上位 所定個数の索引語を抽出する。抽出個数は例えば 10個とする。抽出された Skey (w )上位語のデータは、ラベル個数決定部 130に直接送られてそこでの処理に用いら れ、或いは記録装置 3の作業結果格納部 320に送られて格納される。
[0096] ラベル個数決定部 130は、 Skey (w)上位語読込み部 120で抽出された Skey (w) 上位語のデータに基づき、当該文書群 Eについて、その内容統一性を示す指標であ るキーワード適合度 κを算出する。そして、このキーワード適合度 κに基づき、抽出 すべきラベル個数を決定する。キーワード適合度 κの算出方法及びこれに基づくラ ベル個数の決定については後述する。決定されたラベル個数のデータは、ラベル抽 出部 140に直接送られてそこでの処理に用いられ、或いは記録装置 3の作業結果格 納部 320に送られて格納される。
[0097] ラベル抽出部 140は、タイトルスコア算出部 110で算出された各タイトルのタイトル スコア τ に基づき、ラベル個数決定部 130で決定された個数のタイトルを抽出して k
当該文書群 Eのラベルとする。具体的には、タイトルスコア τ の降順にタイトルをソー
k
トし、上記決定された個数のタイトルを抽出する。
本第 2実施形態においては、このラベルが本発明のキーワードに相当する。
[0098] < 5.第 2実施形態の作用 >
図 5は第 2実施形態のキーワード抽出装置における処理装置 1の動作手順を示す フローチャートである。本第 2実施形態によるキーワード抽出装置は、上記第 1実施 形態と同様の処理を経て、 Skey (w)を算出する (ステップ S80まで)。 Skey (w)を算 出するまでの処理については図 3と同様であるのでその説明を省略する。
[0099] < 5— 1.タイトル抽出 >
第 2実施形態のキーワード抽出装置は、 Skey (w)を算出した後、タイトル抽出部 1 00において、上記文書読み出しステップ S10で読み出された文書群 Eに属する各文 書 D (k= l, 2, · · · , N (E) )文書データから、各文書のタイトル (題名) aを抽出する k k
(ステップ S100)。 1つの文書 D力 は 1つのタイトルが抽出されるので、文書数 N (E k
)と同じ数のタイトル aが抽出される。
k
[0100] 更にタイトル抽出部 100は、各文書のタイトル aから、文書群 Eにおける題名の文字 k
列連結 (題名和) sを作成する。題名和 sは以下の式で表せる。
[数 11]
N C E)
s = str ιΤ a k
k = 1 ここで、 strllは文字列和を意味する。題名和 sに対しては、分かち書きソフトウェア の仕様に応じて、予め符号の統一処理を行うことが望ましい。例えば、分かち書き処 理で記号を削除してしまう場合には、前処理として、「一」(全角マイナス)、「一」(全 角升目の棒)を「一」(長音符号)に統一させておく。
そして、題名和 sを分かち書きして得られる題名用語を索引語辞書とする。
[0101] なお、索引語辞書としては、題名和 sから得られる索引語の代わりに、文書群 Eの文 書内容力も分かち書きして得られる索引語を索引語辞書としても良い。また、そのう ちキーワードスコア Skey (w)の上位所定個数 (例えば 30語)の索引語のみを索引語 辞書としても良い。
索引語辞書を得る方法は以上のように幾つか考えられるが、こうして得られる文書 群 Eの索引語を以下では一般に w (v= l, 2, · · · , W' )で表すことにする。
[0102] く 5— 2.タイトルスコア算出〉
次に、タイトルスコア算出部 110において、各文書のタイトルについてタイトルスコア τ を算出する (ステップ SI 10)。タイトルスコア τ の算出は、以下に説明する題名出 現率 xと、題名用語出現率平均 yを用いて行う。
[0103] 題名出現率 X
各題名 aについて、題名和 sの中での(文書数 N(E)に対する)出現率 Xを求める。 題名出現率 Xは以下の式で与えられる。
[数 12]
X k = ( 1ノ N(E)) T F (a k, s) [0104] 題名用語出現率平均 y
題名用語出現率平均 yを算出するために、まず、各題名 aにおいて出現した索引 語 w (題名用語)の種数 mを求める。
[数 13] m k = ∑ Θ 、「 F 、wv, a k) ノ ここで、 0( )は、 〉0なら1、 ≤0なら0を返す関数でぁる。 0(TF(w, a ))で 題名 aにおける索引語 wの有無(1又は 0)が求められる。これを全索引語 w (v=l,
2, · · ·, W')にっき合計したもの力 題名用語の種数 mである。
[0105] 次に、各文書の題名 aに出現した題名用語に関して、題名和 s中での(文書数 N(E
)に対する)出現率 f を求める。
[数 14]
W
f k = ( 1 /N (E)) ∑ T F (wv, s) x I D F (wv, P) x Θ (T F (wv, a k) ) ここで、題名和 s中での索引語 wvの出現回数が TF(w , s)で与えられている。出現 率 f は、索引語 wのうち、題名 aに出現するもの(@(TF(w , a ))=1である索引語 w )の TF(w , s)だけを、重み (IDF (w , Ρ))つきで合計し、文書数 Ν(Ε)で除した ものである。
[0106] 更に、長い題名が高ポイントィ匕しゃすくなるのを防止するため、題名用語出現率 f を、各題名 aにおいて出現した索引語 w (題名用語)の種数 mで除したもの力 題 名用語出現率の種数平均 yである。 [数 15] y k = f k,mk [0107] タイトルスコア τ
k
タイトルスコア τ は、上記題名出現率 Xと、題名用語出現率平均 yの増加関数で k k k
求める。例えば、次式の相乗平均で求めるのが好ましい。
[数 16] て k = ( X k X y J
[0108] また、タイトルスコア τ は、次の式で求めても良い。
k
[数 17] て k, = ( x k+ y k) /2.
Figure imgf000038_0001
[0109] 各タイトル aについてタイトルスコア τ が求められたら、同一題名を名寄せする(同 k k
一題名が複数あれば 1つ残して削除する)。そして、上記求めたタイトルスコア τ の k 降順にタイトルをソートし、各タイトルを、 τ 上位から Τ , Τ , '"とする。
k 1 2
[0110] く 5— 3. Skey上位語読込み〉
次に、 Skey (w)上位語読込み部 120において、 Skey (w)スコアの上位所定個数( t個とする)の索引語を抽出する (ステップ S120)。
[0111] <5— 4.ラベル個数決定 >
次に、ラベル個数決定部 130において、当該文書群 Eの内容統一性を示すキーヮ ード適合度 κを算出し、抽出すべきラベル個数を決定する (ステップ S130)。
[0112] キーワード適合度 κは、 Skey (w)スコアの上位所定個数 (t個)の索引語を w (r = 1, 2, ···, t)とし、次の式で算出する。
[数 18]
K = ( 1 ZN (E) ) ( 1 / t ) ∑ D F (wr, E) すなわち、 Skey (w)スコアの上位 t個の索引語 wについて、文書群 Eでの文書頻 度 DF (E)の平均(lZt)∑r= i* DF (wr, E)を求め、これを文書群 Eの文書数 N (E) で除したもの力 キーワード適合度 κである。
κは Skey (w)によってキーワードだと評価された語の文書群 Eにおける占有度を 表す。文書群 Eが 1つの分野から構成されていれば、キーワードは互いに関連性の 深いものば力りで多種多様になることはないので占有度は高い。これに対し、文書群 Eが複数分野力 構成されていれば、一分野あたりの文書数は少なくキーワードも多 種多様となり、占有度が低くなる。従って、 κの値が高ければ、文書群 Eの内容の統 一性が高ぐ κの値が低ければ、文書群 Eは複数分野力 構成されていると判断でき る。
[0113] 求められたキーワード適合度 κの値に応じて、本第 2実施形態において抽出される キーワードであるラベルの個数及び出力態様を決定する。例えば、
(1) 0.55≤ κ なら τ 最上位の「Τ」をそのままラベルとし、
k 1
(2) 0.35≤ κく 0.55なら τ 最上位の Τを用いて「Τ関連」とのラベルとし、
k 1 1
(3) 0.2 < κく 0.35なら τ 第二位の Τまでを用いて「Τ、 Τ等」とのラベルとし、 k 2 1 2
(4) κ≤0.2 なら「その他」とのラベルとする。
[0114] なお、 κの閾値は、この [0.55, 0.35, 0.2]のセットに限らず、他の値を選んでも良い 。例えば、上記 [数 5]の key (w)に代えて [数 6]の key' (w)を用いて Skey (w)スコア を算出した場合は、上記の κ閾値セットに代えて、 κ閾値セット [0.3, 0.2, 0.02]を用 いるのが好ましい。
[0115] < 5— 5.ラベル抽出 >
次に、ラベル抽出部 140において、上記タイトルスコア算出ステップ S 110で算出さ れた各タイトルのタイトルスコア τ と、上記ラベル個数決定ステップ S 130で決定され k
たラベル個数及び出力態様とに基づいて、ラベルを抽出する (ステップ S 140)。
[0116] < 5— 6.第 2実施形態の効果 >
本実施形態によれば、第 1実施形態で算出した Skey (w)スコアを利用し、 Skey (w )スコア上位の高頻度語の各文書における出現頻度に基づいてキーワード (ラベル) 抽出個数を決定する。これにより、複数の文書 D力 なる文書群 Eの内容統一性の程 度に応じて、文書群の特徴を表す適切な個数のキーワードを自動抽出することがで きる。
また、各文書のタイトルにおける語の出現率に基づき、当該出現率が高い語を高く 評価してキーワード (ラベル)を抽出するので、文書群の内容を的確に表したキーヮ ードを抽出することができる。
[0117] < 6.具体例 >
第 1実施形態及び第 2実施形態によるキーワード抽出の具体例として、ある家庭用 化学品メーカーを出願人とする過去 10年分の特許公報(出願公告公報又は特許掲 載公報)約 850件をクラスタ分析して得られた 27組の文書群につき、それぞれキーヮ ードを抽出した例について説明する。
[0118] クラスタ分析は、上記約 850件の文書をそれぞれ各文書内に含まれる索引語の TF
* IDF (P)を成分とするベクトルで表現し、これら文書ベクトル相互の類似度に基づ いてデンドログラムを作成し、当該デンドログラムにおける結合距離を dとしたときのく d > + σ の位置でデンドログラムを切断することによって行った。ここで < d >は dの d
平均値、 σ は dの標準偏差である。
d
[0119] こうして得られた 27組の文書群について、それぞれ Skey(w)上位 3語を第 1実施 形態によるキーワードとした。また、キーワード適合度 κを算出してこれに基づき第 2 実施形態によるラベルを生成した。なお、第 2実施形態によるラベルを抽出するため の索引語辞書は、上述のように題名和 sを分かち書きして得られる題名用語を用いた 。但し、文書群 Eの文書内容力 分かち書きして得られる索引語を用いた場合につい てもラベルの生成を行い、題名和 sを用いた場合と異なる結果が得られた場合は厂※ 」印を付して併記した。
文書群の掲載順はキーワード適合度 κの降順とし、ラベルの表現態様の違いを一 見して理解でさるよう〖こした。
[0120] また、第 1実施形態及び第 2実施形態によるキーワード抽出とは別に、上記 27組の 文書群を人間が読み込んで、各文書群に最適と思われるタイトルを付した。人間が 付したタイトルと文書数 Ν (Ε)及びキーワード適合度 κは各文書群の冒頭に表示し (1)0.55≤ K
(1-1)う蝕予防剤 (N(E) =4, κ =1.0)
ラベル「う蝕予防剤」
キーワード [蝕 ·ミュータンス 'ストレプトコッカス]
(1-2)皮膚外用剤 (Ν(Ε)=6, κ =0.983)
ラベル「皮膚外用剤」
キーワード [ェラグ ·ポリオキシプロピレン'ポリオキシエチレン]
(1- 3)柔軟剤 (Ν(Ε)=10, κ =0.97)
ラベル「柔軟剤組成物」
キーワード [分断'アルケニル ·ヒドロキシアルキル]
(1-4)炭素微粉体の水スラリー用添加剤 (Ν(Ε)= 7, κ =0.8857)
ラベル「炭素微粉体の水スラリー用添加剤」
キーワード [モノマ^ ~· ·スルホン ·必須]
(1-5)高嵩密度粒状洗剤 (Ν(Ε)=21, κ =0.876)
ラベル「高嵩密度粒状洗剤組成物」 ※粒状洗剤組成物 キーワード [脂肪酸'洗剤 ·嵩]
(1- 6)水難溶性シート (Ν(Ε)=6, κ =0.8)
ラベル「水解性 ·吸水性シート状体」
キーワード [水難 ·カルボキシェチルセルロース ·カルボキシメチルセルロース]
(1-7)水硬性無機質材料 (Ν (Ε) =9, κ
ラベル「水硬性無機質材料用配合剤」
キーワード [ェマルジヨン'転移 ·架橋] (ト 8)脱墨剤(N(E)=12, κ =0.6583)
ラベル「フローテーシヨン用脱墨剤」
キーワード [ΕΟ·Ρ〇·ΧΟ]
(1- 9)高嵩密度粒状洗剤 (Ν(Ε)=21, κ =0.65) ラベル「高嵩密度洗剤組成物の製造方法」 キーワード [洗剤'嵩 '捏]
(1- 10)導電性榭脂(Ν(Ε)=13, κ =0.6384) ラベル「導電性榭脂組成物」
キーワード [ブラック 'カーボン ·練]
(1-11)セメント Ζセラミックス成形(Ν(Ε)= 26, κ =0. ラベル「セラミックス成形用バインダー」
キーワード [メタ ·アクリル ·クリル]
(1-12)高嵩密度粒状洗剤 (Ν(Ε)=23, κ =0.626) ラベル「高嵩密度粒状洗剤組成物」
キーワード [ニォ '界面 ·洗剤]
(ト 13)スルホンィ匕(Ν(Ε) =11, κ =0.5909) ラベル「低分子量のスチレン系重合体の製造方法」 キーワード [スノレホン ·溶媒 ·スチレン]
(1-14)歯ブラシ(Ν(Ε)= 11, κ =0.5636)
ラベル「歯刷子」
キーワード [植毛'刷 '刷毛] (2) 0.35≤ Kく 0.55
(2-1)漂白剤 (N(E)=10, K =0.49)
ラベル「漂白剤組成物関連」
キーワード [漂白 '洗剤'剤]
(2-2)義歯安定剤 ·義歯洗浄剤 (Ν(Ε)=11, κ =0.41)
ラベル「義歯洗净剤関連」
キーワード [義歯 ·ポリプロピレンオキサイド ·配合]
(2-3)口腔用組成物(Ν(Ε)=62, κ =0. 395)
ラベル「口腔用糸且成物関連」
キーワード [口腔'組成 '配合]
(2- 4)キチン'キトサン(N(E) =13, κ =0. 3769)
ラベル「キチン又はキトサン類の精製法関連」
キーワード [キト'サン 'キチン]
(2— 5)カロチン(Ν(Ε)=9, κ =0. 3666)
ラベル「カロチンの精製方法関連」 ※天然油脂の処理方法 キーワード [カロチン.濃縮.パームカロチン]
(3) 0.2< κ <0.35
(3-1)毛髪ィ匕粧料 Zエアゾールィ匕粧 (N(E)= 15, κ =0. 3466)
ラベル「化粧料 ·毛髪化粧料等」
キーワード [料'ィ匕粧 'シリカビーズ]
(3-2)歯磨組成物(Ν(Ε)=56, κ =0. 3071) ラベル「歯磨組成物 ·洗浄剤組成物等」
キーワード [歯磨 ·組成 ·重量]
(3- 3)脂肪酸エステル'石鹼 (Ν(Ε)=33, κ =0. 2696)
ラベル「石けん組成物 ·エステルの製造方法等」
キーワード [脂肪酸 ·エステル '石けん]
(3- 4)毛髪ィ匕粧料関連 (Ν(Ε)=108, κ =0.438)
ラベル「洗浄剤組成物 ·液体洗浄剤組成物等」
キーワード [炭素 ·アルキル ·ァルケ-ル]
(3- 5)柔軟剤 ·液晶パネル洗浄剤他 (Ν(Ε)=38, κ =0. 381)
ラベル「柔軟剤組成物'スプレー型撥水撥油剤組成物等」
キーワード [アルキレンォキシド '炭素 ·脂肪]
(3- 6)洗浄剤一般 (N(E) =41, κ =0. 3292)
ラベル「洗浄剤組成物 ·液体洗浄剤組成物等」
キーワード [界面 ·エアゾール ·ァ-オン]
(3- 7)口腔用組成物その他(Ν(Ε)=67, κ =0. 3194)
ラベル Γ口腔用組成物 ·分散剤等」 ※ 口腔用組成物 ·消臭剤組成物 キーワード [酸.塩.口腔]
(4) κ≤0.2
(4- 1)その他(Ν(Ε)=229, κ =0. 011)
ラベル「その他」
キーワード [文書.荷積.ムタン] 以上のように、第 2実施形態による各文書群のラベルは、各文書群に人間が付した タイトルとほぼ一致する傾向が見られた。
また、第 1実施形態による各文書群のキーワードは、発明対象についての一般的な 名称にとどまらず、より具体的に技術内容を示す用語が選ばれた。
[0123] なお、異なる文書群につき同一のラベルが抽出されてしまった例((1-5)と(1-12) にっき「高嵩密度粒状洗剤組成物」、 (3-4)と (3-6)にっき「洗浄剤組成物'液体洗浄 剤糸且成物等」)や、異なる文書群につき一部同一のラベルが抽出されてしまった例(( 1-3)「柔軟剤組成物」に対し (3-5)「柔軟剤組成物 ·スプレー型撥水撥油剤組成物等 」、(2-3)「口腔用組成物関連」に対し (3-7)「口腔用組成物 ·分散剤等」)もある。しか し、第 1実施形態によるキーワード情報まで参照すれば、技術内容を明確に区別可 能である。
[0124] また、使用した形態素解析ソフトの都合により、一見無意味な語が第 1実施形態に よるキーワードとして抽出されてしまった例((1-11)にっき「メタ」「クリル」、(1-12)に つき「二ォ」、(2- 4)にっき「キト」「サン」)もある。しかし、これらの語は、抽出されるべ き正し 、キーワードの一部として出現して 、ることに注目すべきである。これらの語を 正しく抽出するためには、 Skey(w)算出後に、キーワード抽出部 90において統合語 辞書フィルタを使用し、フィルタにマッチする順に Skey (w)上位力も抽出すればよい 。ここに挙げた例では、(1-11)にっき「メタクリル」、(1-12)にっき「ノ-オン」、 (2-4) にっき「キトサン」力 S抽出されること〖こなる。
[0125] 図 6は、本発明のキーワード抽出装置により抽出されたキーワードを、文書相互の 関係を示した文書相関図に記入した例を示す参考図である。この文書相関図は、上 記具体例に示した 27組の文書群相互の内容的関係及び時間的関係を示している。
[0126] 作成方法を概略のみ説明すると、まず、これら 27組の文書群それぞれにっき、各 組に属する文書が持つ出願日データの平均値を算出して各組の時間データとした。 次に、 27組のうち最も時間データの古い文書群 (ここでは「(ト 1)う蝕予防剤」であつ た。)を除外し、残り 26組の各文書群を、それぞれベクトル表現した。各組の文書群 E をベクトル表現するには、各組における GF (E) * IDF (P)を各索引語について算出 し、これら GF (E) * IDF (P)を成分とする多次元ベクトルとした。
こうして作成された 26個のベクトル相互間の類似度に基づいてデンドログラムを作 成し、当該デンドログラムにおける結合距離を dとしたときの < d> + σ の位置でデン
d
ドログラムを切断してクラスタを抽出した。ここで < d>は dの平均値、 σ は dの標準偏
d
差である。抽出されたクラスタの数 (ここでは 4つであった。)だけ、最古文書群「(ト 1) う蝕予防剤」から枝線を引いた。
続いて各クラスタについて、上記と同様に、最古文書群 (ここでは各クラスタについ て「(1-4)炭素微粉体の水スラリー用添加剤」、「 (2-4)キチン又はキトサン類の精製 法関連」、「(2-5)カロチンの精製方法関連」、「(4-1)その他」が選ばれた。)の除外、 デンドログラムの作成及びクラスタの抽出を行った。同様の操作をクラスタ内の文書 群が 3組以下になるまで繰り返した。文書群が 3組以下となったクラスタについては、 文書群の時間データの古い順で、これら文書群を一列に配置した。
[0127] こうして作成された文書相関図は、文書の内容に基づく分類が行われているととも に時間順に配置したものであり、調査対象となった家庭用化学品メーカーにおける 開発トレンドの推移を分析するのに有用である。図 6の参考例では、各組の文書群に ついて本発明の第 2実施形態の方法により抽出されたラベル (第 1実施形態のキーヮ ードでもよい。)を文書相関図に記入してあるので、開発トレンドの推移を一目で把握 することができる。
[0128] < 7.第 3実施形態の構成 >
本発明の第 3実施形態は、複数の文書群 E (u= l, 2, · · · , n。nは文書群の数。) 力もなる文書群集団 Sのデータを用いて、各分析対象の文書群 Eからキーワードを 抽出するものである。複数の文書群 Eは、文書群集団 Sをクラスタリングして得られた 個々のクラスタとするのが好ましいが、逆に文書群 Eを複数集めて文書群集団 Sを構 成してちょい。
[0129] 図 7は本発明の第 3実施形態に係るキーワード抽出装置の構成と機能を詳細に説 明する図である。第 1実施形態に係る図 2と同様の部分には同一の符号を付してそ の説明を省略する。
第 3実施形態のキーワード抽出装置は、第 1実施形態の構成要素に加え、評価値 算出部 200、集中度算出部 210、シェア算出部 220、第 1逆数算出部 230、第 2逆数 算出部 240、独創度算出部 250、キーワード抽出部 260を、処理装置 1内に備えて いる。また、第 1実施形態の構成要素のうちキーワード抽出部 90は設けられていなく てもよく、 Skey (w)算出部 80の算出結果はそのまま作業結果格納部 320に格納さ れる。
[0130] 評価値算出部 200は、文書群 Eを複数備えた文書群集団 Sに関し、索引語抽出 部 20において抽出された各文書の索引語 wを作業結果格納部 320から読み出す。 或いは評価値算出部 200は、 Skey (w)算出部 80において各文書群 Eについてそ れぞれ算出された索引語の Skey (w)を作業結果格納部 320から読み出す。必要に 応じて、評価値算出部 200は、文書読み出し部 10により読み出された各文書群 Eの データを作業結果格納部 320から読み出し、その文書数 N (E )を計数してもよい。ま た、高頻度語抽出部 30における高頻度語抽出の過程で算出された GF (E )や IDF ( P)を作業結果格納部 320から読み出してもよ 、。
そして、評価値算出部 200は、読み出した情報に基づき、各索引語 wの各文書群 Eにおける出現頻度に基づく評価値 A(w , E )をそれぞれ算出する。算出された評 価値は、作業結果格納部 320に送られて格納され、或いは直接集中度算出部 210 及びシェア算出部 220に送られてそこでの処理に用いられる。
[0131] 集中度算出部 210は、評価値算出部 200で算出された各索引語 wの各文書群 E における評価値 A (w , E )を、作業結果格納部 320から読み出し、又は評価値算出 部 200から直接受信する。
そして、集中度算出部 210は、得られた評価値 A (w , E )に基づき、各索引語 wに ついて、文書群集団 Sでの各索引語 wの分布の集中度を算出する。この集中度は、 各索引語 wについて、各文書群 Eにおける評価値 A(w , E )の、上記文書群集団 S に属する全ての文書群 Eでの和を算出し、当該和に対する各文書群 Eにおける評 価値 A (w , E )の比を各文書群 Eについて算出し、当該比の二乗をそれぞれ算出 し、当該比の二乗の上記文書群集団 Sに属する全ての文書群 Eにおける和を算出 すること〖こよって得られるものである。算出された集中度は、作業結果格納部 320に 送られて格納される。
[0132] シェア算出部 220は、評価値算出部 200で算出された各索引語 wの各文書群 E における評価値 A (w , E )を、作業結果格納部 320から読み出し、又は評価値算出 部 200から直接受信する。
そして、シェア算出部 220は、得られた評価値 A (w^ Eu)に基づき、各索引語 ^に ついて、各文書群 Eでのシェアを算出する。このシェアは、分析対象の文書群 Eに おける各索引語 wの評価値 A(w , E )の、上記文書群集団 Sに属する各文書群 E 力 抽出された全ての索引語 wについての和を算出し、当該和に対する各索引語 w の評価値 A (w , E )の比を各索引語 wについて算出することによって得られるもので ある。算出された集中度は、作業結果格納部 320に送られて格納される。
[0133] 第 1逆数算出部 230は、文書群 Eを複数備えた文書群集団 Sに関し、索引語抽出 部 20において抽出された各文書の索引語 wを作業結果格納部 320から読み出す。 そして、第 1逆数算出部 230は、読み出した文書群集団 Sの各文書の索引語 wの データに基づき、各索引語 wについての文書群集団 Sでの出現頻度の逆数の関数 値 (例えば後述の規格化 IDF (S) )を算出する。算出された文書群集団 Sでの出現頻 度の逆数の関数値は、作業結果格納部 320に送られて格納され、或いは直接独創 度算出部 250に送られてそこでの処理に用いられる。
[0134] 第 2逆数算出部 240は、文書群集団 Sを含む大文書集団での出現頻度の逆数の 関数値を算出する。大文書集団としては全文書 Pを用いる。この場合、高頻度語抽 出部 30における高頻度語抽出の過程で算出された IDF (P)を作業結果格納部 320 力も読み出し、その関数値 (例えば後述の規格ィ匕 IDF (P) )を算出する。算出された 大文書集団 Pでの出現頻度の逆数の関数値は、作業結果格納部 320に送られて格 納され、或いは直接独創度算出部 250に送られてそこでの処理に用いられる。
[0135] 独創度算出部 250は、第 1逆数算出部 230及び第 2逆数算出部 240において算出 された各出現頻度の逆数の関数値を、作業結果格納部 320から読み出し、又は第 1 逆数算出部 230及び第 2逆数算出部 240から直接受信する。また、高頻度語抽出部 30における高頻度語抽出の過程で算出された GF (E)を作業結果格納部 320から
BJCみ出す。
そして、独創度算出部 250は、第 1逆数算出部 230の算出結果力も第 2逆数算出 部 240の算出結果を減算したものの関数値を、独創度として算出する。この関数値 は、上記第 1逆数算出部 230の算出結果力も第 2逆数算出部 240の算出結果を減 算したものに対し、第 1逆数算出部 230の算出結果と第 2逆数算出部 240の算出結 果との和で除算したものでも良 、し、各文書群 Euでの GF (Eu)を乗算したものでも良 い。算出された独創度は、作業結果格納部 320に送られて格納される。
[0136] キーワード抽出部 260は、 Skey (w)算出部 80で算出された Skey(w)、集中度算 出部 210で算出された集中度、シェア算出部 220で算出されたシェア及び独創度算 出部 250において算出された独創度の各データを、作業結果格納部 320から読み 出す。
そして、キーワード抽出部 260は、上記読み出した Skey(w)、集中度、シェア、独 創度の 4指標から選択される 2つ以上の指標に基づき、キーワードを抽出する。キー ワードの抽出方法は、例えば、選択された複数の指標の合計値が所定の閾値以上 か否か又は所定の順位以内力否かによっても良いし、選択された複数の指標の組み 合わせに基づ!/、て、キーワードをカテゴライズして抽出してもよ!/、。
抽出されたキーワードのデータは、記録装置 3の作業結果格納部 320に送られて 格納され、必要に応じて出力装置 4にて出力される。
[0137] < 8.第 3実施形態の作用 >
図 8は第 3実施形態のキーワード抽出装置における処理装置 1の動作手順を示す フローチャートである。本第 3実施形態によるキーワード抽出装置は、複数の文書群 E (u= l, 2, · · · , n。nは文書群の数。)からなる文書群集団 Sのデータを用いて、 各分析対象の文書群 Eカゝらキーワードを抽出する。複数の文書群 Eは、例えば、あ る文書群集団 Sをクラスタリングして得られた個々のクラスタとする。
[0138] まず、上記第 1実施形態と同様の処理により、文書群集団 Sに属する各文書群 Eに ついて、それぞれステップ S10からステップ S80までの処理を実行し、各文書群 Eに おける各索引語の Skey(w)を算出する。 Skey(w)を算出するまでの処理について は図 3と同様であるのでその説明を省略する。
[0139] < 8— 1.評価値算出 >
第 3実施形態のキーワード抽出装置は、 Skey(w)を算出した後、評価値算出部 20 0において、各文書群 Eにおける上記索引語 wの出現頻度の関数値に基づく評価 値 A (w , E )を、各文書群 E及び各索引語 wにっき算出する (ステップ S200)。 評価値 A(w , E )としては、例えば、上述の Skey(w)をそのまま用いる力、 Skey( w)/N(E )、或いは GF(E) * IDF (P)を用いる。例えば、各文書群 E及び各索引 語 wにっき、次のようなデータを得る。なお、説明の便宜上、索引語の種数 W=5とし 、文書群数 n= 3とした。
[表 7]
Figure imgf000050_0001
<8— 2.集中度算出 >
次に集中度算出部 210において、各索引語 ^について次のようにして集中度を算 出する (ステップ S210)。
まず、各索引語 wについて、各文書群 Eにおける評価値 A(w, E )の、上記文書 群集団 Sに属する全ての文書群 Eについての和∑ nA(w, E )を算出し、当該和 に対する各文書群 Eにおける評価値 A (w, E )の比
A(w, E )/∑ _ nA(w, E )
を各文書群 E及び各索引語 wについて算出する。そして、各索引語 wについて、当 該比の上記文書群集団 Sに属する全ての文書群 Eにおける二乗和
∑ _ n{A(w, E )/∑ _ nA(w, E )}2
力 索引語 ^の文書群集団 Sでの集中度となる。これを上表の例で示すと次のように なり、各索引語 wについて集中度が算出される。
[表 8]
索引語 w;の評価値の和に対する比
A (wい E„) ∑ u= 1 3 A (wい Eu)
w 1 W 2 w3 W 4 W 5 文書群 4/20 2/8 1 0/ 1 8 0/2 4/ 1 2
Ε2 1 2/20 2ノ 8 3ノ 1 8 0ノ 2 8/ 1 2
Ε3 4ノ 20 4ノ 8 5ノ 1 8 2ノ 2 0ノ 1 2 集中度 (16+144+16) (4+4+16)ノ (100+9+25) (0+0+4)ノ 4 (16+64+0)ノ
/400=0.44 64=0.38 /324=0.41 =1.00 144=0.56 < 8- 3.シェア算出 >
次にシェア算出部 220において、各索引語 ^について各文書群 Euでのシェアを次 のようにして算出する(ステップ S 220)。
まず、各文書群 Eにおいて、各索引語 wの評価値 A(w , E )の、上記文書群集団 S力も抽出された全ての索引語 wについての和∑ wA (w , E )を算出する。そして 、当該和に対する各索引語 wの評価値 A(w , E )の比であるシェア
A(w , E ) /∑ WA(w , E )
を算出する。これを上表の例で示すと次のようになり、各索引語 wについて各文書群 Eでのシェアが決定される。
[表 9]
Figure imgf000051_0001
[0142] < 8— 4.独創度算出 >
次に、各索引語 Wiについて、次のようにして独創度の値を算出する。
[0143] まず、第 1逆数算出部 230において、各索引語 Wiについて、上記文書群集団 Sで の出現頻度の逆数の関数値を算出する (ステップ S 230)。
文書群集団 Sでの出現頻度としては例えば文書頻度 DF (S)を用いる。出現頻度の 逆数の関数値としては、文書群集団 Sでの逆文書頻度 IDF (S)、或いは特に好まし い例として IDF (S)を分析対象の文書群 Eカゝら抽出された全索引語で規格ィ匕した値 (規格化 IDF (S) )を用いる。ここで IDF (S)は" DF (S)の逆数 X文書群集団 Sの文 書数 N (S) "の対数である。規格ィ匕の例としては例えば偏差値を用いる。規格化する 理由は、分布を揃えることで後述の IDF (P)との組み合わせによる独創度の算出を 容易にするためである。
[0144] 次に、第 2逆数算出部 240において、各索引語 wについて、上記文書群集団 Sを 含む大文書集団 Pでの出現頻度の逆数の関数値を算出する (ステップ S 240)。 出現頻度の逆数の関数値としては、 IDF (P)或いは特に好ま 、例として IDF (P) を分析対象の文書群 Euから抽出された全索引語で規格化した値 (規格化 IDF (P) ) を用いる。規格ィ匕の例としては例えば偏差値を用いる。規格化する理由は、分布を 揃えることで上記の IDF (S)との組み合わせによる独創度の算出を容易にするため である。
次に、独創度算出部 250において、各索引語 wについて、 {IDF (S)の関数値— I DF (P)の関数値 }の関数値を、独創度として算出する (ステップ S250)。独創度の算 出に IDF (S)及び IDF (P)のみを用いる場合には、独創度は各索引語 wにつ 、て 1 つの値が算出される。文書群 Eで規格化した規格化 IDF (S)や規格化 IDF (P)を用 いる場合や、別途 GF (E )等で重み付けする場合は、独創度は各文書群 Eについ て、且つ各索引語 wについてそれぞれ算出される。
独創度は、特に、次式の DEVで与えるのが好ましい。
[数 19] 規格化 IDF(S) 規格化 IDF(P)
DEV = 規格化 GF(Eu) X
規格化 IDF(S) +規格化 IDF(P)
DEVの第一ファクタである規格ィ匕 GF (E )は、分析対象の文書群 Eでの各索引語 wの大域的頻度 GF (E )を、分析対象文書群 Eカゝら抽出された全索引語で規格ィ匕 したものである。
規格化 IDF (S) >0、且つ規格化 IDF (P) >0となるような規格ィ匕をした場合、 DEV の第二ファクタは、文書群集団 Sにおける IDFの規格ィ匕値が大文書集団 Pにおける I DFの規格ィ匕値より大きければ正、小さければ負となる。文書群集団 Sでの IDFが大 きいことは、この文書群集団 Sでは珍しい語であることを意味する。この、文書群集団 Sでは珍しい語のうち、文書群集団 Sを含む大文書集団 Pでの IDFが小さい語は、他 分野では良く使われているとしても当該文書群集団 Sに係る分野で用いることに独創 性があるということができる。また、 {規格化 IDF (S) +規格化 IDF (P) }で除算してい るので、 DEVの第二ファクタは 1以上 + 1以下の範囲となり、異なる文書群 E間で の比較が容易となる。
また、 DEVは規格ィ匕 GF (E )に比例するため、対象文書群での頻度の高い語程、 高い数値ともなる。 特に、文書群集団 Sが複数の文書群 Eu(u= l, 2, · · ·)からなる場合に、これら文 書群 Eの各々を分析対象文書群としてそれぞれ独創度のランキングを作成すれば、 当該文書群集団 Sにおいて共通の索引語は下位に落ち、各文書群 Eに特徴的な語 が各文書群 Eでの上位にくることになるため、文書群 Eごとの特徴を把握するのに 有益である。
< 8- 5.キーワードの抽出 >
次に、キーワード抽出部 260において、以上のステップで得られた Skey(w)、集中 度、シェア、独創度の 4指標から選択される 2つ以上の指標に基づき、キーワードを抽 出する (ステップ S 260)。
好ましくは、以上の Skey(w)、集中度、シェア、独創度の 4指標すベてを用いて、 対象文書群 Eの索引語 wを、「非重要語」と、重要語のうちの「技術領域語」、「主要 語」、「独創語」、「その他の重要語」のいずれかに分類して重要語を抽出する。特に 好ま 、分類方法は次の通りである。
まず、第一判定は Skey(w)を用いる。各文書群 Eにおいて、 Skey(w)降順ランキ ングを作成し、所定の順位より下位のキーワードは「非重要語」とし、キーワードの抽 出対象から外す。当該所定の順位以内のキーワードは各文書群 Eで重要な語であ るので「重要語」とし、これを更に以下の判定で分類する。
第二判定は集中度を用いる。集中度が低い語は、文書群集団全体に分散している 語であるから、分析対象の文書群が属している技術領域を広く捉えたものとして位置 づけることができる。そこで文書群集団 Sにおける集中度の昇順ランキングを作成し、 所定の順位以内のものを「技術領域語」とする。各文書群 Eの重要語から、上記の 技術領域語と一致するキーワードを、その文書群 Eの「技術領域語」として分類する 第三判定はシェアを用いる。シェアが高い語は、分析対象の文書群でのシェアが 他の語より高いので、分析対象の文書群をよく説明できるもの(主要語)として位置づ けることができる。そこで各文書群 Eにおいて、第二判定で分類されな力つた重要語 に対するシ ア降順ランキングを作成し、所定の順位以内のものを「主要語」とする。 第四判定は独創度を用いる。各文書群 Eにおいて、第三判定で分類されなかった 重要語に対する独創度降順ランキングを作成し、所定の順位以内のものを「独創語」 とする。残りの重要語は「その他の重要語」とする。
以上の判定を表にすると次のようになる。
[表 10]
Figure imgf000054_0001
以上の判定にお!、て、第一判定に用いる重要度の指標として Skey (w)を用いたが 、これに限らず、文書群での重要度を示す他の指標を用いてもよい。例えば、 GF (E ) * IDF (P)でもよい。
また、以上の判定において、重要度、集中度、シェア及び独創度の 4指標を用いて 分類したが、これらのうち任意の 2つ以上の指標を用いることによつても、索引語の分 類が可能である。

Claims

請求の範囲
[1] 複数の文書力 なる文書群力 キーワードを抽出する装置であって、
前記文書群のデータから索引語を抽出する索引語抽出手段と、
前記索引語の各々にっき前記文書群における出現頻度の高さを評価に含む重み を算出し、当該重みの大きい索引語である高頻度語を抽出する高頻度語抽出手段と 前記高頻度語の各々と前記索引語の各々との文書単位での共起有無に基づいて 、前記高頻度語の各々と前記索引語の各々との前記文書群における共起度を算出 する高頻度語一索引語共起度算出手段と、
前記算出された共起度に基づいて前記高頻度語を分類しクラスタを生成するクラス タリング手段と、
前記索引語のうち、より多くの前記クラスタに属する高頻度語と共起し、且つより多く の文書において前記高頻度語と共起するものを、より高く評価したスコアを個々の索 引語につき算出するスコア算出手段と、
前記算出されたスコアに基づいてキーワードを抽出するキーワード抽出手段と、を 備えたキーワード抽出装置。
[2] 請求項 1において、
前記スコア算出手段が個々の索引語につき算出するスコアは、前記文書群以外の 文書を含む文書集団における出現頻度がより低い索引語を、より高く評価したスコア である、キーワード抽出装置。
[3] 請求項 1又は請求項 2において、
前記スコア算出手段が個々の索引語につき算出するスコアは、前記文書群におけ る出現頻度がより高い索引語を、より高く評価したスコアである、キーワード抽出装置
[4] 請求項 1乃至請求項 3の何れか一項において、
前記キーワード抽出手段は、前記スコア算出手段において高く評価された索引語 の前記文書群における出現頻度に基づいて、キーワード抽出数を決定する、キーヮ ード抽出装置。 [5] 請求項 4において、
前記キーワード抽出手段は、前記文書群に属する各文書のタイトルにおける語の 出現率に基づいて、前記決定された抽出数のキーワードを抽出する、キーワード抽 出装置。
[6] 請求項 1乃至請求項 3の何れか一項において、
分析対象である前記文書群と他の文書群とを備えた文書群集団について、各索引 語についての各文書群における評価値をそれぞれ算出する評価値算出手段と、 各索引語について、各文書群における評価値の、前記文書群集団に属する全て の文書群での和を算出し、当該和に対する各文書群における評価値の比を各文書 群について算出し、当該比の二乗をそれぞれ算出し、当該比の二乗の前記文書群 集団に属する全ての文書群における和を算出することによって得られる、前記文書 群集団における各索引語の分布の集中度を算出する集中度算出手段と、を更に備 え、
前記キーワード抽出手段は、前記スコア算出手段により前記分析対象の文書群に つき算出されたスコアの他に、前記集中度算出手段によって算出された集中度を評 価に加えてキーワードを抽出する、キーワード抽出装置。
[7] 請求項 1乃至請求項 3の何れか一項において、
分析対象である前記文書群と他の文書群とを備えた文書群集団について、各索引 語についての各文書群における評価値をそれぞれ算出する評価値算出手段と、 前記分析対象の文書群における各索引語の評価値の、前記文書群集団に属する 各文書群力 抽出された全ての索引語についての和を算出し、当該和に対する各 索引語の評価値の比を各索引語について算出することによって得られる、前記分析 対象の文書群における各索引語のシェアを算出するシェア算出手段と、を更に備え 前記キーワード抽出手段は、前記スコア算出手段により前記分析対象の文書群に つき算出されたスコアの他に、前記シェア算出手段によって前記分析対象の文書群 にっき算出されたシェアを評価に加えてキーワードを抽出する、キーワード抽出装置 [8] 請求項 1乃至請求項 3の何れか一項において、
各索引語について、分析対象である前記文書群と他の文書群とを備えた文書群集 団での出現頻度の逆数の関数値を算出する第 1逆数算出手段と、
各索引語について、前記文書群集団を含む大文書集団での出現頻度の逆数の関 数値を算出する第 2逆数算出手段と、
前記第 1逆数算出手段の算出結果から前記第 2逆数算出手段の算出結果を減算 したものの関数値によって、前記文書群集団における各索引語の独創度を算出する 独創度算出手段と、を更に備え、
前記キーワード抽出手段は、前記スコア算出手段により前記分析対象の文書群に つき算出されたスコアの他に、前記独創度算出手段によって算出された独創度を評 価に加えてキーワードを抽出する、キーワード抽出装置。
[9] 複数の文書力 なる文書群力 キーワードを抽出する装置であって、
分析対象である前記文書群と他の文書群とを備えた文書群集団のデータから索引 語を抽出する索引語抽出手段と、
前記文書群集団について、各索引語についての各文書群における評価値をそれ ぞれ算出する評価値算出手段と、
各索引語について、各文書群における評価値の、前記文書群集団に属する全て の文書群での和を算出し、当該和に対する各文書群における評価値の比を各文書 群について算出し、当該比の二乗をそれぞれ算出し、当該比の二乗の前記文書群 集団に属する全ての文書群における和を算出することによって得られる、前記文書 群集団における各索引語の分布の集中度を算出する集中度算出手段と、
前記分析対象の文書群における各索引語の評価値の、前記文書群集団に属する 各文書群力 抽出された全ての索引語についての和を算出し、当該和に対する各 索引語の評価値の比を各索引語について算出することによって得られる、前記分析 対象の文書群における各索引語のシェアを算出するシェア算出手段と、
前記集中度算出手段により算出された集中度と、前記シェア算出手段により前記 分析対象の文書群につき算出されたシェアとの組合せに基づいてキーワードを抽出 するキーワード抽出手段と、を備えたキーワード抽出装置。 [10] 請求項 9において、
各索引語について、前記文書群集団での出現頻度の逆数の関数値を算出する第 1逆数算出手段と、
各索引語について、前記文書群集団を含む大文書集団での出現頻度の逆数の関 数値を算出する第 2逆数算出手段と、
前記第 1逆数算出手段の算出結果から前記第 2逆数算出手段の算出結果を減算 したものの関数値によって独創度を算出する独創度算出手段と、を更に備え、 前記キーワード抽出手段は、更に前記独創度算出手段によって算出された独創度 との組合せに基づいてキーワードを抽出する、キーワード抽出装置。
[11] 複数の文書力 なる文書群力 キーワードを抽出する装置であって、
分析対象である前記文書群と他の文書群とを備えた文書群集団のデータから索引 語を抽出する索引語抽出手段と、
(a)各索引語について、前記分析対象の文書群における出現頻度の関数値を算 出する出現頻度算出手段、
(b)各索引語についての各文書群における評価値をそれぞれ算出し、各索引語に ついて、各文書群における評価値の、前記文書群集団に属する全ての文書群での 和を算出し、当該和に対する各文書群における評価値の比を各文書群について算 出し、当該比の二乗をそれぞれ算出し、当該比の二乗の前記文書群集団に属する 全ての文書群における和を算出することによって得られる、前記文書群集団における 各索引語の分布の集中度を算出する集中度算出手段、
(c)各索引語についての各文書群における評価値をそれぞれ算出し、前記分析対 象の文書群における各索引語の評価値の、前記文書群集団に属する各文書群から 抽出された全ての索引語についての和を算出し、当該和に対する各索引語の評価 値の比を各索引語について算出することによって得られる、前記分析対象の文書群 における各索引語のシ アを算出するシ ア算出手段、及び
(d)各索引語について、前記文書群集団での出現頻度の逆数の関数値力 前記 文書群集団を含む大文書集団での出現頻度の逆数の関数値を減算したものの関数 値によって独創度を算出する独創度算出手段、 のうち何れか 2つ以上の手段と、
前記何れか 2つ以上の手段により算出される、前記分析対象の文書群における出 現頻度の関数値、前記集中度、前記分析対象の文書群におけるシェア、及び前記 独創度、のうち何れか 2つ以上の組合せに基づいて、キーワードをカテゴライズして 抽出するキーワード抽出手段と、を備えたキーワード抽出装置。
[12] 請求項 11において、
前記キーワード抽出手段は、
前記分析対象の文書群における出現頻度の関数値が所定の閾値以上である索引 語を前記分析対象の文書群における重要語と判定し、
前記分析対象の文書群における前記重要語のうち、前記集中度が所定の閾値以 下である索引語を前記分析対象の文書群における技術領域語と判定し、
前記分析対象の文書群における前記技術領域語以外の前記重要語のうち、前記 分析対象の文書群におけるシェアが所定の閾値以上である索引語を前記分析対象 の文書群における主要語と判定し、
前記分析対象の文書群における前記技術領域語及び前記主要語以外の前記重 要語のうち、前記独創度が所定の閾値以上である索引語を前記分析対象の文書群 における独創語と判定し、
前記キーワードをカテゴライズして抽出する、キーワード抽出装置。
[13] 請求項 8、 10、 11及び 12のうち何れか一項において、
前記文書群集団での出現頻度の逆数の関数値は、前記文書群集団での逆文書 頻度 (IDF)を、分析対象である前記文書群の全索引語で規格ィ匕したものであり、 前記文書群集団を含む大文書集団での出現頻度の逆数の関数値は、前記大文書 集団での逆文書頻度 (IDF)を、前記分析対象である前記文書群の全索引語で規格 化したものである、キーワード抽出装置。
[14] 複数の文書力 なる文書群力 キーワードを抽出する方法であって、
前記文書群のデータから索引語を抽出する索引語抽出ステップと、
前記索引語の各々にっき前記文書群における出現頻度の高さを評価に含む重み を算出し、当該重みの大きい索引語である高頻度語を抽出する高頻度語抽出ステツ プと、
前記高頻度語の各々と前記索引語の各々との文書単位での共起有無に基づいて 、前記高頻度語の各々と前記索引語の各々との前記文書群における共起度を算出 する高頻度語一索引語共起度算出ステップと、
前記算出された共起度に基づいて前記高頻度語を分類しクラスタを生成するクラス タリングステップと、
前記索引語のうち、より多くの前記クラスタに属する高頻度語と共起し、且つより多く の文書において前記高頻度語と共起するものを、より高く評価したスコアを個々の索 弓 I語につき算出するスコア算出ステップと、
前記算出されたスコアに基づいてキーワードを抽出するキーワード抽出ステップと、 を備えたキーワード抽出方法。
複数の文書力 なる文書群力 キーワードを抽出する方法であって、
分析対象である前記文書群と他の文書群とを備えた文書群集団のデータから索引 語を抽出する索引語抽出ステップと、
前記文書群集団について、各索引語についての各文書群における評価値をそれ ぞれ算出する評価値算出ステップと、
各索引語について、各文書群における評価値の、前記文書群集団に属する全て の文書群での和を算出し、当該和に対する各文書群における評価値の比を各文書 群について算出し、当該比の二乗をそれぞれ算出し、当該比の二乗の前記文書群 集団に属する全ての文書群における和を算出することによって得られる、前記文書 群集団における各索引語の分布の集中度を算出する集中度算出ステップと、 前記分析対象の文書群における各索引語の評価値の、前記文書群集団に属する 各文書群力 抽出された全ての索引語についての和を算出し、当該和に対する各 索引語の評価値の比を各索引語について算出することによって得られる、前記分析 対象の文書群における各索引語のシェアを算出するシェア算出ステップと、
前記集中度算出ステップにより算出された集中度と、前記シ ア算出ステップにより 前記分析対象の文書群につき算出されたシェアとの組合せに基づいてキーワードを 抽出するキーワード抽出ステップと、を備えたキーワード抽出方法。 [16] 複数の文書力 なる文書群力 キーワードを抽出する方法であって、 分析対象である前記文書群と他の文書群とを備えた文書群集団のデータから索引 語を抽出する索引語抽出ステップと、
(a)各索引語について、前記分析対象の文書群における出現頻度の関数値を算 出する出現頻度算出ステップ、
(b)各索引語についての各文書群における評価値をそれぞれ算出し、各索引語に ついて、各文書群における評価値の、前記文書群集団に属する全ての文書群での 和を算出し、当該和に対する各文書群における評価値の比を各文書群について算 出し、当該比の二乗をそれぞれ算出し、当該比の二乗の前記文書群集団に属する 全ての文書群における和を算出することによって得られる、前記文書群集団における 各索引語の分布の集中度を算出する集中度算出ステップ、
(c)各索引語についての各文書群における評価値をそれぞれ算出し、前記分析対 象の文書群における各索引語の評価値の、前記文書群集団に属する各文書群から 抽出された全ての索引語についての和を算出し、当該和に対する各索引語の評価 値の比を各索引語について算出することによって得られる、前記分析対象の文書群 における各索引語のシェアを算出するシェア算出ステップ、及び
(d)各索引語について、前記文書群集団での出現頻度の逆数の関数値力 前記 文書群集団を含む大文書集団での出現頻度の逆数の関数値を減算したものの関数 値によって独創度を算出する独創度算出ステップ、
のうち何れか 2つ以上のステップと、
前記何れか 2つ以上のステップにより算出される、前記分析対象の文書群における 出現頻度の関数値、前記集中度、前記分析対象の文書群におけるシ ア、及び前 記独創度、のうち何れか 2つ以上の組合せに基づいて、キーワードをカテゴライズし て抽出するキーワード抽出ステップと、を備えたキーワード抽出方法。
[17] 複数の文書力もなる文書群力もキーワードを抽出するプログラムであって、
前記文書群のデータから索引語を抽出する索引語抽出ステップと、
前記索引語の各々にっき前記文書群における出現頻度の高さを評価に含む重み を算出し、当該重みの大きい索引語である高頻度語を抽出する高頻度語抽出ステツ プと、
前記高頻度語の各々と前記索引語の各々との文書単位での共起有無に基づいて 、前記高頻度語の各々と前記索引語の各々との前記文書群における共起度を算出 する高頻度語一索引語共起度算出ステップと、
前記算出された共起度に基づいて前記高頻度語を分類しクラスタを生成するクラス タリングステップと、
前記索引語のうち、より多くの前記クラスタに属する高頻度語と共起し、且つより多く の文書において前記高頻度語と共起するものを、より高く評価したスコアを個々の索 弓 I語につき算出するスコア算出ステップと、
前記算出されたスコアに基づいてキーワードを抽出するキーワード抽出ステップと、 をコンピュータに実行させる、キーワード抽出プログラム。
複数の文書力もなる文書群力もキーワードを抽出するプログラムであって、 分析対象である前記文書群と他の文書群とを備えた文書群集団のデータから索引 語を抽出する索引語抽出ステップと、
前記文書群集団について、各索引語についての各文書群における評価値をそれ ぞれ算出する評価値算出ステップと、
各索引語について、各文書群における評価値の、前記文書群集団に属する全て の文書群での和を算出し、当該和に対する各文書群における評価値の比を各文書 群について算出し、当該比の二乗をそれぞれ算出し、当該比の二乗の前記文書群 集団に属する全ての文書群における和を算出することによって得られる、前記文書 群集団における各索引語の分布の集中度を算出する集中度算出ステップと、 前記分析対象の文書群における各索引語の評価値の、前記文書群集団に属する 各文書群力 抽出された全ての索引語についての和を算出し、当該和に対する各 索引語の評価値の比を各索引語について算出することによって得られる、前記分析 対象の文書群における各索引語のシェアを算出するシェア算出ステップと、
前記集中度算出ステップにより算出された集中度と、前記シ ア算出ステップにより 前記分析対象の文書群につき算出されたシェアとの組合せに基づいてキーワードを 抽出するキーワード抽出ステップと、をコンピュータに実行させる、キーワード抽出プ ログラム。
複数の文書力もなる文書群力もキーワードを抽出するプログラムであって、 分析対象である前記文書群と他の文書群とを備えた文書群集団のデータから索引 語を抽出する索引語抽出ステップと、
(a)各索引語について、前記分析対象の文書群における出現頻度の関数値を算 出する出現頻度算出ステップ、
(b)各索引語についての各文書群における評価値をそれぞれ算出し、各索引語に ついて、各文書群における評価値の、前記文書群集団に属する全ての文書群での 和を算出し、当該和に対する各文書群における評価値の比を各文書群について算 出し、当該比の二乗をそれぞれ算出し、当該比の二乗の前記文書群集団に属する 全ての文書群における和を算出することによって得られる、前記文書群集団における 各索引語の分布の集中度を算出する集中度算出ステップ、
(c)各索引語についての各文書群における評価値をそれぞれ算出し、前記分析対 象の文書群における各索引語の評価値の、前記文書群集団に属する各文書群から 抽出された全ての索引語についての和を算出し、当該和に対する各索引語の評価 値の比を各索引語について算出することによって得られる、前記分析対象の文書群 における各索引語のシェアを算出するシェア算出ステップ、及び
(d)各索引語について、前記文書群集団での出現頻度の逆数の関数値力 前記 文書群集団を含む大文書集団での出現頻度の逆数の関数値を減算したものの関数 値によって独創度を算出する独創度算出ステップ、
のうち何れか 2つ以上のステップと、
前記何れか 2つ以上のステップにより算出される、前記分析対象の文書群における 出現頻度の関数値、前記集中度、前記分析対象の文書群におけるシ ア、及び前 記独創度、のうち何れか 2つ以上の組合せに基づいて、キーワードをカテゴライズし て抽出するキーワード抽出ステップと、をコンピュータに実行させる、キーワード抽出 プログラム。
PCT/JP2005/018712 2004-11-05 2005-10-11 キーワード抽出装置 WO2006048998A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006542917A JPWO2006048998A1 (ja) 2004-11-05 2005-10-11 キーワード抽出装置
EP05793129A EP1830281A1 (en) 2004-11-05 2005-10-11 Keyword extracting device
US11/667,097 US20080195595A1 (en) 2004-11-05 2005-10-11 Keyword Extracting Device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-322924 2004-11-05
JP2004322924 2004-11-05

Publications (1)

Publication Number Publication Date
WO2006048998A1 true WO2006048998A1 (ja) 2006-05-11

Family

ID=36319012

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/018712 WO2006048998A1 (ja) 2004-11-05 2005-10-11 キーワード抽出装置

Country Status (6)

Country Link
US (1) US20080195595A1 (ja)
EP (1) EP1830281A1 (ja)
JP (1) JPWO2006048998A1 (ja)
KR (1) KR20070084004A (ja)
CN (1) CN101069177A (ja)
WO (1) WO2006048998A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100462979C (zh) * 2007-06-26 2009-02-18 腾讯科技(深圳)有限公司 分布式索引文件的检索方法、检索系统及检索服务器
JP2011242975A (ja) * 2010-05-18 2011-12-01 Nippon Telegr & Teleph Corp <Ntt> 代表語抽出装置、代表語抽出方法および代表語抽出プログラム
JP2012073804A (ja) * 2010-09-28 2012-04-12 Toshiba Corp キーワード提示装置、方法及びプログラム
JP2014096105A (ja) * 2012-11-12 2014-05-22 Nippon Telegr & Teleph Corp <Ntt> バーストワード抽出装置、方法、及びプログラム
JP5792871B1 (ja) * 2014-05-23 2015-10-14 日本電信電話株式会社 代表スポット出力方法、代表スポット出力装置および代表スポット出力プログラム
JP2016103205A (ja) * 2014-11-28 2016-06-02 富士通株式会社 データ分類装置、データ分類プログラム、および、データ分類方法
EP3046037A1 (en) 2015-01-15 2016-07-20 Fujitsu Limited Similarity determination apparatus, similarity determination method, and computer-readable recording medium
JP2016218512A (ja) * 2015-05-14 2016-12-22 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8275661B1 (en) 1999-03-31 2012-09-25 Verizon Corporate Services Group Inc. Targeted banner advertisements
WO2000058863A1 (en) 1999-03-31 2000-10-05 Verizon Laboratories Inc. Techniques for performing a data query in a computer system
US8572069B2 (en) 1999-03-31 2013-10-29 Apple Inc. Semi-automatic index term augmentation in document retrieval
US6718363B1 (en) 1999-07-30 2004-04-06 Verizon Laboratories, Inc. Page aggregation for web sites
US6912525B1 (en) 2000-05-08 2005-06-28 Verizon Laboratories, Inc. Techniques for web site integration
US7657506B2 (en) * 2006-01-03 2010-02-02 Microsoft International Holdings B.V. Methods and apparatus for automated matching and classification of data
US8775930B2 (en) * 2006-07-07 2014-07-08 International Business Machines Corporation Generic frequency weighted visualization component
US7954052B2 (en) * 2006-07-07 2011-05-31 International Business Machines Corporation Method for processing a web page for display in a wiki environment
US20080010388A1 (en) * 2006-07-07 2008-01-10 Bryce Allen Curtis Method and apparatus for server wiring model
US8560956B2 (en) 2006-07-07 2013-10-15 International Business Machines Corporation Processing model of an application wiki
US20080010345A1 (en) * 2006-07-07 2008-01-10 Bryce Allen Curtis Method and apparatus for data hub objects
US8219900B2 (en) 2006-07-07 2012-07-10 International Business Machines Corporation Programmatically hiding and displaying Wiki page layout sections
US20080010338A1 (en) * 2006-07-07 2008-01-10 Bryce Allen Curtis Method and apparatus for client and server interaction
US8196039B2 (en) * 2006-07-07 2012-06-05 International Business Machines Corporation Relevant term extraction and classification for Wiki content
US20080010387A1 (en) * 2006-07-07 2008-01-10 Bryce Allen Curtis Method for defining a Wiki page layout using a Wiki page
US20080010386A1 (en) * 2006-07-07 2008-01-10 Bryce Allen Curtis Method and apparatus for client wiring model
US7996393B1 (en) 2006-09-29 2011-08-09 Google Inc. Keywords associated with document categories
US8131722B2 (en) 2006-11-20 2012-03-06 Ebay Inc. Search clustering
JP2008165303A (ja) * 2006-12-27 2008-07-17 Fujifilm Corp コンテンツ登録装置、及びコンテンツ登録方法、及びコンテンツ登録プログラム
CA2572116A1 (en) * 2006-12-27 2008-06-27 Ibm Canada Limited - Ibm Canada Limitee System and method for processing multi-modal communication within a workgroup
US7873640B2 (en) * 2007-03-27 2011-01-18 Adobe Systems Incorporated Semantic analysis documents to rank terms
US8990225B2 (en) * 2007-12-17 2015-03-24 Palo Alto Research Center Incorporated Outbound content filtering via automated inference detection
US8290946B2 (en) * 2008-06-24 2012-10-16 Microsoft Corporation Consistent phrase relevance measures
US8171031B2 (en) 2008-06-27 2012-05-01 Microsoft Corporation Index optimization for ranking using a linear model
US8161036B2 (en) * 2008-06-27 2012-04-17 Microsoft Corporation Index optimization for ranking using a linear model
JP4656202B2 (ja) * 2008-07-22 2011-03-23 ソニー株式会社 情報処理装置および方法、プログラム、並びに記録媒体
US20100131513A1 (en) 2008-10-23 2010-05-27 Lundberg Steven W Patent mapping
US8849649B2 (en) * 2009-12-24 2014-09-30 Metavana, Inc. System and method for determining sentiment expressed in documents
US9201863B2 (en) * 2009-12-24 2015-12-01 Woodwire, Inc. Sentiment analysis from social media content
US8463786B2 (en) 2010-06-10 2013-06-11 Microsoft Corporation Extracting topically related keywords from related documents
CN102314448B (zh) * 2010-07-06 2013-12-04 株式会社理光 一种在文档中获得一个或多个关键元素的设备和方法
WO2012050247A1 (ko) * 2010-10-13 2012-04-19 정보통신산업진흥원 인적 자원 역량 평가 시스템 및 방법
JP5545876B2 (ja) * 2011-01-17 2014-07-09 日本電信電話株式会社 クエリ提供装置、クエリ提供方法及びクエリ提供プログラム
US9904726B2 (en) 2011-05-04 2018-02-27 Black Hills IP Holdings, LLC. Apparatus and method for automated and assisted patent claim mapping and expense planning
US8645381B2 (en) * 2011-06-27 2014-02-04 International Business Machines Corporation Document taxonomy generation from tag data using user groupings of tags
US20130086093A1 (en) 2011-10-03 2013-04-04 Steven W. Lundberg System and method for competitive prior art analytics and mapping
CN103890763B (zh) * 2011-10-26 2017-09-12 国际商业机器公司 信息处理装置、数据存取方法以及计算机可读存储介质
TWI477996B (zh) * 2011-11-29 2015-03-21 Iq Technology Inc 自動分析個人化輸入之方法
CN103198057B (zh) * 2012-01-05 2017-11-07 深圳市世纪光速信息技术有限公司 一种自动给文档添加标签的方法和装置
JP5530476B2 (ja) * 2012-03-30 2014-06-25 株式会社Ubic 文書分別システム及び文書分別方法並びに文書分別プログラム
JP5526209B2 (ja) * 2012-10-09 2014-06-18 株式会社Ubic フォレンジックシステムおよびフォレンジック方法並びにフォレンジックプログラム
US20140280178A1 (en) * 2013-03-15 2014-09-18 Citizennet Inc. Systems and Methods for Labeling Sets of Objects
US20140379713A1 (en) * 2013-06-21 2014-12-25 Hewlett-Packard Development Company, L.P. Computing a moment for categorizing a document
KR101374197B1 (ko) * 2013-10-02 2014-03-12 한국과학기술정보연구원 다종 리소스들의 의미기반 시차 조정 방법, 다종 리소스들의 의미기반 시차 조정 장치 및 다종 리소스들의 의미기반 시차를 조정하는 프로그램을 저장하는 저장 매체
US10572491B2 (en) 2014-11-19 2020-02-25 Google Llc Methods, systems, and media for presenting related media content items
US9529860B2 (en) * 2014-12-01 2016-12-27 Bank Of America Corporation Keyword frequency analysis system
US10409909B2 (en) 2014-12-12 2019-09-10 Omni Ai, Inc. Lexical analyzer for a neuro-linguistic behavior recognition system
JP5923806B1 (ja) * 2015-04-09 2016-05-25 真之 正林 情報処理装置及び方法、並びにプログラム
US10628431B2 (en) 2017-04-06 2020-04-21 Salesforce.Com, Inc. Predicting a type of a record searched for by a user
US10614061B2 (en) * 2017-06-28 2020-04-07 Salesforce.Com, Inc. Predicting user intent based on entity-type search indexes
CN108334533B (zh) * 2017-10-20 2021-12-24 腾讯科技(深圳)有限公司 关键词提取方法和装置、存储介质及电子装置
JP6847812B2 (ja) * 2017-10-25 2021-03-24 株式会社東芝 文書理解支援装置、文書理解支援方法、およびプログラム
US10498898B2 (en) * 2017-12-13 2019-12-03 Genesys Telecommunications Laboratories, Inc. Systems and methods for chatbot generation
KR102018906B1 (ko) * 2018-01-10 2019-09-05 주식회사 메디씨앤씨 키워드에 대한 타겟 사용자 그룹 선정 방법 및 이를 수행하는 컴퓨팅 시스템
KR102515655B1 (ko) 2018-01-30 2023-03-30 (주)광개토연구소 미래 연구 가능성 높은 기술 키워드 추천 장치 및 방법
CN110362673B (zh) * 2019-07-17 2022-07-08 福州大学 基于摘要语义分析的计算机视觉类论文内容判别方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276487A (ja) * 1999-03-26 2000-10-06 Mitsubishi Electric Corp 事例蓄積・検索装置、並びに事例蓄積方法および事例検索方法、並びに事例蓄積プログラムを記録したコンピュータで読取可能な記録媒体および事例検索プログラムを記録したコンピュータで読取可能な記録媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6185592B1 (en) * 1997-11-18 2001-02-06 Apple Computer, Inc. Summarizing text documents by resolving co-referentiality among actors or objects around which a story unfolds
SE520533C2 (sv) * 2001-03-13 2003-07-22 Picsearch Ab Metod, datorprogram och system för indexering av digitaliserade enheter
US20040133560A1 (en) * 2003-01-07 2004-07-08 Simske Steven J. Methods and systems for organizing electronic documents

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000276487A (ja) * 1999-03-26 2000-10-06 Mitsubishi Electric Corp 事例蓄積・検索装置、並びに事例蓄積方法および事例検索方法、並びに事例蓄積プログラムを記録したコンピュータで読取可能な記録媒体および事例検索プログラムを記録したコンピュータで読取可能な記録媒体

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NIWASE S. ET AL: "KeyGraph to Tokei Shuho o Mochiita Shohisha Image no sokutei Shuho", DAI 51 KAI JINKO CHINO KISORON KENKYUKAI SHIRYO, 30 January 2003 (2003-01-30), pages 25 - 30, XP003007169 *
OHSAWA Y. ET AL: "KeyGraph: Go no Kyoki Graph no Bankatsu Togo ni yoru Keayword Chushutsu", THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS, vol. J82-D-I, no. 2, 25 February 1999 (1999-02-25), pages 391 - 399, XP003007168 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100462979C (zh) * 2007-06-26 2009-02-18 腾讯科技(深圳)有限公司 分布式索引文件的检索方法、检索系统及检索服务器
JP2011242975A (ja) * 2010-05-18 2011-12-01 Nippon Telegr & Teleph Corp <Ntt> 代表語抽出装置、代表語抽出方法および代表語抽出プログラム
JP2012073804A (ja) * 2010-09-28 2012-04-12 Toshiba Corp キーワード提示装置、方法及びプログラム
US8812504B2 (en) 2010-09-28 2014-08-19 Kabushiki Kaisha Toshiba Keyword presentation apparatus and method
JP2014096105A (ja) * 2012-11-12 2014-05-22 Nippon Telegr & Teleph Corp <Ntt> バーストワード抽出装置、方法、及びプログラム
JP5792871B1 (ja) * 2014-05-23 2015-10-14 日本電信電話株式会社 代表スポット出力方法、代表スポット出力装置および代表スポット出力プログラム
JP2016103205A (ja) * 2014-11-28 2016-06-02 富士通株式会社 データ分類装置、データ分類プログラム、および、データ分類方法
EP3046037A1 (en) 2015-01-15 2016-07-20 Fujitsu Limited Similarity determination apparatus, similarity determination method, and computer-readable recording medium
US10025784B2 (en) 2015-01-15 2018-07-17 Fujitsu Limited Similarity determination apparatus, similarity determination method, and computer-readable recording medium
JP2016218512A (ja) * 2015-05-14 2016-12-22 富士ゼロックス株式会社 情報処理装置及び情報処理プログラム

Also Published As

Publication number Publication date
US20080195595A1 (en) 2008-08-14
EP1830281A1 (en) 2007-09-05
JPWO2006048998A1 (ja) 2008-05-22
KR20070084004A (ko) 2007-08-24
CN101069177A (zh) 2007-11-07

Similar Documents

Publication Publication Date Title
WO2006048998A1 (ja) キーワード抽出装置
CN111177365B (zh) 一种基于图模型的无监督自动文摘提取方法
Alajmi et al. Toward an ARABIC stop-words list generation
JP4233836B2 (ja) 文書自動分類システム、不要語判定方法、文書自動分類方法、およびプログラム
CN105808524A (zh) 一种基于专利文献摘要的专利自动分类方法
JP4634736B2 (ja) 専門的記述と非専門的記述間の語彙変換方法・プログラム・システム
US20070112720A1 (en) Two stage search
WO2006115260A1 (ja) 情報解析報告書自動作成装置、情報解析報告書自動作成プログラムおよび情報解析報告書自動作成方法
JP2012027845A (ja) 情報処理装置、関連文提供方法、及びプログラム
Wang et al. How far we can go with extractive text summarization? Heuristic methods to obtain near upper bounds
Patil et al. A novel feature selection based on information gain using WordNet
Madsen et al. Pruning the vocabulary for better context recognition
JP4525433B2 (ja) 文書集約装置及びプログラム
Olsen et al. Full text searching and information overload
Prasad et al. A survey paper on concept mining in text documents
Tong et al. Integrating hedonic quality for user experience modelling
BAZRFKAN et al. Using machine learning methods to summarize persian texts
Burmani et al. Graph based method for Arabic text summarization
Sridharan et al. Modeling word meaning: Distributional semantics and the corpus quality-quantity trade-off
McDonald et al. Contextual Distinctiveness: a new lexical property computed from large corpora
Wang et al. Predicting thread linking structure by lexical chaining
Bazghandi et al. Extractive summarization Of Farsi documents based on PSO clustering
Choi et al. Specificity and exhaustivity of bibliographic classifications–A cross-cultural comparison with text analytic approach
Barakat What makes an (audio) book popular?
Keim et al. Analyzing document collections via context-aware term extraction

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 200580037260.5

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2006542917

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 1020077010276

Country of ref document: KR

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2005793129

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2005793129

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11667097

Country of ref document: US