WO2023119496A1 - 抽出装置 - Google Patents

抽出装置 Download PDF

Info

Publication number
WO2023119496A1
WO2023119496A1 PCT/JP2021/047621 JP2021047621W WO2023119496A1 WO 2023119496 A1 WO2023119496 A1 WO 2023119496A1 JP 2021047621 W JP2021047621 W JP 2021047621W WO 2023119496 A1 WO2023119496 A1 WO 2023119496A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
word
words
target
natural sentence
Prior art date
Application number
PCT/JP2021/047621
Other languages
English (en)
French (fr)
Inventor
淳 吉田
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2021/047621 priority Critical patent/WO2023119496A1/ja
Publication of WO2023119496A1 publication Critical patent/WO2023119496A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities

Definitions

  • the present invention relates to an extraction device, an extraction method, and a recording medium.
  • Patent Document 1 an opinion/emotion dictionary that stores opinion/emotion words related to absolute positive expressions and opinion/emotion words related to absolute negative expressions whose polarities do not change depending on the context is used for language analysis results. describes an information extraction system that extracts words related to positive expressions and words related to negative expressions by performing the processing of .
  • an object of the present invention is to solve the problem that it is difficult to analyze character information and extract words that indicate positive or negative evaluations and proposal factors such as customer requests.
  • An object of the present invention is to provide an extraction device, an extraction method, and a recording medium.
  • an extraction device which is one aspect of the present disclosure, an acquisition unit that acquires a first natural sentence input by a user; Using a second natural sentence as an input, outputting a related word that is a word that defines a relationship between words contained in the second natural sentence and a target word that is a target word of the related word.
  • an extracting unit that extracts at least the target words out of the related words and the target words from the first natural sentence acquired by the acquiring unit, using the model that has been learned as above; an output unit that outputs the target word extracted by the extraction unit; It has a configuration of
  • an extraction method that is another aspect of the present disclosure includes: The information processing device obtaining a first natural sentence entered by a user; Using a second natural sentence as an input, outputting a related word that is a word that defines a relationship between words contained in the second natural sentence and a target word that is a target word of the related word. extracting at least the target words out of the related words and the target words from the first natural sentence obtained by using the model that has been learned in such a manner; A configuration is adopted in which the extracted target words are output.
  • a recording medium that is another aspect of the present disclosure includes: information processing equipment, obtaining a first natural sentence entered by a user; Using a second natural sentence as an input, outputting a related word that is a word that defines a relationship between words contained in the second natural sentence and a target word that is a target word of the related word. extracting at least the target words out of the related words and the target words from the first natural sentence obtained by using the model that has been learned in such a manner; A computer-readable recording medium recording a program for realizing a process of outputting the extracted target word.
  • an extracting device capable of analyzing character information and extracting words indicating positive or negative evaluations and proposal factors such as customer requests.
  • a recording medium capable of analyzing character information and extracting words indicating positive or negative evaluations and proposal factors such as customer requests.
  • FIG. 1 is a block diagram showing a configuration example of an extraction device according to a first embodiment of the present disclosure
  • FIG. FIG. 4 is a diagram for explaining an example of parsing
  • FIG. 4 is a diagram for explaining an example of labeling
  • FIG. 4 is a flowchart showing an operation example of an extraction device
  • 4 is a flowchart showing an operation example of an extraction device
  • FIG. 11 is a block diagram showing another configuration example of the extraction device
  • FIG. 11 is a block diagram showing a configuration example of an extraction device according to a second embodiment of the present disclosure
  • FIG. It is a figure which shows the extraction example in an extraction apparatus.
  • FIG. 4 is a diagram for explaining an example of parsing
  • FIG. 4 is a diagram for explaining an example of labeling
  • FIG. 4 is a flowchart showing an operation example of an extraction device
  • 4 is a flowchart showing an operation example of an extraction device
  • FIG. 11 is a block diagram showing another configuration example of the extraction device
  • FIG. 4 is a diagram showing an output example in the extraction device
  • FIG. 11 is a block diagram showing a configuration example of an extraction device according to a third embodiment of the present disclosure
  • FIG. It is a figure which shows the extraction example in an extraction apparatus.
  • FIG. 4 is a diagram showing an output example in the extraction device
  • FIG. 13 is a diagram illustrating a hardware configuration example of an extraction device according to the fourth embodiment of the present disclosure
  • FIG. It is a block diagram which shows the structural example of an extraction apparatus. It is a block diagram which shows the structural example of a request extraction apparatus.
  • FIG. 1 is a diagram for explaining the outline of the present invention.
  • FIG. 2 is a block diagram showing a configuration example of the extraction device 100.
  • FIG. 3 is a diagram for explaining an example of parsing.
  • FIG. 4 is a diagram for explaining an example of labeling.
  • 5 and 6 are flowcharts showing an operation example of the extraction device 100.
  • FIG. FIG. 7 is a block diagram showing another configuration example of the extraction device.
  • At least one pair of related words and target words is extracted from an input natural sentence (or natural language sentence) and output.
  • the extraction device 100 which is an information processing device, will be described.
  • multiple natural sentences such as word of mouth (for example, second natural sentences) are input to the extraction device 100 .
  • the extraction device 100 performs a predetermined syntax analysis on the input natural sentence.
  • the extraction device 100 receives an input for labeling pairs of related words and target words after syntactic analysis.
  • the extraction device 100 performs machine learning processing using the syntactic analysis result and the labeled result as input, thereby learning and generating a trained model that extracts and outputs related words and target words from natural sentences. do.
  • the trained model may be trained to output only one of the related word and the target word determined in advance.
  • multiple natural sentences such as word of mouth (for example, first natural sentences) are input to the extraction device 100 .
  • the extracting device 100 performs syntactic analysis and the like on the input natural sentence and inputs it to the above-described trained model, thereby extracting pairs of related words and target words from the natural sentence.
  • the extraction device 100 performs preprocessing as necessary, and then outputs the extracted result.
  • a related word refers to a word that defines the relationship between words. For example, when defining the relationship of "positive” between words, words such as "good” and “happy” (for example, words indicating positive emotions) are relational words. Also, for example, when defining a relationship of "negative” between words, words such as “boring” and “unpleasant” (for example, words indicating negative emotions) are related words. Note that the relationships defined between words may include words that indicate feelings such as positive and negative, as well as words that indicate requests and other arbitrary suggestions. Relationships defined between words may include relationships other than those exemplified above. For example, as described above, a related word means a word indicating a user's emotion, such as positive or negative, or a word indicating a user's desire.
  • the target word means a word to which a related word is related.
  • a related word for relational words that define a ⁇ positive'' relationship, such as ⁇ good'' and ⁇ happy'', the ⁇ what'' portion of ⁇ what'' was good is the target word.
  • the target word is "spring quality”.
  • the target word includes a word or the like indicating the factor of the relationship indicated by the related word, and is paired with the related word.
  • the target word is a word that is the target of the relational word.
  • FIG. 2 shows a configuration example of the extraction device 100.
  • the extraction device 100 includes, as main components, for example, an operation input unit 110, a screen display unit 120, a communication I/F unit 130, a storage unit 140, an arithmetic processing unit 150, have.
  • FIG. 2 illustrates a case where the function of the extraction device 100 is realized using one information processing device.
  • the extraction device 100 may be implemented using a plurality of information processing devices, such as being implemented on a cloud.
  • the functions of the extraction device 100 include a learning device having functions as a natural sentence input reception unit 151, a syntax analysis unit 152, a labeling reception unit 153, and a relationship learning unit 154, which will be described later, and a natural sentence input reception unit 154, which will be described later.
  • It may be realized by two information processing devices, namely, an extraction device having functions as the unit 151 , the syntax analysis unit 152 , the extraction unit 155 , the preprocessing unit 156 and the output unit 157 .
  • the extraction device 100 may not include a part of the above-exemplified configuration, such as not having an operation input unit, or may have a configuration other than the above-exemplified configuration.
  • the operation input unit 110 consists of operation input devices such as a keyboard and a mouse.
  • the operation input unit 110 detects the operation of the operator who operates the extraction device 100 and outputs it to the arithmetic processing unit 150 .
  • the screen display unit 120 consists of a screen display device such as an LCD (Liquid Crystal Display).
  • the screen display unit 120 can display various information stored in the storage unit 140 on the screen in accordance with instructions from the arithmetic processing unit 150 .
  • the communication I/F unit 130 consists of a data communication circuit and the like. Communication I/F section 130 performs data communication with an external device or the like connected via a communication line.
  • the storage unit 140 is a storage device such as a hard disk or memory.
  • the storage unit 140 stores processing information and programs 145 necessary for various processes in the arithmetic processing unit 150 .
  • the program 145 realizes various processing units by being read and executed by the arithmetic processing unit 150 .
  • the program 145 is read in advance from an external device or recording medium via a data input/output function such as the communication I/F section 130 and stored in the storage section 140 .
  • Main information stored in the storage unit 140 includes, for example, natural sentence information 141, analysis result information 142, label information 143, learned models 144, and the like.
  • the natural sentence information 141 includes one or more natural sentences whose input has been accepted by the natural sentence input acceptance unit 151 .
  • the natural sentences are word-of-mouth by users of EC (Electronic commerce) sites, product reviews, SNS (Social networking services), and the like.
  • the natural sentence may be other than the above examples, such as collected product reviews and questionnaire results.
  • the natural sentence information 141 is updated when the natural sentence input receiving unit 151 receives input of natural sentences during model learning or utilization of a trained model.
  • the natural sentence information 141 includes natural sentences for learning (second natural sentences) and natural sentences for use (first natural sentences), which are distinguished from each other.
  • the natural sentences for learning may be deleted, for example, when learning by the relationship learning unit 154, which will be described later, is completed.
  • the natural sentences at the time of utilization may be deleted as appropriate.
  • the analysis result information 142 includes information according to the result of syntactic analysis of the natural sentence included in the natural sentence information 141 by the syntactic analysis unit 152, which will be described later.
  • the analysis result information 142 is updated each time the syntax analysis unit 152 (to be described later) parses a natural sentence included in the natural sentence information 141 .
  • the analysis result information 142 includes part-of-speech (for example, part-of-speech tag) that is the type of word and dependency information (for example, dependency receiving tag), etc.
  • part-of-speech for example, part-of-speech tag
  • dependency information for example, dependency receiving tag
  • FIG. 3 shows an example of parsing processing for a natural sentence including a user's request, "I want you to improve the high price and heavy weight.”
  • the above natural sentence is decomposed into words such as "price”, “expensive”, “heavy”, and "improvement” by morphological analysis during parsing. Therefore, the analysis result information 142 includes information indicating the part of speech of each decomposed word, the relationship between the words, and the like. For example, in the case of the example shown in FIG.
  • the analysis result information 142 includes information such as a part-of-speech tag indicating that the part of speech of the word "kaizen” is "verb," It includes the part of speech of each word and the dependency information between words, such as a dependency tag indicating that there is an "adverbial clause modification" relationship in the natural sentence. Note that the part-of-speech tag, the dependency tag, and the like may be known.
  • the label information 143 includes information according to the result of labeling the words included in the analysis result information 142.
  • the label information 143 is updated each time a labeling reception unit 153 (to be described later) receives labeling.
  • the label information 143 includes information indicating that a word is labeled as a related word, and information indicating that the word is a target word corresponding to the related word. and information indicating that the label is attached.
  • FIG. 4 shows an example of labeling according to parsing results illustrated in FIG. As shown in FIG. 4, for example, when the syntactic analysis as illustrated in FIG. ” is given the label of the target word. Therefore, the label information 143 includes information indicating that the word "improvement” is labeled as a related word, and the word "price” with a target word corresponding to the related word. and information indicating that a label indicating that it is present is attached.
  • the trained model 144 includes models that have undergone machine learning processing based on the labeled results.
  • the model included in the trained model 144 is learned and adjusted to extract and output related words and target words from an input natural sentence (natural sentence after syntactic analysis).
  • the trained model 144 is updated when the relationship learning unit 154, which will be described later, performs learning based on the labeled results.
  • the learned model 144 may include a model for each relationship defined by a relationship word.
  • the arithmetic processing unit 150 has an arithmetic device such as a CPU (Central Processing Unit) and its peripheral circuits.
  • the arithmetic processing unit 150 reads the program 145 from the storage unit 140 and executes it, so that the hardware and the program 145 work together to realize various processing units.
  • Main processing units realized by the arithmetic processing unit 150 include, for example, a natural sentence input reception unit 151, a syntax analysis unit 152, a labeling reception unit 153, a relationship learning unit 154, an extraction unit 155, a preprocessing unit 156, There is an output unit 157 and the like.
  • the natural sentence input reception unit 151 the syntax analysis unit 152, the labeling reception unit 153, and the relationship learning unit 154 mainly operate during model learning.
  • the natural sentence input reception unit 151, the syntactic analysis unit 152, the extraction unit 155, the preprocessing unit 156, and the output unit 157 mainly utilize learned models. works at times.
  • the natural sentence input accepting unit 151 accepts input of natural sentences.
  • the natural sentence input reception unit 151 functions as an acquisition unit that acquires natural sentences.
  • the natural sentence input accepting unit 151 accepts input of natural sentences from an external device or the like via the communication I/F unit 130, or accepts input of natural sentences according to an operation using the operation input unit 110. .
  • the natural sentence input accepting unit 151 stores the accepted natural sentence as the natural sentence information 141 in the storage unit 140 .
  • the natural-sentence input reception unit 151 receives multiple natural-sentence inputs such as word-of-mouth and questionnaire results from users of EC sites, product reviews, SNS, and the like.
  • the natural sentence input reception unit 151 may receive input of natural sentences other than those exemplified above.
  • the natural sentence input receiving unit 151 can receive input of natural sentences at the time of learning the model and at the time of utilizing the learned model.
  • the natural sentence input receiving unit 151 may store the natural sentence for learning (second natural sentence) and the natural sentence for use (first natural sentence) in the storage unit 140 in a distinguishable manner. .
  • the syntax analysis unit 152 performs syntax analysis on the natural sentence received by the natural sentence input reception unit 151. Then, syntax analysis unit 152 stores the analysis result in storage unit 140 as analysis result information 142 .
  • the syntactic analysis unit 152 performs morphological analysis on the natural sentence, and then performs dependency analysis, etc., so that the part of speech, which is the type of word, and the relationship between the words, for each word obtained by dividing the natural sentence, are analyzed.
  • Dependency information indicating
  • the syntactic analysis unit 152 performs morphological analysis to break down the natural sentence illustrated in FIG. do.
  • the syntactic analysis unit 152 determines the part of speech of each decomposed word, and determines the relationship between each word by performing dependency analysis or the like. For example, in the case of FIG.
  • the syntactic analysis unit 152 determines that the part of speech of the word "kaizen” is "verb," It is determined that there is a relationship between After that, the syntax analysis unit 152 stores the part of speech, dependency information, and the like specified by the above determination as the analysis result information 142 in the storage unit 140 . Note that the syntax analysis unit 152 may perform syntax analysis using a known syntax analyzer.
  • the syntax analysis unit 152 can perform syntax analysis on natural sentences both during model learning and during utilization of the learned model.
  • the labeling reception unit 153 receives a label for a word by receiving an operator's operation on the operation input unit 110 after the syntax analysis unit 152 has performed the syntax analysis. Then, the labeling reception unit 153 stores information indicating the received label in the storage unit 140 as the label information 143 .
  • the labeling reception unit 153 causes the screen display unit 120 or the like to display the result of the syntax analysis. Then, the labeling reception unit 153 receives labeling of the target term and the related term from the operator of the extraction device 100 . For example, in the example shown in FIG. 4, the labeling reception unit 153 assigns the label of the related word to the word "improvement” and the label of the target word corresponding to the related word to the word "price". An input to the effect that it will be given is accepted.
  • the labeling reception unit 153 receives an input indicating that the word "improvement” is to be labeled with a related word and that the word "heavy” is to be labeled with a target word corresponding to the related word. . After that, the labeling reception unit 153 stores the information corresponding to the reception result in the storage unit 140 as the label information 143 .
  • the labeling reception unit 153 can receive information to the effect that one or more pairs of labels are to be assigned to one natural sentence.
  • the labeling reception unit 153 may receive labeling for each token, which is a collection of related words.
  • the words “kaizen” and “heavy” have a relationship of adverbial clause modification
  • the words “kaizen”, “expensive” and “price” have a relationship of adverbial clause modification and subject noun. . Therefore, the labeling reception unit 153 can receive labels for the tokens "improvement” and “heavy", as well as labels for the tokens "improvement", “expensive” and “price”.
  • the labeling reception unit 153 may receive label information from an external device or the like, for example, by transmitting the syntax analysis result to the external device via the communication I/F unit 130 or the like.
  • the relationship learning unit 154 receives the result received by the labeling receiving unit 153 and the parsing result as input, and adjusts the weight value of the neural network to determine the relationship to the input parsed natural sentence.
  • the model is trained to extract and output gender words and target words.
  • relationship learning unit 154 stores the learned model in storage unit 140 as learned model 144 .
  • the relationship learning unit 154 inputs the result received by the labeling receiving unit 153 and adjusts the weight value for each token determined according to the result of the dependency analysis performed by the syntax analysis unit 152. good.
  • the relationship learning unit 154 may learn a model for each relationship defined by a related term.
  • the extraction unit 155 inputs the results of parsing by the parsing unit 152 to the model indicated by the learned model 144, thereby extracting pairs of related words and target words corresponding to natural sentences. Extract. For example, the extracting unit 155 can extract pairs of related words and target words for each token determined as a result of parsing.
  • the extraction unit 155 does not necessarily have to extract and output both the related word and the target word as long as it is configured to extract and output at least one of the pair of the related word and the target word.
  • the extraction unit 155 may be configured to extract and output only the target word.
  • the preprocessing unit 156 performs predetermined preprocessing on the results output by the extraction unit 155 .
  • the preprocessing unit 156 performs preprocessing for visualizing factors of relationships defined by related terms on the target words extracted by the extraction unit 155 .
  • the preprocessing unit 156 can cluster the output from the extraction unit 155 using K-means or the like. Further, the preprocessing unit 156 can aggregate the frequency of appearance of the target word output by the extraction unit 155 and create a graph showing the aggregation result.
  • the preprocessing unit 156 may be configured to perform preprocessing, such as processing for visualizing a plurality of outputs from the extraction unit 155 other than those exemplified above, and then output the results of the preprocessing. In this way, the preprocessing unit 156 groups the target words extracted by the extraction unit 155 based on the degree of similarity of the words, aggregates the frequency of appearance of the target words, etc., and graphs them. Visualize the factors of
  • the preprocessing unit 156 may be configured to perform preprocessing by a predetermined method according to the type of related word, for example.
  • the preprocessing unit 156 may be configured to perform preprocessing as exemplified above when a predetermined condition is satisfied.
  • the output unit 157 outputs the result of preprocessing performed by the preprocessing unit 156 .
  • the output unit 157 displays the result of the preprocessing performed by the preprocessing unit 156 on the screen display unit 120 or transmits the result to an external device via the communication I/F unit 130 .
  • the output unit 157 may output the result output by the extraction unit 155 together with the result of the preprocessing performed by the preprocessing unit 156 or instead of the result of the preprocessing.
  • FIG. 1 The above is a configuration example of the extraction device 100 . Next, an operation example of the extraction device 100 will be described with reference to FIGS. 5 and 6. FIG.
  • FIG. 5 is a flowchart showing an operation example of the extraction device 100 during learning.
  • the natural sentence input accepting unit 151 accepts an input of natural sentence (step S101).
  • the syntax analysis unit 152 performs syntax analysis on the natural sentence received by the natural sentence input reception unit 151 (step S102). For example, the syntactic analysis unit 152 performs morphological analysis on the natural sentence, and then performs dependency analysis, etc., so that the part of speech, which is the type of word, and the relationship between the words, for each word obtained by dividing the natural sentence, are analyzed.
  • Dependency information indicating
  • the labeling reception unit 153 receives the labeling of the word by detecting the operator's operation on the operation input unit 110 (step S103). For example, the labeling reception unit 153 receives a label indicating that it is a related term and a label that indicates that it is a target term.
  • the relationship learning unit 154 receives the result received by the labeling receiving unit 153 as input, and extracts related words and target words from the input natural sentence by adjusting the weight values of the weight matrix. A model is learned so as to output (step S104).
  • FIG. 6 is a flowchart showing an operation example of the extraction device 100 when utilizing the learned model.
  • the natural sentence input accepting unit 151 accepts input of natural sentences (step S201).
  • the syntax analysis unit 152 performs syntax analysis on the natural sentence received by the natural sentence input reception unit 151 (step S202). For example, the syntactic analysis unit 152 performs morphological analysis on the natural sentence, and then performs dependency analysis, etc., so that the part of speech, which is the type of word, and the relationship between the words, for each word obtained by dividing the natural sentence, are analyzed.
  • Dependency information indicating
  • the extracting unit 155 inputs the results of parsing by the parsing unit 152 into the model indicated by the learned model 144, thereby extracting pairs of related words and target words corresponding to the natural sentence (step S203). For example, the extracting unit 155 can extract pairs of related words and target words for each token determined as a result of parsing.
  • the preprocessing unit 156 performs predetermined preprocessing on the result output by the extraction unit 155 (step S204).
  • the process of step S205 may be omitted.
  • the output unit 157 outputs the result of preprocessing by the preprocessing unit 156 (step S205).
  • the output unit 157 may be configured to output the result output by the extraction unit 155 together with or instead of the result preprocessed by the preprocessing unit 156 .
  • the above is an example of the operation of the extraction device 100 when utilizing the learned model.
  • the extraction device 100 has the extraction unit 155 .
  • the extraction unit 155 can extract pairs of related words and target words from natural sentences using a model trained to extract pairs of related words and target words.
  • the extraction device 100 can extract and output the target word, which is the word indicating the factor of the related word.
  • the extraction device 100 also has a preprocessing unit 156 .
  • the output unit 157 can output the result of the preprocessing performed by the preprocessing unit 156 .
  • the user can easily comprehend the factor of the relationship defined by the related term.
  • FIG. 7 shows another configuration example of the extraction device 100 .
  • the storage unit 140 of the extraction device 100 may have a word feature amount DB 146 in addition to the configuration exemplified in this embodiment.
  • the relationship learning unit 154 may be configured to additionally input feature amounts for each word indicated by the word feature amount DB 146 and then perform model learning. In this way, by preparing the word feature amount DB 146 and learning by adding the meaning of the word, it is possible to expect an improvement in extraction accuracy.
  • FIG. 8 is a block diagram showing a configuration example of the extraction device 200.
  • FIG. 9 is a diagram showing an extraction example in the extraction device 200.
  • FIG. 10 is a diagram showing an output example in the extraction device 200. As shown in FIG.
  • the extraction device 200 which is an information processing device for output, will be described.
  • a positive model for extracting a pair of a relational word and a target word defining a relationship of "positive” and a relation defining a relationship of "negative” It has a negative model that extracts gender-object pairs.
  • the extraction device 200 inputs natural sentences such as word-of-mouth and product reviews to each model, and extracts target words indicating factors leading to positive/negative evaluations.
  • the extraction device 200 can visually present factors that are good/bad for the user by clustering the extracted target words into positive/negative.
  • FIG. 8 shows a configuration example of the extraction device 200.
  • the extraction device 200 includes main components such as an operation input unit 110, a screen display unit 120, a communication I/F unit 130, a storage unit 240, an arithmetic processing unit 250, have.
  • FIG. 8 illustrates a case where one information processing device is used to realize the function of the extraction device 200, but as in the case of the extraction device 100, the configuration of the extraction device 200 can be modified in various ways. Examples may be taken.
  • the configuration of the extraction device 200 the configuration that is characteristic of this embodiment, which is different from the configuration of the extraction device 100, will be described.
  • the storage unit 240 is a storage device such as a hard disk or memory.
  • the storage unit 240 stores processing information and programs 246 necessary for various processes in the arithmetic processing unit 250 .
  • the program 246 realizes various processing units by being read and executed by the arithmetic processing unit 250 .
  • the program 246 is read in advance from an external device or recording medium via a data input/output function such as the communication I/F unit 130 and stored in the storage unit 240 .
  • Main information stored in the storage unit 240 includes, for example, natural sentence information 141, analysis result information 142, label information 243, positive model information 244, negative model information 245, and the like.
  • the label information 243 includes information according to the result of labeling the words included in the analysis result information 142.
  • the label information 243 is updated each time a labeling reception unit 253 (to be described later) receives labeling.
  • the label information 243 includes information indicating that the word is labeled as a related word defining a relationship of "positive”, and and information indicating that a label indicating that it is a corresponding target word is given.
  • the label information 243 includes information indicating that a word is given a label indicating that it is a related word defining a relationship of "negative”, and a target word corresponding to the above related word. and information indicating that a label indicating that is attached.
  • the positive model information 244 is obtained by machine learning processing based on the results in which the related words defining the relationship "positive” and the target words corresponding to the related words are labeled among the labeled results. Includes applied models. For example, the positive model included in the positive model information 244 extracts and outputs related words and target words that define the relationship "positive" with respect to the input natural sentence (natural sentence after parsing). Learned and adjusted. For example, the positive model information 244 is based on the results of labeling of the related words defining the relationship "positive” and the target words corresponding to the related words by the positive/negative relationship learning unit 254, which will be described later. It is updated according to learning.
  • the negative model information 245 is obtained by machine learning processing based on the results in which the related words defining the relationship "negative” and the target words corresponding to the related words are labeled among the labeled results. Includes applied models. For example, the negative model included in the negative model information 245 extracts and outputs related words and target words that define the relationship "negative" with respect to the input natural sentence (natural sentence after parsing). Learned and adjusted. For example, the negative model information 245 is based on the result of labeling of the related word defining the relationship "negative” and the target word corresponding to the related word by the positive/negative relationship learning unit 254, which will be described later. It is updated according to learning.
  • the arithmetic processing unit 250 has an arithmetic device such as a CPU and its peripheral circuits.
  • the arithmetic processing unit 250 reads the program 246 from the storage unit 240 and executes it, so that the hardware and the program 246 work together to realize various processing units.
  • Main processing units realized by the arithmetic processing unit 250 include, for example, a natural sentence input reception unit 151, a syntax analysis unit 152, a labeling reception unit 253, a positive/negative relationship learning unit 254, an extraction unit 255, and a preprocessing unit.
  • the labeling reception unit 253 receives a label for a word by receiving an operator's operation on the operation input unit 110 after the syntax analysis unit 152 has performed syntax analysis. Then, the labeling reception unit 253 stores information indicating the received label in the storage unit 240 as the label information 243 .
  • the labeling reception unit 253 receives labels for the related words defining the relationship "positive” and the target words corresponding to the related words, and defines the relationship "negative". The labeling of the related word and the target word corresponding to the related word is accepted. Note that the labeling reception unit 253 may receive labeling from an external device or the like, as in the case of the labeling reception unit 153 described in the first embodiment.
  • the positive/negative relationship learning unit 254 receives the result received by the labeling receiving unit 253 and the parsing result, and adjusts the weight values of the weight matrix.
  • a model is trained to extract and output related words and target words from natural sentences after syntactic analysis.
  • the positive/negative relationship learning unit 254 selects, from among the labeled results, the related word defining the relationship “positive” and the target word corresponding to the related word.
  • a positive model is learned based on the results obtained.
  • the positive/negative relationship learning unit 254 selects, from the labeled results, the related word defining the relationship “negative” and the target word corresponding to the related word as the labeled result. Based on this, learn a negative model. In this way, the positive/negative relationship learning unit 254 learns a model for each relationship defined by a related word.
  • the extraction unit 255 like the extraction unit 155, extracts and outputs pairs of related words and target words from natural sentences. For example, the extraction unit 255 inputs the result of parsing by the parsing unit 152 into the positive model indicated by the positive model information 244 when utilizing the model. As a result, the extraction unit 255 extracts a pair of a relational word and an object word that define the relationship "positive" from the natural sentence. The extraction unit 255 also inputs the result of parsing by the parsing unit 152 into the negative model indicated by the negative model information 245 . As a result, the extraction unit 255 extracts a pair of a relational word and an object word that define the relationship of "negative" from the natural sentence. In this way, the extracting unit 255 extracts pairs of related words and target words corresponding to each relationship using a model learned for each relationship defined by the related words.
  • the extraction unit 255 extracts and outputs target words such as "spec”, “performance”, “light”, etc. by inputting a natural sentence after syntactic analysis to the positive model. Also, the extracting unit 255 inputs natural sentences to the negative model similar to the input to the positive model, thereby extracting and outputting target words such as "battery life”, “fragile”, “price”, and so on.
  • the preprocessing unit 256 performs predetermined preprocessing on the results output by the extraction unit 255. For example, the preprocessing unit 256 performs preprocessing for visualizing factors of relationships defined by related terms on the target words extracted by the extraction unit 255 .
  • the preprocessing unit 256 performs clustering using K-means or the like as preprocessing.
  • FIG. 10 shows an example of the result of performing clustering, which is preprocessing, on the extraction example shown in FIG.
  • the preprocessing unit 256 organizes and visualizes positive evaluation factors and negative evaluation factors by clustering the results extracted and output by the extraction unit 255 .
  • the preprocessing unit 256 may perform graphing and the like, as in the case of the first embodiment.
  • the output unit 257 like the output unit 157, outputs the result preprocessed by the preprocessing unit 256.
  • the preprocessing performed by the preprocessing unit 256 organizes and visualizes factors of positive evaluation and negative evaluation. Therefore, according to the output from the output unit 257, it is possible to easily confirm the factors of the positive evaluation and the factors of the negative evaluation.
  • the above is a configuration example of the extraction device 200 . Since there are a positive model and a negative model as trained models, the operation of the extraction device 200 is to learn each of them, and to use it, input a natural sentence to each of the positive model and the negative model, and output each The operation may be generally the same as that of the extraction device 100 except that preprocessing is performed every time.
  • the extraction device 200 has the extraction unit 255 .
  • the extraction device 200 can extract target words using a positive model and extract target words using a negative model.
  • the extraction device 200 extracts and outputs the target word, which is a word indicating the factor of the related word that defines the "positive” relationship, and also extracts and outputs the factor of the related word that defines the "negative” relationship. It is possible to extract and output a target word, which is a word indicating .
  • the extraction device 200 may employ a modification similar to that of the extraction device 100. Moreover, in this embodiment, the extraction device 200 has illustrated the case where it has both a positive model and a negative model. However, the extraction device 200 may have only one of the positive model and the negative model.
  • FIG. 11 is a block diagram showing a configuration example of the extraction device 300.
  • FIG. 12 is a diagram showing an extraction example in the extraction device 300.
  • FIG. 13 is a diagram showing an output example in the extraction device 300. As shown in FIG.
  • an extraction device 300 which is an information processing device that extracts and outputs at least one of the pairs, will be described.
  • the extraction device 300 described in this embodiment has a request model for extracting a pair of a relational word and an object word that define the relationship of "request”. Then, the extraction device 300 inputs natural sentences such as word-of-mouth and product reviews into the request model, thereby extracting target words indicating factors of the request (that is, what the user desires). In addition, the extraction device 300 clusters and graphs the extracted target words, thereby accurately extracting the user's desire and making it possible to present it visually.
  • FIG. 11 shows a configuration example of the extraction device 300.
  • the extraction device 300 includes main components such as an operation input unit 110, a screen display unit 120, a communication I/F unit 130, a storage unit 340, an arithmetic processing unit 350, have.
  • FIG. 11 illustrates a case where the function of the extraction device 300 is realized using one information processing device, but the configuration of the extraction device 300 is the same as in the case of the extraction device 100 and the extraction device 200. may adopt various modifications.
  • a configuration of the extraction device 300 that is characteristic of the present embodiment, which is different from the configurations of the extraction device 100 and the extraction device 200, will be described.
  • the storage unit 340 is a storage device such as a hard disk or memory.
  • the storage unit 340 stores processing information and programs 345 necessary for various processes in the arithmetic processing unit 350 .
  • the program 345 realizes various processing units by being read and executed by the arithmetic processing unit 350 .
  • the program 345 is preloaded from an external device or recording medium via the data input/output function of the communication I/F unit 130 and stored in the storage unit 240 .
  • Main information stored in the storage unit 240 includes, for example, natural sentence information 141, analysis result information 142, label information 343, requested model information 344, and the like.
  • the label information 343 includes information according to the result of labeling the words included in the analysis result information 142. For example, the label information 343 is updated each time a labeling reception unit 353, which will be described later, receives labeling.
  • the label information 343 includes information indicating that the word is given a label indicating that it is a related word defining the relationship of "request", and and information indicating that a label indicating that it is a corresponding target word is given.
  • the requested model information 344 includes models that have undergone machine learning processing based on the labeled results.
  • the request model included in the request model information 344 extracts and outputs the relational words and target words that define the relationship "request" with respect to the input natural sentence (natural sentence after syntactic analysis). Learned and adjusted.
  • the demand model information 344 is learned based on the result of labeling the relational word defining the relation "request” and the target word corresponding to the relational word by the demand relationship learning unit 354, which will be described later. Updated as you do.
  • the arithmetic processing unit 350 has an arithmetic device such as a CPU and its peripheral circuits.
  • the arithmetic processing unit 350 reads the program 345 from the storage unit 340 and executes it, so that the hardware and the program 345 work together to realize various processing units.
  • Main processing units realized by the arithmetic processing unit 350 include, for example, a natural sentence input reception unit 151, a syntax analysis unit 152, a labeling reception unit 353, a desire relationship learning unit 354, an extraction unit 355, and a preprocessing unit 356. , an output unit 357, and the like.
  • the labeling reception unit 353 receives a label for a word by receiving an operator's operation on the operation input unit 110 after the syntax analysis unit 152 has performed the syntax analysis. The labeling reception unit 353 then stores information indicating the received label in the storage unit 340 as the label information 343 .
  • the labeling reception unit 353 receives a label for the related word defining the relationship "request" and the target word corresponding to the related word.
  • the labeling reception unit 353 may receive labeling from an external device or the like, like the labeling reception unit 153 and the labeling reception unit 253 described in the first embodiment.
  • the desired relationship learning unit 354 receives the result received by the labeling receiving unit 353 and the syntax analysis result, and obtains the weight values of the weight matrix.
  • the model is trained to extract and output related words and target words from the input natural sentence after parsing.
  • the request relationship learning unit 354 learns a request model based on the labeled results.
  • the desired relationship learning unit 354 learns a desired model, which is a model according to the relationship defined by the related words.
  • the extraction unit 355 extracts and outputs pairs of related words and target words from natural sentences, similar to the extraction units 155 and 255 .
  • the extraction unit 355 inputs the results of parsing by the parsing unit 152 into the desired model indicated by the desired model information 344 when utilizing the model.
  • the extracting unit 355 extracts a pair of a related word and an object word that define the relationship of "request" from the natural sentence.
  • FIG. 12 shows an example of extraction and output when natural sentences similar to those in the second embodiment are input to the request model.
  • the extracting unit 355 inputs a natural sentence after syntactic analysis to the request model, and extracts target words such as "make it cheaper”, “make it lighter”, “increase the variety”, and so on. is extracted and output. In this way, the extraction unit 355 can extract and output target words according to the relationships defined by the related words.
  • the preprocessing unit 356 performs predetermined preprocessing on the result output by the extraction unit 355, similar to the preprocessing unit 156 and the preprocessing unit 256. For example, the preprocessing unit 356 performs preprocessing for visualizing factors of relationships defined by related terms on the target words extracted by the extraction unit 355 .
  • the preprocessing unit 356 performs clustering using K-means or the like as preprocessing. Also, the preprocessing unit 356 tabulates the frequency of occurrence of words (target words) and graphs the tabulation result.
  • FIG. 13 shows an example of the result of performing clustering and graphing as preprocessing on the extraction example shown in FIG.
  • the preprocessing unit 356 organizes and visualizes the factors of requests by clustering and graphing the extracted and output results.
  • the output unit 357 like the output unit 157 and the output unit 257, outputs the result preprocessed by the preprocessing unit 356.
  • the preprocessing performed by the preprocessing unit 356 organizes and visualizes the factors of the user's request. Therefore, according to the output from the output unit 357, it is possible to easily confirm the cause of the request by the user.
  • the above is a configuration example of the extraction device 300 .
  • the operation of the extraction device 300 may be generally the same as that of the extraction device 100 .
  • the extraction device 300 has an extraction unit 355. According to such a configuration, the extraction device 300 can extract the target word using the request model. As a result, the extraction device 300 can extract and output the target word, which is the word indicating the factor of the related word defining the relationship "request".
  • the extraction device 300 may employ a modified example similar to the extraction device 100 or the extraction device 200 .
  • the extraction device 300 may also be combined with the extraction device 200, for example.
  • FIG. 14 is a diagram showing a hardware configuration example of the extraction device 400.
  • FIG. 15 is a block diagram showing a configuration example of the extraction device 400.
  • FIG. 16 is a block diagram showing a configuration example of the request extraction device 500. As shown in FIG.
  • FIG. 14 shows a hardware configuration example of the extraction device 400 .
  • the extraction device 400 has the following hardware configuration as an example.
  • - CPU Central Processing Unit
  • 401 Arimetic unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • Program group 404 loaded into RAM 403 - Storage device 405 for storing program group 404 -
  • a drive device 406 that reads and writes a recording medium 410 outside the information processing device -
  • a communication interface 407 that connects to a communication network 411 outside the information processing apparatus
  • An input/output interface 408 for inputting/outputting data A bus 409 connecting each component
  • the extracting device 400 can realize the functions of the acquiring unit 421, the extracting unit 422, and the output unit 423 shown in FIG.
  • the program group 404 is stored in the storage device 405 or the ROM 402 in advance, for example, and is loaded into the RAM 403 or the like by the CPU 401 as necessary and executed.
  • the program group 404 may be supplied to the CPU 401 via the communication network 411 or stored in the recording medium 410 in advance, and the drive device 406 may read the program and supply it to the CPU 401 .
  • FIG. 15 shows a hardware configuration example of the extraction device 400 .
  • the hardware configuration of the extraction device 400 is not limited to the case described above.
  • the extraction device 400 may consist of some of the configurations described above, such as not having the drive device 406 .
  • the acquisition unit 421 acquires the first natural sentence input by the user.
  • the extraction unit 422 extracts at least the target words out of the related words and the target words from the first natural sentence acquired by the acquisition unit 421 . For example, with the second natural sentence as input, the extraction unit 422 extracts a related word that is a word that defines the relationship between words contained in the second natural sentence, and a target word that is a target word of the related word. Using the model trained to output words, at least the target words of the related words and the target words are extracted from the first natural sentence.
  • words that indicate positive emotions such as “good” and “happy” are related words.
  • words indicating negative emotions such as “boring” and “unpleasant” are related words.
  • the output unit 423 outputs the target word extracted by the extraction unit 422 .
  • the output unit 423 can transmit information corresponding to the target word extracted by the extraction unit 422 to an external device or display it on a screen display unit.
  • the extraction device 400 has the extraction unit 422 . According to such a configuration, the extraction device 400 can extract at least the target word out of the related word and the target word from the natural sentence. As a result, the extraction device 400 can extract and output the target word, which is the word indicating the factor of the related word.
  • the extraction device 400 described above can be realized by installing a predetermined program in an information processing device such as the extraction device 400 .
  • a program according to another aspect of the present invention acquires a first natural sentence input by a user into an information processing apparatus such as the extraction apparatus 400, uses a second natural sentence as an input,
  • the first It is a program for realizing a process of extracting at least target words out of related words and target words from natural sentences and outputting the extracted target words.
  • the information processing device such as the extraction device 400 acquires a first natural sentence input by a user, and extracts a second natural sentence.
  • a model trained to output as inputs, related words that define the relationship between words contained in the second natural sentence and target words that are the target words of the related words. 2
  • extracting at least the target words out of the related words and the target words from the acquired first natural sentence, and outputting the extracted target words.
  • FIG. 16 shows a request extraction device 500 which is an example of the extraction device 400.
  • the hardware configuration of the request extraction device 500 may be the same as that of the extraction device 400 .
  • the CPU 401 acquires the program group 404 and the CPU 401 executes the program group 404 , so that the request extraction device 500 can realize the functions of the acquisition unit 521 , the request extraction unit 522 , and the output unit 523 shown in FIG. 16 .
  • the acquisition unit 521 acquires the first natural sentence input by the user.
  • the request extracting unit 522 receives the second natural sentence as input, and outputs a related word that is a word indicating the user's desire and a target word that is a target word of the related word included in the second natural sentence. Using the learned model, at least the target words of the related words and the target words are extracted from the first natural sentence acquired by the acquisition unit.
  • the output unit 523 outputs the target word extracted by the request extraction unit 522.
  • the request extraction device 500 has the request extraction unit 522.
  • the request extraction unit 522 can extract at least the target words out of the relational words and the target words that define the relationship of the request from the user to the natural sentence.
  • the user's request can be accurately extracted from natural sentences such as word of mouth.
  • the request extraction device 500 described above can be realized by installing a predetermined program in an information processing device such as the request extraction device 500 .
  • a program which is another aspect of the present invention, acquires a first natural sentence input by a user into an information processing apparatus such as the request extracting apparatus 500, and uses a second natural sentence as an input to obtain a second natural sentence.
  • a first natural sentence obtained by using a model trained to output a related word that is a word indicating a user's desire and a target word that is a target word of the related word included in the natural sentence of is a program for realizing a process of extracting at least the target words of the related words and the target words from, and outputting the extracted target words.
  • the information processing device such as the request extraction device 500 acquires the first natural sentence input by the user, Using a model trained to take a natural sentence as an input and output related words that are words indicating a user's desire contained in the second natural sentence and target words that are target words for the related words, This is a method of extracting at least the target words out of the related words and the target words from the acquired first natural sentence, and outputting the extracted target words.
  • an acquisition unit that acquires a first natural sentence input by a user; Using a second natural sentence as an input, outputting a related word that is a word that defines a relationship between words contained in the second natural sentence and a target word that is a target word of the related word.
  • an extracting unit that extracts at least the target words out of the related words and the target words from the first natural sentence acquired by the acquiring unit, using the model that has been learned as above; an output unit that outputs the target word extracted by the extraction unit; an extraction device.
  • the extraction device uses a plurality of models learned for each relationship defined by the related word to extract at least the target word out of the pair of the related word and the target word corresponding to each relationship.
  • An extractor for extracting the (Appendix 3) The extraction device according to Appendix 1 or Appendix 2, The extracting unit uses a positive model for extracting a pair of the related word and the target word indicating a positive emotion to extract a relationship indicating a positive emotion from the first natural sentence acquired by the acquiring unit.
  • the extraction device uses a negative model for extracting a pair of the related word and the target word indicating a negative emotion to extract a relationship indicating a negative emotion from the first natural sentence acquired by the acquiring unit.
  • An extraction device for extracting at least the target word of a gender word and a target word.
  • the extraction device according to any one of appendices 1 to 4, Extracting and outputting the related words and the target words from the second natural sentence after syntactic analysis using the result of labeling the related words and the target words.
  • the extraction device has a learning unit that learns the model so as to Extracting device, wherein the extracting unit extracts at least the target word out of the related word and the target word using the model learned by the learning unit.
  • the extraction device according to Appendix 5, The learning unit learns a model using a result of labeling and feature values of words stored in advance. Extraction device.
  • the extraction device according to any one of appendices 1 to 6, a preprocessing unit that performs preprocessing for visualizing a factor of a relationship, that is, a request from a user defined by the related term, with respect to the target word extracted by the extracting unit; The extraction device, wherein the output unit outputs a result preprocessed by the preprocessing unit.
  • the extraction device performs clustering as the preprocessing on the target words extracted by the extraction unit, and the output unit outputs a result clustered by the preprocessing unit.
  • Extracting device (Appendix 9) The information processing device obtaining a first natural sentence entered by a user; Using a second natural sentence as an input, outputting a related word that is a word that defines a relationship between words contained in the second natural sentence and a target word that is a target word of the related word. extracting at least the target words out of the related words and the target words from the first natural sentence obtained by using the model that has been learned in such a manner; An extraction method for outputting the extracted target word.
  • (Appendix 10) information processing equipment obtaining a first natural sentence entered by a user; Using a second natural sentence as an input, outputting a related word that is a word that defines a relationship between words contained in the second natural sentence and a target word that is a target word of the related word. extracting at least the target words out of the related words and the target words from the first natural sentence obtained by using the model that has been learned in such a manner;
  • a computer-readable recording medium recording a program for realizing a process of outputting the extracted target word.
  • a request extraction unit that uses a model to extract at least the target words out of related words and target words from the first natural sentence acquired by the acquisition unit; an output unit that outputs the target word extracted by the request extraction unit; with request extraction device.
  • the desire extracting device tabulates and graphs appearance frequencies of the target words extracted as the preprocessing with respect to the target words extracted by the request extraction unit, The request extracting device, wherein the output unit outputs a result graphed by the preprocessing unit.
  • the information processing device obtaining a first natural sentence entered by a user; A second natural sentence is input and learned to output a related word that is a word indicating a user's desire contained in the second natural sentence and a target word that is a target word of the related word. extracting at least the target words out of related words and target words from the obtained first natural sentence using a model; A request extraction method for outputting the extracted target word.
  • extraction device 110 operation input unit 120 screen display unit 130 communication I/F unit 140 storage unit 141 natural sentence information 142 analysis result information 143 label information 144 learned model 145 program 146 word feature DB 150 Arithmetic processing unit 151 Natural sentence input reception unit 152 Syntax analysis unit 153 Labeling reception unit 154 Relationship learning unit 155 Extraction unit 156 Preprocessing unit 157 Output unit 200 Extraction device 240 Storage unit 243 Label information 244 Positive model information 245 Negative model information 246 program 250 arithmetic processing unit 253 labeling reception unit 254 positive/negative relationship learning unit 255 extraction unit 256 preprocessing unit 257 output unit 300 extraction device 340 storage unit 343 label information 344 desired model information 345 program 350 arithmetic processing unit 353 Labeling reception unit 354 Request relationship learning unit 355 Extraction unit 356 Preprocessing unit 357 Output unit 400 Extraction device 401 CPU 402 ROMs 403 RAM 404 program group 405 storage device 406 drive device 407 communication interface 408 input/output interface 409 bus 410

Abstract

抽出装置400は、ユーザにより入力される第一の自然文を取得する取得部421と、第二の自然文を入力として、前記第二の自然文に含まれる単語間の関係性を定義する単語である関係性語と前記関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、前記取得部421により取得される前記第一の自然文から、関係性語と対象語のうちの少なくとも前記対象語を抽出する抽出部422と、前記抽出部422が抽出した前記対象語を出力する出力部423と、を有する。

Description

抽出装置
 本発明は、抽出装置、抽出方法、記録媒体に関する。
 投稿された口コミなどの文字情報を解析する際に用いられる技術が知られている。
 例えば、特許文献1には、文脈によって極性が変化しない絶対ポジティブ表現に係る意見・感情単語および絶対ネガティブ表現に係る意見・感情単語を格納した意見・感情辞書を用いて言語解析結果に対して所定の処理を行うことで、ポジティブ表現に係る単語およびネガティブ表現に係る単語を抽出する情報抽出システムが記載されている。
国際公開2014/065392号公報
 特許文献1に記載のように予め辞書を用意して辞書内の単語を抽出できたとしても、ポジティブやネガティブなどの評価の要因が何であったのかを判断するためには、評価の要因を示す単語を抽出することが必要となる。ここで、評価の要因を示す単語を抽出する方法としては、例えば、BERT(Bidirectional Encoder Representations from Transformers)などにより、感情分析を通してアテンションと係り受け解析を用いて目的の単語を抽出する、という方法がある。しかしながら、係り受け解析結果は表記ゆれにセンシティブである。そのため、係り受け解析から目的の単語をルールベースで抽出することは難しかった。このように、文字情報を解析して、ポジティブやネガティブなどの評価や顧客からの要望などの提言の要因を示す言葉を抽出することが難しい、という課題が生じていた。
 そこで、本発明の目的は、文字情報を解析して、ポジティブやネガティブなどの評価や顧客からの要望などの提言の要因を示す言葉を抽出することが難しい、という課題を解決することが可能な抽出装置、抽出方法、記録媒体を提供することにある。
 かかる目的を達成するため本開示の一形態である抽出装置は、
 ユーザにより入力される第一の自然文を取得する取得部と、
 第二の自然文を入力として、前記第二の自然文に含まれる単語間の関係性を定義する単語である関係性語と前記関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、前記取得部により取得される前記第一の自然文から、関係性語と対象語のうちの少なくとも前記対象語を抽出する抽出部と、
 前記抽出部が抽出した前記対象語を出力する出力部と、
 を有する
 という構成をとる。
 また、本開示の他の形態である抽出方法は、
 情報処理装置が、
 ユーザにより入力される第一の自然文を取得し、
 第二の自然文を入力として、前記第二の自然文に含まれる単語間の関係性を定義する単語である関係性語と前記関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、取得した前記第一の自然文から、関係性語と対象語のうちの少なくとも前記対象語を抽出し、
 抽出した前記対象語を出力する
 という構成をとる。
 また、本開示の他の形態である記録媒体は、
 情報処理装置に、
 ユーザにより入力される第一の自然文を取得し、
 第二の自然文を入力として、前記第二の自然文に含まれる単語間の関係性を定義する単語である関係性語と前記関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、取得した前記第一の自然文から、関係性語と対象語のうちの少なくとも前記対象語を抽出し、
 抽出した前記対象語を出力する
 処理を実現するためのプログラムを記録した、コンピュータが読み取り可能な記録媒体である。
 上述したような各構成によると、文字情報を解析して、ポジティブやネガティブなどの評価や顧客からの要望などの提言の要因を示す言葉を抽出することが可能な抽出装置、抽出方法、記録媒体を提供することが出来る。
本発明の概要を説明するための図である。 本開示の第1の実施形態における抽出装置の構成例を示すブロック図である。 構文解析の一例を説明するための図である。 ラベル付けの一例を説明するための図である。 抽出装置の動作例を示すフローチャートである。 抽出装置の動作例を示すフローチャートである。 抽出装置の他の構成例を示すブロック図である。 本開示の第2の実施形態における抽出装置の構成例を示すブロック図である。 抽出装置における抽出例を示す図である。 抽出装置における出力例を示す図である。 本開示の第3の実施形態における抽出装置の構成例を示すブロック図である。 抽出装置における抽出例を示す図である。 抽出装置における出力例を示す図である。 本開示の第4の実施形態における抽出装置のハードウェア構成例を示す図である。 抽出装置の構成例を示すブロック図である。 要望抽出装置の構成例を示すブロック図である。
[第1の実施形態]
 本開示の第1の実施形態について、図1から図7までを参照して説明する。図1は、本発明の概要を説明するための図である。図2は、抽出装置100の構成例を示すブロック図である。図3は、構文解析の一例を説明するための図である。図4は、ラベル付けの一例を説明するための図である。図5、図6は、抽出装置100の動作例を示すフローチャートである。図7は、抽出装置の他の構成例を示すブロック図である。
 本開示の第1の実施形態においては、図1で示すように、入力された自然文(または自然言語文)から関係性語と対象語のペアのうちの少なくとも一つを抽出して出力する情報処理装置である抽出装置100について説明する。例えば、モデルの学習段階において、抽出装置100には、口コミなどの複数の自然文(例えば、第二の自然文)が入力される。すると、抽出装置100は、入力された自然文に対して、所定の構文解析を行う。また、抽出装置100は、構文解析の後、関係性語と対象語のペアに対するラベル付けの入力を受け付ける。そして、抽出装置100は、構文解析結果とラベル付けされた結果を入力とする機械学習処理を施すことで、自然文から関係性語と対象語を抽出して出力する学習済みモデルを学習、生成する。なお、学習済みモデルは、関係性語と対象語のうちの予め定められた一方のみを出力するよう学習されてもよい。
 また、例えば、活用時において、抽出装置100には、口コミなどの複数の自然文(例えば、第一の自然文)が入力される。すると、抽出装置100は、入力された自然文に対して構文解析などを行ったうえで上述した学習済みモデルに入力することで、自然文から関係性語と対象語のペアを抽出する。そして、抽出装置100は、必要に応じて前処理を行ったうえで、抽出した結果を出力する。
 なお、本実施形態において、関係性語とは、単語間の関係性を定義する単語のことを指す。例えば、単語間で「ポジティブ」という関係性を定義する場合、「良かった」、「嬉しい」などの単語(例えば、肯定的な感情を示す単語など)が関係性語となる。また、例えば、単語間で「ネガティブ」という関係性を定義する場合、「つまらなかった」、「まずい」などの単語(例えば、否定的な感情を示す単語など)が関係性語となる。なお、単語間で定義される関係性としては、ポジティブ、ネガティブなどの感情を示す単語の他に、要望、そのほか任意の提言などを示す単語が含まれてよい。単語間で定義される関係性は上記例示した以外が含まれてもよい。例えば、以上のように、関係性語とは、ポジティブやネガティブなどのユーザの感情を示す単語やユーザの要望を示す単語などのことをいう。
 また、本実施形態において、対象語とは、関係性語の関係先の単語を意味する。例えば、「良かった」や「嬉しい」等の「ポジティブ」という関係性を定義する関係性語に対し、「何が」良かったかの、「何が」の部分が対象語になる。一例として、「ここの温泉は泉質が良かった」の場合、「泉質」が対象語となる。このように、対象語は、関係性語が示す関係性の要因を示す単語などを含み、関係性語とペアになる。換言すると、対象語とは、関係性語の対象となる単語のことをいう。
 例えば、自然文から単語間で定義された意味的な関係性を抽出するためには、単語ペアの組み合わせによる意味の付与の関係性を抽出する必要がある。例として、「古いパソコンなのにスペックが良い」という文では、「スペック」という単語のみ抽出したとしても、文章作成者がスペックに対してどういう意味付け(関係性の付与)を行ったかが分からない。これは、「良い」という単語のみを抽出した場合も同様である。「スペック,良い」という組み合わせで抽出することで、ユーザは「スペック」に対して「良い」と意味づけ、つまりポジティブな関係性を付与したことがわかる。このように、自然文から単語間の意味的な関係性を特定するためには、ある単語間に対する「意味の付与」の関係性を抽出する必要がある。そこで、本実施形態で説明する抽出装置100では、自然文から上述したような関係性語と対象語のペアを抽出可能なようにモデルを学習する。
 図2は、抽出装置100の構成例を示している。図2を参照すると、抽出装置100は、主な構成要素として、例えば、操作入力部110と、画面表示部120と、通信I/F部130と、記憶部140と、演算処理部150と、を有している。
 なお、図2では、1台の情報処理装置を用いて抽出装置100としての機能を実現する場合について例示している。しかしながら、抽出装置100は、例えば、クラウド上に実現されるなど、複数台の情報処理装置を用いて実現されてもよい。例えば、抽出装置100としての機能は、後述する自然文入力受付部151と構文解析部152とラベル付け受付部153と関係性学習部154としての機能を有する学習装置と、後述する自然文入力受付部151と構文解析部152と抽出部155と前処理部156と出力部157としての機能を有する抽出装置と、の2台の情報処理装置により実現されてもよい。また、抽出装置100は、操作入力部を有さないなど上記例示した構成の一部を含まなくてもよいし、上記例示した以外の構成を有してもよい。
 操作入力部110は、キーボード、マウスなどの操作入力装置からなる。操作入力部110は、抽出装置100を操作する操作者の操作を検出して演算処理部150に出力する。
 画面表示部120は、LCD(Liquid Crystal Display、液晶ディスプレイ)などの画面表示装置からなる。画面表示部120は、演算処理部150からの指示に応じて、記憶部140に格納されている各種情報などを画面表示することが出来る。
 通信I/F部130は、データ通信回路などからなる。通信I/F部130は、通信回線を介して接続された外部装置などとの間でデータ通信を行う。
 記憶部140は、ハードディスクやメモリなどの記憶装置である。記憶部140は、演算処理部150における各種処理に必要な処理情報やプログラム145を記憶する。プログラム145は、演算処理部150に読み込まれて実行されることにより各種処理部を実現する。プログラム145は、通信I/F部130などのデータ入出力機能を介して外部装置や記録媒体から予め読み込まれ、記憶部140に保存されている。記憶部140で記憶される主な情報としては、例えば、自然文情報141、解析結果情報142、ラベル情報143、学習済みモデル144などがある。
 自然文情報141は、自然文入力受付部151が入力を受け付けた、1つまたは複数の自然文を含んでいる。一例として、自然文は、EC(Electronic commerce)サイト、商品レビュー、SNS(Social networking service)などのユーザによる口コミなどである。自然文は、収集した商品レビューやアンケート結果など上記例示した以外であってもよい。例えば、自然文情報141は、モデルの学習時や学習済みモデルの活用時に自然文入力受付部151が自然文の入力を受け付けた際に更新される。
 例えば、自然文情報141には、学習用の自然文(第二の自然文)と活用時の自然文(第一の自然文)とが互いに区別して含まれる。自然文情報141に含まれうる自然文のうち学習用の自然文は、例えば、後述する関係性学習部154による学習が終わった段階で削除されてよい。また、自然文情報141に含まれうる自然文のうち活用時の自然文も、必要に応じて適宜削除されてよい。
 解析結果情報142は、自然文情報141に含まれる自然文を後述する構文解析部152により構文解析した結果に応じた情報が含まれる。例えば、解析結果情報142は、後述する構文解析部152が自然文情報141に含まれる自然文に対して構文解析を行うごとに更新される。
 一例として、解析結果情報142には、形態素解析などにより自然文を切り分けた単語単位での、単語の種類である品詞(例えば、品詞タグ)や単語間の関係を示す係り受け情報(例えば、係り受けタグ)などが含まれる。例えば、図3は、「値段が高いのと、重たいのを改善してほしい」というユーザの要望を含む自然文に対する構文解析処理の一例を示している。図3で示すように、構文解析時の形態素解析により、上記自然文は、「値段」「高い」「重たい」「改善」などの単語に分解される。そのため、解析結果情報142には、上記分解された各単語の品詞や単語間の関係などを示す情報が含まれる。例えば、図3で示す例の場合、解析結果情報142には、「改善」という単語の品詞が「動詞」である旨を示す品詞タグなどの情報や、「改善」と「重たい」という単語間に「副詞節修飾」の関係がある旨を示す係り受けタグなど自然文を切り分けた各単語の品詞や単語間の係り受け情報などが含まれる。なお、品詞タグや係り受けタグなどは既知のものであってよい。
 ラベル情報143は、解析結果情報142に含まれる単語に対するラベル付けの結果に応じた情報が含まれる。例えば、ラベル情報143は、後述するラベル付け受付部153がラベル付けを受け付けるごとに更新される。
 本実施形態の場合、ラベル情報143には、単語に関係性語である旨を示すラベルが付与されている旨を示す情報と、単語に上記関係性語に対応する対象語である旨を示すラベルが付与されている旨を示す情報と、が含まれる。例えば、図4は、図3で例示した構文解析結果に応じたラベル付けの一例を示している。図4で示すように、例えば、図3で例示したような構文解析が行われた場合、抽出装置100の操作者などは、「改善」という単語に関係性語のラベルを付与し、「値段」という単語に対象語のラベルを付与する。そのため、ラベル情報143には、「改善」という単語に関係性語である旨を示すラベルが付与されていることを示す情報と、「値段」という単語に上記関係性語に対応する対象語である旨を示すラベルが付与されていることを示す情報と、が含まれる。
 学習済みモデル144は、ラベル付けられた結果に基づいて機械学習処理が施されたモデルを含んでいる。例えば、学習済みモデル144に含まれるモデルは、入力された自然文(構文解析後の自然文)に対して関係性語と対象語を抽出して出力するよう学習、調整されている。例えば、学習済みモデル144は、後述する関係性学習部154がラベル付けされた結果に基づく学習を行うことに応じて更新される。なお、第2の実施形態や第3の実施形態で説明するように、学習済みモデル144は、関係性語により定義される関係性ごとのモデルを含んでいてもよい。
 演算処理部150は、CPU(Central Processing Unit)などの演算装置とその周辺回路を有する。演算処理部150は、記憶部140からプログラム145を読み込んで実行することにより、上記ハードウェアとプログラム145とを協働させて各種処理部を実現する。演算処理部150で実現される主な処理部としては、例えば、自然文入力受付部151、構文解析部152、ラベル付け受付部153、関係性学習部154、抽出部155、前処理部156、出力部157などがある。なお、演算処理部150で実現される主な処理部のうち、自然文入力受付部151、構文解析部152、ラベル付け受付部153、関係性学習部154は、主にモデルの学習時に動作する。また、演算処理部150で実現される主な処理部のうち、自然文入力受付部151、構文解析部152、抽出部155、前処理部156、出力部157は、主に学習したモデルの活用時に動作する。
 自然文入力受付部151は、自然文の入力を受け付ける。換言すると、自然文入力受付部151は、自然文を取得する取得部として機能する。例えば、自然文入力受付部151は、通信I/F部130を介して外部装置などから自然文の入力を受け付けたり、操作入力部110を用いた操作に応じて自然文の入力を受け付けたりする。また、自然文入力受付部151は、受け付けた自然文を自然文情報141として記憶部140に格納する。
 例えば、自然文入力受付部151は、ECサイト、商品レビュー、SNSなどのユーザによる口コミ、アンケート結果などの複数の自然文の入力を受け付ける。自然文入力受付部151は、上記例示した以外の自然文の入力を受け付けてもよい。
 なお、自然文入力受付部151は、上述したように、モデルの学習時と学習したモデルの活用時のそれぞれにおいて自然文の入力を受け付けることが出来る。自然文入力受付部151は、学習用の自然文(第二の自然文)と、活用時の自然文(第一の自然文)とを、区別可能なように記憶部140に格納してよい。
 構文解析部152は、自然文入力受付部151が受け付けた自然文に対して構文解析を行う。そして、構文解析部152は、解析結果を解析結果情報142として記憶部140に格納する。
 例えば、構文解析部152は、自然文に対して形態素解析を行った後、係り受け解析を行うことなどにより、自然文を切り分けた単語単位での、単語の種類である品詞や単語間の関係を示す係り受け情報などを判断する。例えば、図3で例示する自然文の場合、構文解析部152は、形態素解析を行うことで、図3で例示する自然文を「値段」「高い」「重たい」「改善」などの単語に分解する。また、構文解析部152は、分解した各単語の品詞を判断するとともに、係り受け解析を行うことなどにより、各単語間の関係を判断する。例えば、図3で例示する場合、構文解析部152は、「改善」という単語の品詞が「動詞」である旨を判断したり、「改善」と「重たい」という単語間に「副詞節修飾」の関係がある旨を判断したりする。その後、構文解析部152は、上記判断により特定した品詞や係り受け情報などを解析結果情報142として記憶部140に格納する。なお、構文解析部152は、既知の構文解析器を用いて構文解析を行ってよい。
 なお、上述したように、構文解析部152は、モデルの学習時と学習したモデルの活用時の両方において、自然文に対する構文解析を行うことが出来る。
 ラベル付け受付部153は、モデルの学習時において、構文解析部152が構文解析を行った後、操作入力部110に対する操作者の操作を受け付けることなどにより、単語に対するラベルの付与を受け付ける。そして、ラベル付け受付部153は、受け付けたラベルを示す情報をラベル情報143として記憶部140に格納する。
 例えば、ラベル付け受付部153は、構文解析部152により構文解析が行われた後、構文解析の結果を画面表示部120などに表示させる。そして、ラベル付け受付部153は、対象語と関係性語に対するラベル付けを抽出装置100の操作者から受け付ける。例えば、図4で例示する場合、ラベル付け受付部153は、「改善」という単語に関係性語のラベルを付与する旨と「値段」という単語に上記関係性語に対応する対象語のラベルを付与する旨の入力を受け付ける。また、ラベル付け受付部153は、「改善」という単語に関係性語のラベルを付与する旨と「重たい」という単語に上記関係性語に対応する対象語のラベルを付与する旨の入力を受け付ける。その後、ラベル付け受付部153は、上記受け付けた結果に応じた情報をラベル情報143として記憶部140に格納する。
 例えば、以上のように、ラベル付け受付部153は、1つの自然文に対して1つまたは複数の対となるラベルを付与する旨の情報を受け付けることが出来る。一例として、ラベル付け受付部153は、関係を有する単語の集まりであるトークンごとにラベル付けを受け付けてもよい。図4で例示する場合、「改善」「重たい」という単語間に副詞節修飾という関係があり、また、「改善」「高い」「値段」という単語間に副詞節修飾と主語名詞という関係がある。そこで、ラベル付け受付部153は、「改善」「重たい」というトークンに対するラベル付けを受け付けるとともに、「改善」「高い」「値段」というトークンに対するラベル付けを受け付けることが出来る。なお、ラベル付け受付部153は、例えば、構文解析の結果を通信I/F部130などを介して外部装置へと送信することなどにより、外部装置などからラベルの情報を受け付けてもよい。
 関係性学習部154は、ラベル付け受付部153が受け付けた結果及び、構文解析結果を入力として、ニューラルネットワークの重み値を調整することなどにより、入力された構文解析後の自然文に対して関係性語と対象語を抽出して出力するようにモデルを学習する。そして、関係性学習部154は、学習したモデルを学習済みモデル144として記憶部140に格納する。なお、関係性学習部154は、構文解析部152が行った係り受け解析の結果に応じて判断されるトークンごとに、ラベル付け受付部153が受け付けた結果を入力して重み値を調整してよい。また、関係性学習部154は、関係性語により定義される関係性ごとに、モデルを学習してよい。
 抽出部155は、学習したモデルの活用時において、構文解析部152が構文解析した結果を学習済みモデル144が示すモデルに入力することで、自然文に対応する関係性語と対象語のペアを抽出する。例えば、抽出部155は、構文解析の結果として判断されるトークンごとに、関係性語と対象語のペアを抽出することが出来る。
 なお、抽出部155は、関係性語と対象語のペアのうちの少なくとも一方を抽出、出力するよう構成されていれば、必ずしも関係性語と対象語を両方抽出、出力しなくてもよい。例えば、抽出部155は、対象語のみを抽出、出力するよう構成してもよい。
 前処理部156は、抽出部155が出力した結果に対して所定の前処理を行う。例えば、前処理部156は、抽出部155が抽出した対象語に対して、関係性語が定義する関係性の要因を可視化するための前処理を行う。
 例えば、前処理部156は、抽出部155による出力に対してK-meansなどを用いたクラスタリングを行うことが出来る。また、前処理部156は、抽出部155により出力された対象語の出現頻度などを集計した上で、集計結果を示すグラフなどを作成するグラフ化を行うことが出来る。前処理部156は、上記例示した以外の抽出部155による複数の出力を可視化する処理などの前処理を行ったうえで、前処理の結果を出力するように構成してもよい。このように、前処理部156は、抽出部155が抽出した対象語を単語の類似度に基づいてグループ分けしたり、対象語の出現頻度などを集計してグラフ化したりすることで、関係性の要因を可視化する。
 なお、前処理部156は、例えば、関係性語の種類などに応じて予め定められた方法により前処理を行うよう構成してもよい。前処理部156は、予め定められた条件を満たす場合に、上記例示したような前処理を行うよう構成してもよい。
 出力部157は、前処理部156が前処理を行った結果を出力する。例えば、出力部157は、前処理部156が前処理を行った結果を画面表示部120上に表示させたり、通信I/F部130を介して外部装置に対して送信したりする。出力部157は、上記前処理部156が前処理を行った結果とともに、または、前処理を行った結果の代わりに、抽出部155が出力した結果を出力してもよい。
 以上が、抽出装置100の構成例である。続いて、図5、図6を参照して抽出装置100の動作例について説明する。
 図5は、学習時の抽出装置100の動作例を示すフローチャートである。図5を参照すると、自然文入力受付部151は、自然文の入力を受け付ける(ステップS101)。
 構文解析部152は、自然文入力受付部151が受け付けた自然文に対して構文解析を行う(ステップS102)。例えば、構文解析部152は、自然文に対して形態素解析を行った後、係り受け解析を行うことなどにより、自然文を切り分けた単語単位での、単語の種類である品詞や単語間の関係を示す係り受け情報などを判断する。
 ラベル付け受付部153は、構文解析部152が構文解析を行った後、操作入力部110に対する操作者の操作を検出することなどにより、単語に対するラベルの付与を受け付ける(ステップS103)。例えば、ラベル付け受付部153は、関係性語である旨を示すラベルと、対象語である旨を示すラベルと、の付与を受け付ける。
 関係性学習部154は、ラベル付け受付部153が受け付けた結果を入力として、重み行列の重み値を調整することなどにより、入力された自然文に対して関係性語と対象語を抽出して出力するようにモデルを学習する(ステップS104)。
 以上が、学習時における抽出装置100の動作例である。続いて、図6を参照して、学習したモデルの活用時における抽出装置100の動作例について説明する。
 図6は、学習したモデルの活用時における抽出装置100の動作例を示すフローチャートである。図6を参照すると、自然文入力受付部151は、自然文の入力を受け付ける(ステップS201)。
 構文解析部152は、自然文入力受付部151が受け付けた自然文に対して構文解析を行う(ステップS202)。例えば、構文解析部152は、自然文に対して形態素解析を行った後、係り受け解析を行うことなどにより、自然文を切り分けた単語単位での、単語の種類である品詞や単語間の関係を示す係り受け情報などを判断する。
 抽出部155は、構文解析部152が構文解析した結果を学習済みモデル144が示すモデルに入力することで、自然文に対応する関係性語と対象語のペアを抽出する(ステップS203)。例えば、抽出部155は、構文解析の結果として判断されるトークンごとに、関係性語と対象語のペアを抽出することが出来る。
 前処理部156は、抽出部155が出力した結果に対して、所定の前処理を行う(ステップS204)。ステップS205の処理は、省略してもよい。
 出力部157は、前処理部156が前処理した結果を出力する(ステップS205)。出力部157は、前処理部156が前処理した結果とともに、または、その代わりに、抽出部155が出力した結果を出力するよう構成してもよい。
 以上が、学習したモデルの活用時における抽出装置100の動作例である。
 このように、抽出装置100は、抽出部155を有している。このような構成によると、抽出部155は、関係性語と対象語のペアを抽出するよう学習されたモデルを用いて、自然文から関係性語と対象語のペアを抽出することが出来る。これにより、抽出装置100は、関係性語の要因を示す単語である対象語を抽出、出力することが出来る。
 また、抽出装置100は、前処理部156を有している。このような構成によると、出力部157は、前処理部156が前処理を行った結果を出力することが出来る。その結果、関係性語が定義する関係性の要因などをユーザが容易に把握することが出来る。
 なお、本実施形態においては、抽出装置100の構成の一例について説明した。しかしながら、抽出装置100は、本実施形態で例示した以外の構成を有してもよい。例えば、図7は、抽出装置100の他の構成例を示している。図7を参照すると、抽出装置100が有する記憶部140は、本実施形態で例示した構成に加えて、単語特徴量DB146を有してもよい。記憶部140が単語特徴量DB146を有する場合、関係性学習部154は、単語特徴量DB146が示す単語ごとの特徴量を追加で入力した上でモデルの学習を行うよう構成してよい。このように、単語特徴量DB146を用意して単語の意味を加えて学習を行うことにより、抽出精度の向上を見込むことが出来る。
[第2の実施形態]
 次に、本開示の第2の実施形態について、図8から図10までを参照して説明する。図8は、抽出装置200の構成例を示すブロック図である。図9は、抽出装置200における抽出例を示す図である。図10は、抽出装置200における出力例を示す図である。
 本開示の第2の実施形態においては、第1の実施形態で説明した抽出装置100と同様に、入力された自然文から関係性語と対象語のペアのうちの少なくとも一つを抽出して出力する情報処理装置である抽出装置200について説明する。後述するように、本実施形態で説明する抽出装置200の場合、「ポジティブ」という関係性を定義する関係性語と対象語のペアを抽出するポジティブモデルと「ネガティブ」という関係性を定義する関係性語と対象語のペアを抽出するネガティブモデルとを有している。そして、抽出装置200は、口コミや商品レビュー等の自然文をそれぞれのモデルに入力することで、ポジティブ/ネガティブ評価につながった要因を示す対象語を抽出する。また、抽出装置200は、抽出された対象語をポジティブ/ネガティブそれぞれでクラスタリングすることで、ユーザにとって良かった/悪かった要因を視覚的に提示することが出来る。
 図8は、抽出装置200の構成例を示している。図8を参照すると、抽出装置200は、主な構成要素として、例えば、操作入力部110と、画面表示部120と、通信I/F部130と、記憶部240と、演算処理部250と、を有している。
 なお、図8では、1台の情報処理装置を用いて抽出装置200としての機能を実現する場合について例示しているが、抽出装置100の場合と同様に、抽出装置200の構成は様々な変形例を採用してよい。また、以降においては、抽出装置200の構成のうち抽出装置100の構成とは異なる本実施形態に特徴的な構成について説明する。
 記憶部240は、ハードディスクやメモリなどの記憶装置である。記憶部240は、演算処理部250における各種処理に必要な処理情報やプログラム246を記憶する。プログラム246は、演算処理部250に読み込まれて実行されることにより各種処理部を実現する。プログラム246は、通信I/F部130などのデータ入出力機能を介して外部装置や記録媒体から予め読み込まれ、記憶部240に保存されている。記憶部240で記憶される主な情報としては、例えば、自然文情報141、解析結果情報142、ラベル情報243、ポジティブモデル情報244、ネガティブモデル情報245などがある。
 ラベル情報243は、解析結果情報142に含まれる単語に対するラベル付けの結果に応じた情報が含まれる。例えば、ラベル情報243は、後述するラベル付け受付部253がラベル付けを受け付けるごとに更新される。
 本実施形態の場合、ラベル情報243には、単語に「ポジティブ」という関係性を定義する関係性語である旨を示すラベルが付与されている旨を示す情報と、単語に上記関係性語に対応する対象語である旨を示すラベルが付与されている旨を示す情報と、が含まれる。また、ラベル情報243には、単語に「ネガティブ」という関係性を定義する関係性語である旨を示すラベルが付与されている旨を示す情報と、単語に上記関係性語に対応する対象語である旨を示すラベルが付与されている旨を示す情報と、が含まれる。
 ポジティブモデル情報244は、ラベル付けられた結果のうち、「ポジティブ」という関係性を定義する関係性語と上記関係性語に対応する対象語とがラベル付けられた結果に基づいて機械学習処理が施されたモデルを含んでいる。例えば、ポジティブモデル情報244に含まれるポジティブモデルは、入力された自然文(構文解析後の自然文)に対して「ポジティブ」という関係性を定義する関係性語と対象語を抽出して出力するよう学習、調整されている。例えば、ポジティブモデル情報244は、後述するポジ・ネガ関係性学習部254により「ポジティブ」という関係性を定義する関係性語と上記関係性語に対応する対象語とがラベル付けされた結果に基づく学習を行うことに応じて更新される。
 ネガティブモデル情報245は、ラベル付けられた結果のうち、「ネガティブ」という関係性を定義する関係性語と上記関係性語に対応する対象語とがラベル付けられた結果に基づいて機械学習処理が施されたモデルを含んでいる。例えば、ネガティブモデル情報245に含まれるネガティブモデルは、入力された自然文(構文解析後の自然文)に対して「ネガティブ」という関係性を定義する関係性語と対象語を抽出して出力するよう学習、調整されている。例えば、ネガティブモデル情報245は、後述するポジ・ネガ関係性学習部254により「ネガティブ」という関係性を定義する関係性語と上記関係性語に対応する対象語とがラベル付けされた結果に基づく学習を行うことに応じて更新される。
 演算処理部250は、CPUなどの演算装置とその周辺回路を有する。演算処理部250は、記憶部240からプログラム246を読み込んで実行することにより、上記ハードウェアとプログラム246とを協働させて各種処理部を実現する。演算処理部250で実現される主な処理部としては、例えば、自然文入力受付部151、構文解析部152、ラベル付け受付部253、ポジ・ネガ関係性学習部254、抽出部255、前処理部256、出力部257などがある。
 ラベル付け受付部253は、モデルの学習時において、構文解析部152が構文解析を行った後、操作入力部110に対する操作者の操作を受け付けることなどにより、単語に対するラベルの付与を受け付ける。そして、ラベル付け受付部253は、受け付けたラベルを示す情報をラベル情報243として記憶部240に格納する。
 本実施形態の場合、ラベル付け受付部253は、「ポジティブ」という関係性を定義する関係性語と上記関係性語に対応する対象語とに対するラベルを受け付けるとともに、「ネガティブ」という関係性を定義する関係性語と上記関係性語に対応する対象語とに対するラベル付けを受け付ける。なお、ラベル付け受付部253は、第1の実施形態で説明したラベル付け受付部153の場合と同様に、ラベル付けを外部装置などから受け付けたりしてもよい。
 ポジ・ネガ関係性学習部254は、関係性学習部154と同様に、ラベル付け受付部253が受け付けた結果及び、構文解析結果を入力として、重み行列の重み値を調整することなどにより、入力された構文解析後の自然文に対して関係性語と対象語を抽出して出力するようにモデルを学習する。本実施形態の場合、ポジ・ネガ関係性学習部254は、ラベル付けられた結果のうち、「ポジティブ」という関係性を定義する関係性語と上記関係性語に対応する対象語とがラベル付けられた結果に基づいて、ポジティブモデルを学習する。また、ポジ・ネガ関係性学習部254は、ラベル付けられた結果のうち、「ネガティブ」という関係性を定義する関係性語と上記関係性語に対応する対象語とがラベル付けられた結果に基づいて、ネガティブモデルを学習する。このように、ポジ・ネガ関係性学習部254は、関係性語が定義する関係性ごとにモデルを学習する。
 抽出部255は、抽出部155と同様に、自然文から関係性語と対象語のペアを抽出、出力する。例えば、抽出部255は、モデルの活用時において、構文解析部152が構文解析した結果をポジティブモデル情報244が示すポジティブモデルに入力する。これにより、抽出部255は、自然文から「ポジティブ」という関係性を定義する関係性語と対象語のペアを抽出する。また、抽出部255は、構文解析部152が構文解析した結果をネガティブモデル情報245が示すネガティブモデルに入力する。これにより、抽出部255は、自然文から「ネガティブ」という関係性を定義する関係性語と対象語のペアを抽出する。このように、抽出部255は、関係性語が定義する関係性ごとに学習されたモデルを用いて、それぞれの関係性に対応する関係性語と対象語のペアを抽出する。
 例えば、図9を参照すると、抽出部255は、ポジティブモデルに対して構文解析後の自然文を入力することで、「スペック」「性能」「軽い」……などの対象語を抽出、出力する。また、抽出部255は、ネガティブモデルに対してポジティブモデルに対する入力と同様の自然文を入力することで、「電池持ち」「割れやすい」「値段」……などの対象語を抽出、出力する。
 前処理部256は、前処理部156と同様に、抽出部255が出力した結果に対して所定の前処理を行う。例えば、前処理部256は、抽出部255が抽出した対象語に対して、関係性語が定義する関係性の要因を可視化するための前処理を行う。
 例えば、前処理部256は、前処理としてK-meansなどを用いたクラスタリングを行う。図10は、図9で示す抽出例に対して前処理であるクラスタリングを行った結果の一例を示している。例えば、前処理部256は、図10で示すように、抽出部255が抽出、出力した結果をクラスタリングすることで、ポジティブ評価の要因やネガティブ評価の要因を整理・可視化する。なお、前処理部256は、第1の実施形態の場合と同様に、グラフ化などを行ってもよい。
 出力部257は、出力部157と同様に、前処理部256が前処理した結果を出力する。上述したように、前処理部256が行う前処理により、ポジティブ評価の要因やネガティブ評価の要因が整理・可視化されている。そのため、出力部257による出力によると、ポジティブ評価の要因やネガティブ評価の要因を容易に確認することが出来る。
 以上が、抽出装置200の構成例である。なお、抽出装置200の動作は、学習済みモデルとしてポジティブモデルとネガティブモデルとがあるため、それぞれを学習すること、および、活用時にはポジティブモデルとネガティブモデルのそれぞれに自然文を入力してそれぞれの出力ごとに前処理を行うこと、を除いて概ね抽出装置100の動作と同様であってよい。
 このように、抽出装置200は、抽出部255を有している。このような構成によると、抽出装置200は、ポジティブモデルを用いて対象語を抽出するとともにネガティブモデルを用いて対象語を抽出することが出来る。これにより、抽出装置200は、「ポジティブ」な関係性を定義する関係性語の要因を示す単語である対象語を抽出、出力するとともに、「ネガティブ」な関係性を定義する関係性語の要因を示す単語である対象語を抽出、出力することが出来る。
 なお、抽出装置200は、抽出装置100と同様の変形例を採用してよい。また、本実施形態において、抽出装置200は、ポジティブモデルとネガティブモデルの両方を有する場合について例示した。しかしながら、抽出装置200は、ポジティブモデルとネガティブモデルのうちのいずれか一方のみを有していてもよい。
[第3の実施形態]
 次に、本開示の第3の実施形態について、図11から図13までを参照して説明する。図11は、抽出装置300の構成例を示すブロック図である。図12は、抽出装置300における抽出例を示す図である。図13は、抽出装置300における出力例を示す図である。
 本開示の第3の実施形態においては、第1の実施形態で説明した抽出装置100や第2の実施形態で説明した抽出装置200と同様に、入力された自然文から関係性語と対象語のペアのうちの少なくとも一つを抽出して出力する情報処理装置である抽出装置300について説明する。後述するように、本実施形態で説明する抽出装置300の場合、「要望」という関係性を定義する関係性語と対象語のペアを抽出する要望モデルを有している。そして、抽出装置300は、口コミや商品レビュー等の自然文を要望モデルに入力することで、要望の要因(つまり、ユーザが何を要望しているか)を示す対象語を抽出する。また、抽出装置300は、抽出された対象語をクラスタリングしたりグラフ化したりすることで、ユーザの要望を的確に抽出するとともに、視覚的に提示可能にする。
 図11は、抽出装置300の構成例を示している。図11を参照すると、抽出装置300は、主な構成要素として、例えば、操作入力部110と、画面表示部120と、通信I/F部130と、記憶部340と、演算処理部350と、を有している。
 なお、図11では、1台の情報処理装置を用いて抽出装置300としての機能を実現する場合について例示しているが、抽出装置100や抽出装置200の場合と同様に、抽出装置300の構成は様々な変形例を採用してよい。また、以降においては、抽出装置300の構成のうち抽出装置100や抽出装置200の構成とは異なる本実施形態に特徴的な構成について説明する。
 記憶部340は、ハードディスクやメモリなどの記憶装置である。記憶部340は、演算処理部350における各種処理に必要な処理情報やプログラム345を記憶する。プログラム345は、演算処理部350に読み込まれて実行されることにより各種処理部を実現する。プログラム345は、通信I/F部130などのデータ入出力機能を介して外部装置や記録媒体から予め読み込まれ、記憶部240に保存されている。記憶部240で記憶される主な情報としては、例えば、自然文情報141、解析結果情報142、ラベル情報343、要望モデル情報344などがある。
 ラベル情報343は、解析結果情報142に含まれる単語に対するラベル付けの結果に応じた情報が含まれる。例えば、ラベル情報343は、後述するラベル付け受付部353がラベル付けを受け付けるごとに更新される。本実施形態の場合、ラベル情報343には、単語に「要望」という関係性を定義する関係性語である旨を示すラベルが付与されている旨を示す情報と、単語に上記関係性語に対応する対象語である旨を示すラベルが付与されている旨を示す情報と、が含まれる。
 要望モデル情報344は、ラベル付けられた結果に基づいて機械学習処理が施されたモデルを含んでいる。例えば、要望モデル情報344に含まれる要望モデルは、入力された自然文(構文解析後の自然文)に対して「要望」という関係性を定義する関係性語と対象語を抽出して出力するよう学習、調整されている。例えば、要望モデル情報344は、後述する要望関係性学習部354により「要望」という関係性を定義する関係性語と上記関係性語に対応する対象語とがラベル付けされた結果に基づく学習を行うことに応じて更新される。
 演算処理部350は、CPUなどの演算装置とその周辺回路を有する。演算処理部350は、記憶部340からプログラム345を読み込んで実行することにより、上記ハードウェアとプログラム345とを協働させて各種処理部を実現する。演算処理部350で実現される主な処理部としては、例えば、自然文入力受付部151、構文解析部152、ラベル付け受付部353、要望関係性学習部354、抽出部355、前処理部356、出力部357などがある。
 ラベル付け受付部353は、モデルの学習時において、構文解析部152が構文解析を行った後、操作入力部110に対する操作者の操作を受け付けることなどにより、単語に対するラベルの付与を受け付ける。そして、ラベル付け受付部353は、受け付けたラベルを示す情報をラベル情報343として記憶部340に格納する。
 本実施形態の場合、ラベル付け受付部353は、「要望」という関係性を定義する関係性語と上記関係性語に対応する対象語とに対するラベルを受け付ける。なお、ラベル付け受付部353は、第1の実施形態で説明したラベル付け受付部153やラベル付け受付部253の場合と同様に、ラベル付けを外部装置などから受け付けたりしてもよい。
 要望関係性学習部354は、関係性学習部154やポジ・ネガ関係性学習部254と同様に、ラベル付け受付部353が受け付けた結果及び、構文解析結果を入力として、重み行列の重み値を調整することなどにより、入力された構文解析後の自然文に対して関係性語と対象語を抽出して出力するようにモデルを学習する。本実施形態の場合、要望関係性学習部354は、ラベル付けられた結果に基づいて、要望モデルを学習する。このように、要望関係性学習部354は、関係性語が定義する関係性に応じたモデルである要望モデルを学習する。
 抽出部355は、抽出部155や抽出部255と同様に、自然文から関係性語と対象語のペアを抽出、出力する。例えば、抽出部355は、モデルの活用時において、構文解析部152が構文解析した結果を要望モデル情報344が示す要望モデルに入力する。これにより、抽出部355は、自然文から「要望」という関係性を定義する関係性語と対象語のペアを抽出する。
 例えば、図12は、第2の実施形態と同様の自然文を要望モデルに入力した際の抽出、出力例を示している。図12を参照すると、抽出部355は、要望モデルに対して構文解析後の自然文を入力することで、「安くして」「軽くして」「種類を増やして」……などの対象語を抽出、出力する。このように、抽出部355は、関係性語が定義する関係性に応じた対象語を抽出、出力することが出来る。
 前処理部356は、前処理部156や前処理部256と同様に、抽出部355が出力した結果に対して所定の前処理を行う。例えば、前処理部356は、抽出部355が抽出した対象語に対して、関係性語が定義する関係性の要因を可視化するための前処理を行う。
 例えば、前処理部356は、前処理としてK-meansなどを用いたクラスタリングを行う。また、前処理部356は、単語(対象語)の出現頻度を集計したうえで、集計結果をグラフ化する。図13は、図12で示す抽出例に対して前処理であるクラスタリングやグラフ化を行った結果の一例を示している。例えば、前処理部356は、図13で示すように、抽出、出力した結果をクラスタリングしたりグラフ化したりすることで、要望の要因を整理・可視化する。
 出力部357は、出力部157や出力部257と同様に、前処理部356が前処理した結果を出力する。上述したように、前処理部356が行う前処理により、ユーザによる要望の要因が整理・可視化されている。そのため、出力部357による出力によると、ユーザによる要望の要因を容易に確認することが出来る。
 以上が、抽出装置300の構成例である。なお、抽出装置300の動作は、概ね抽出装置100と同様であってよい。
 このように、抽出装置300は、抽出部355を有している。このような構成によると、抽出装置300は、要望モデルを用いて対象語を抽出することが出来る。これにより、抽出装置300は、「要望」という関係性を定義する関係性語の要因を示す単語である対象語を抽出、出力することが出来る。
 なお、抽出装置300は、抽出装置100や抽出装置200と同様の変形例を採用してよい。また、抽出装置300は、例えば、抽出装置200と組み合わされてもよい。
[第4の実施形態]
 次に、本開示の第4の実施形態について、図14から図16までを参照して説明する。図14は、抽出装置400のハードウェア構成例を示す図である。図15は、抽出装置400の構成例を示すブロック図である。図16は、要望抽出装置500の構成例を示すブロック図である。
 本開示の第4の実施形態においては、抽出装置400の構成例について説明する。図14は、抽出装置400のハードウェア構成例を示している。図14を参照すると、抽出装置400は、一例として、以下のようなハードウェア構成を有している。
 ・CPU(Central Processing Unit)401(演算装置)
 ・ROM(Read Only Memory)402(記憶装置)
 ・RAM(Random Access Memory)403(記憶装置)
 ・RAM403にロードされるプログラム群404
 ・プログラム群404を格納する記憶装置405
 ・情報処理装置外部の記録媒体410の読み書きを行うドライブ装置406
 ・情報処理装置外部の通信ネットワーク411と接続する通信インタフェース407
 ・データの入出力を行う入出力インタフェース408
 ・各構成要素を接続するバス409
 また、抽出装置400は、プログラム群404をCPU401が取得して当該CPU401が実行することで、図15に示す取得部421、抽出部422、出力部423としての機能を実現することが出来る。なお、プログラム群404は、例えば、予め記憶装置405やROM402に格納されており、必要に応じてCPU401がRAM403などにロードして実行する。また、プログラム群404は、通信ネットワーク411を介してCPU401に供給されてもよいし、予め記録媒体410に格納されており、ドライブ装置406が該プログラムを読み出してCPU401に供給してもよい。
 なお、図15は、抽出装置400のハードウェア構成例を示している。抽出装置400のハードウェア構成は上述した場合に限定されない。例えば、抽出装置400は、ドライブ装置406を有さないなど、上述した構成の一部から構成されてもよい。
 取得部421は、ユーザにより入力される第一の自然文を取得する。
 抽出部422は、取得部421により取得される第一の自然文から、関係性語と対象語のうちの少なくとも対象語を抽出する。例えば、抽出部422は、第二の自然文を入力として、第二の自然文に含まれる単語間の関係性を定義する単語である関係性語と関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、第一の自然文から、関係性語と対象語のうちの少なくとも対象語を抽出する。
 例えば、単語間で「ポジティブ」という関係性を定義する場合、「良かった」、「嬉しい」などのポジティブな感情を示す単語が関係性語となる。また、例えば、単語間で「ネガティブ」という関係性を定義する場合、「つまらなかった」、「まずい」などのネガティブな感情を示す単語が関係性語となる。
 出力部423は、抽出部422が抽出した対象語を出力する。例えば、出力部423は、抽出部422が抽出した対象語に応じた情報を、外部装置に送信したり画面表示部に表示させたりすることが出来る。
 このように、抽出装置400は、抽出部422を有している。このような構成によると、抽出装置400は、自然文に対して関係性語と対象語のうちの少なくとも対象語を抽出することが出来る。その結果、抽出装置400は、関係性語の要因を示す単語である対象語を抽出、出力することが出来る。
 なお、上述した抽出装置400は、当該抽出装置400などの情報処理装置に所定のプログラムが組み込まれることで実現できる。具体的に、本発明の他の形態であるプログラムは、抽出装置400などの情報処理装置に、ユーザにより入力される第一の自然文を取得し、第二の自然文を入力として、第二の自然文に含まれる単語間の関係性を定義する単語である関係性語と関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、取得した第一の自然文から、関係性語と対象語のうちの少なくとも対象語を抽出し、抽出した対象語を出力する、処理を実現するためのプログラムである。
 また、上述した抽出装置400などの情報処理装置により実行される抽出方法は、抽出装置400などの情報処理装置が、ユーザにより入力される第一の自然文を取得し、第二の自然文を入力として、第二の自然文に含まれる単語間の関係性を定義する単語である関係性語と関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、取得した第一の自然文から、関係性語と対象語のうちの少なくとも対象語を抽出し、抽出した対象語を出力する、という方法である。
 上述した構成を有する、プログラム、又は、プログラムを記録したコンピュータが読み取り可能な記録媒体、又は、抽出方法、の発明であっても、上述した抽出装置400と同様の作用・効果を有するために、上述した本発明の目的を達成することが出来る。
 また、図16は、抽出装置400の一例である要望抽出装置500を示している。要望抽出装置500のハードウェア構成は、抽出装置400と同様であってよい。要望抽出装置500は、プログラム群404をCPU401が取得して当該CPU401が実行することで、図16に示す取得部521、要望抽出部522、出力部523としての機能を実現することが出来る。
 取得部521は、ユーザにより入力される第一の自然文を取得する。
 要望抽出部522は、第二の自然文を入力として第二の自然文に含まれるユーザの要望を示す単語である関係性語と関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、取得部により取得される第一の自然文から、関係性語と対象語のうちの少なくとも対象語を抽出する。
 出力部523は、要望抽出部522が抽出した対象語を出力する。
 このように、要望抽出装置500は要望抽出部522を有している。このような構成によると、要望抽出部522は、自然文に対してユーザからの要望という関係性を定義する関係性語と対象語のうちの少なくとも対象語を抽出することが出来る。その結果、口コミなどの自然文の中からユーザの要望を的確に抽出することが出来る。
 なお、上述した要望抽出装置500は、当該要望抽出装置500などの情報処理装置に所定のプログラムが組み込まれることで実現できる。具体的に、本発明の他の形態であるプログラムは、要望抽出装置500などの情報処理装置に、ユーザにより入力される第一の自然文を取得し、第二の自然文を入力として第二の自然文に含まれるユーザの要望を示す単語である関係性語と関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、取得した第一の自然文から、関係性語と対象語のうちの少なくとも対象語を抽出し、抽出した対象語を出力する、処理を実現するためのプログラムである。
 また、上述した要望抽出装置500などの情報処理装置により実行される要望抽出方法は、要望抽出装置500などの情報処理装置が、ユーザにより入力される第一の自然文を取得し、第二の自然文を入力として第二の自然文に含まれるユーザの要望を示す単語である関係性語と関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、取得した第一の自然文から、関係性語と対象語のうちの少なくとも対象語を抽出し、抽出した対象語を出力する、という方法である。
 上述した構成を有する、プログラム、又は、プログラムを記録したコンピュータが読み取り可能な記録媒体、又は、要望抽出方法、の発明であっても、上述した要望抽出装置500と同様の作用・効果を有するために、上述した本発明の目的を達成することが出来る。
 <付記>
 上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における抽出装置、要望抽出装置などの概略を説明する。但し、本発明は、以下の構成に限定されない。
(付記1)
 ユーザにより入力される第一の自然文を取得する取得部と、
 第二の自然文を入力として、前記第二の自然文に含まれる単語間の関係性を定義する単語である関係性語と前記関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、前記取得部により取得される前記第一の自然文から、関係性語と対象語のうちの少なくとも前記対象語を抽出する抽出部と、
 前記抽出部が抽出した前記対象語を出力する出力部と、
 を有する
 抽出装置。
(付記2)
 付記1に記載の抽出装置であって、
 前記抽出部は、前記関係性語が定義する関係性ごとに学習された複数のモデルを用いて、それぞれの関係性に対応する前記関係性語と前記対象語のペアのうちの少なくとも前記対象語を抽出する
 抽出装置。
(付記3)
 付記1または付記2に記載の抽出装置であって、
 前記抽出部は、ポジティブな感情を示す前記関係性語と前記対象語のペアを抽出するポジティブモデルを用いて、前記取得部により取得される前記第一の自然文から、ポジティブな感情を示す関係性語と対象語のうちの少なくとも前記対象語を抽出する
 抽出装置。
(付記4)
 付記1から付記3までのうちのいずれか1項に記載の抽出装置であって、
 前記抽出部は、ネガティブな感情を示す前記関係性語と前記対象語のペアを抽出するネガティブモデルを用いて、前記取得部により取得される前記第一の自然文から、ネガティブな感情を示す関係性語と対象語のうちの少なくとも前記対象語を抽出する
 抽出装置。
(付記5)
 付記1から付記4までのうちのいずれか1項に記載の抽出装置であって、
 構文解析後の前記第二の自然文に対して、前記関係性語と前記対象語とをラベル付けした結果を用いて、自然文に対して前記関係性語と前記対象語を抽出して出力するようにモデルを学習する学習部を有し、
 前記抽出部は、前記学習部が学習したモデルを用いて、前記関係性語と前記対象語のうちの少なくとも前記対象語を抽出する
 抽出装置。
(付記6)
 付記5に記載の抽出装置であって、
 前記学習部は、ラベル付けをした結果と、予め記憶する単語の特徴量と、を用いてモデルを学習する
 抽出装置。
(付記7)
 付記1から付記6までのうちのいずれか1項に記載の抽出装置であって、
 前記抽出部が抽出した前記対象語に対して、前記関係性語が定義するユーザからの要望という関係性の要因を可視化するための前処理を行う前処理部を有し、
 前記出力部は、前記前処理部により前処理された結果を出力する
 抽出装置。
(付記8)
 付記7に記載の抽出装置であって、
 前記前処理部は、前記抽出部が抽出した前記対象語に対して、前記前処理としてクラスタリングを行い、 前記出力部は、前記前処理部によりクラスタリングされた結果を出力する
 抽出装置。
(付記9)
 情報処理装置が、
 ユーザにより入力される第一の自然文を取得し、
 第二の自然文を入力として、前記第二の自然文に含まれる単語間の関係性を定義する単語である関係性語と前記関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、取得した前記第一の自然文から、関係性語と対象語のうちの少なくとも前記対象語を抽出し、
 抽出した前記対象語を出力する
 抽出方法。
(付記10)
 情報処理装置に、
 ユーザにより入力される第一の自然文を取得し、
 第二の自然文を入力として、前記第二の自然文に含まれる単語間の関係性を定義する単語である関係性語と前記関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、取得した前記第一の自然文から、関係性語と対象語のうちの少なくとも前記対象語を抽出し、
 抽出した前記対象語を出力する
 処理を実現するためのプログラムを記録した、コンピュータが読み取り可能な記録媒体。
(付記11)
 ユーザにより入力される第一の自然文を取得する取得部と、
 第二の自然文を入力として前記第二の自然文に含まれるユーザの要望を示す単語である関係性語と前記関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、前記取得部により取得される前記第一の自然文から、関係性語と対象語のうちの少なくとも前記対象語を抽出する要望抽出部と、
 前記要望抽出部が抽出した前記対象語を出力する出力部と、
 を有する
 要望抽出装置。
(付記12)
 付記11に記載の要望抽出装置であって、
 前記要望抽出部が抽出した前記対象語に対して、前記関係性語が定義するユーザからの要望という関係性の要因を可視化するための前処理を行う前処理部を有し、
 前記出力部は、前記前処理部により前処理された結果を出力する
 要望抽出装置。
(付記13)
 付記12に記載の要望抽出装置であって、
 前記前処理部は、前記要望抽出部が抽出した前記対象語に対して、前記前処理としてクラスタリングを行い、
 前記出力部は、前記前処理部がクラスタリングを行った結果を出力する
 要望抽出装置。
(付記14)
 付記12または付記13に記載の要望抽出装置であって、
 前記前処理部は、前記要望抽出部が抽出した前記対象語に対して、前記前処理として抽出した前記対象語の出現頻度を集計してグラフ化し、
 前記出力部は、前記前処理部がグラフ化した結果を出力する
 要望抽出装置。
(付記15)
 付記11から付記14までのうちのいずれか1項に記載の要望抽出装置であって、
 構文解析後の前記第二の自然文に対して、ユーザの要望を示す単語である前記関係性語と前記関係性語の対象となる単語である前記対象語とをラベル付けした結果を用いて、自然文に対して前記関係性語と前記対象語を抽出して出力するようにモデルを学習する要望学習部を有し、
 前記要望抽出部は、前記要望学習部が学習したモデルを用いて、前記関係性語と前記対象語のうちの少なくとも前記対象語を抽出する
 要望抽出装置。
(付記16)
 付記15に記載の要望抽出装置であって、
 前記要望学習部は、ラベル付けをした結果と、予め記憶する単語の特徴量と、を用いてモデルを学習する
 要望抽出装置。
(付記17)
 情報処理装置が、
 ユーザにより入力される第一の自然文を取得し、
 第二の自然文を入力として前記第二の自然文に含まれるユーザの要望を示す単語である関係性語と前記関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、取得した前記第一の自然文から、関係性語と対象語のうちの少なくとも前記対象語を抽出し、
 抽出した前記対象語を出力する
 要望抽出方法。
(付記18)
 付記17に記載の要望抽出方法であって、
 抽出した前記対象語に対して、前記関係性語が定義するユーザからの要望という関係性の要因を可視化するための前処理を行い、
 前処理された結果を出力する
 要望抽出方法。
(付記19)
 情報処理装置に、
 ユーザにより入力される第一の自然文を取得し、
 第二の自然文を入力として前記第二の自然文に含まれるユーザの要望を示す単語である関係性語と前記関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、取得した前記第一の自然文から、関係性語と対象語のうちの少なくとも前記対象語を抽出し、
 抽出した前記対象語を出力する
 処理を実現するためのプログラムを記録した、コンピュータが読み取り可能な記録媒体。
(付記20)
 付記19に記載の記録媒体であって、
 抽出した前記対象語に対して、前記関係性語が定義するユーザからの要望という関係性の要因を可視化するための前処理を行い、
 前処理された結果を出力する
 プログラムを記録した、コンピュータが読み取り可能な記録媒体。
 以上、上記各実施形態を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることが出来る。
100 抽出装置
110 操作入力部
120 画面表示部
130 通信I/F部
140 記憶部
141 自然文情報
142 解析結果情報
143 ラベル情報
144 学習済みモデル
145 プログラム
146 単語特徴量DB
150 演算処理部
151 自然文入力受付部
152 構文解析部
153 ラベル付け受付部
154 関係性学習部
155 抽出部
156 前処理部
157 出力部
200 抽出装置
240 記憶部
243 ラベル情報
244 ポジティブモデル情報
245 ネガティブモデル情報
246 プログラム
250 演算処理部
253 ラベル付け受付部
254 ポジ・ネガ関係性学習部
255 抽出部
256 前処理部
257 出力部
300 抽出装置
340 記憶部
343 ラベル情報
344 要望モデル情報
345 プログラム
350 演算処理部
353 ラベル付け受付部
354 要望関係性学習部
355 抽出部
356 前処理部
357 出力部
400 抽出装置
401 CPU
402 ROM
403 RAM
404 プログラム群
405 記憶装置
406 ドライブ装置
407 通信インタフェース
408 入出力インタフェース
409 バス
410 記録媒体
411 通信ネットワーク
421 取得部
422 抽出部
423 出力部
500 要望抽出装置
521 取得部
522 要望抽出部
523 出力部

 

Claims (10)

  1.  ユーザにより入力される第一の自然文を取得する取得部と、
     第二の自然文を入力として、前記第二の自然文に含まれる単語間の関係性を定義する単語である関係性語と前記関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、前記取得部により取得される前記第一の自然文から、関係性語と対象語のうちの少なくとも前記対象語を抽出する抽出部と、
     前記抽出部が抽出した前記対象語を出力する出力部と、
     を有する
     抽出装置。
  2.  請求項1に記載の抽出装置であって、
     前記抽出部は、前記関係性語が定義する関係性ごとに学習された複数のモデルを用いて、それぞれの関係性に対応する前記関係性語と前記対象語のペアのうちの少なくとも前記対象語を抽出する
     抽出装置。
  3.  請求項1または請求項2に記載の抽出装置であって、
     前記抽出部は、ポジティブな感情を示す前記関係性語と前記対象語のペアを抽出するポジティブモデルを用いて、前記取得部により取得される前記第一の自然文から、ポジティブな感情を示す関係性語と対象語のうちの少なくとも前記対象語を抽出する
     抽出装置。
  4.  請求項1から請求項3までのうちのいずれか1項に記載の抽出装置であって、
     前記抽出部は、ネガティブな感情を示す前記関係性語と前記対象語のペアを抽出するネガティブモデルを用いて、前記取得部により取得される前記第一の自然文から、ネガティブな感情を示す関係性語と対象語のうちの少なくとも前記対象語を抽出する
     抽出装置。
  5.  請求項1から請求項4までのうちのいずれか1項に記載の抽出装置であって、
     構文解析後の前記第二の自然文に対して、前記関係性語と前記対象語とをラベル付けした結果を用いて、自然文に対して前記関係性語と前記対象語を抽出して出力するようにモデルを学習する学習部を有し、
     前記抽出部は、前記学習部が学習したモデルを用いて、前記関係性語と前記対象語のうちの少なくとも前記対象語を抽出する
     抽出装置。
  6.  請求項5に記載の抽出装置であって、
     前記学習部は、ラベル付けをした結果と、予め記憶する単語の特徴量と、を用いてモデルを学習する
     抽出装置。
  7.  請求項1から請求項6までのうちのいずれか1項に記載の抽出装置であって、
     前記抽出部が抽出した前記対象語に対して、前記関係性語が定義するユーザからの要望という関係性の要因を可視化するための前処理を行う前処理部を有し、
     前記出力部は、前記前処理部により前処理された結果を出力する
     抽出装置。
  8.  請求項7に記載の抽出装置であって、
     前記前処理部は、前記抽出部が抽出した前記対象語に対して、前記前処理としてクラスタリングを行い、 前記出力部は、前記前処理部によりクラスタリングされた結果を出力する
     抽出装置。
  9.  情報処理装置が、
     ユーザにより入力される第一の自然文を取得し、
     第二の自然文を入力として、前記第二の自然文に含まれる単語間の関係性を定義する単語である関係性語と前記関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、取得した前記第一の自然文から、関係性語と対象語のうちの少なくとも前記対象語を抽出し、
     抽出した前記対象語を出力する
     抽出方法。
  10.  情報処理装置に、
     ユーザにより入力される第一の自然文を取得し、
     第二の自然文を入力として、前記第二の自然文に含まれる単語間の関係性を定義する単語である関係性語と前記関係性語の対象となる単語である対象語とを出力するよう学習されたモデルを用いて、取得した前記第一の自然文から、関係性語と対象語のうちの少なくとも前記対象語を抽出し、
     抽出した前記対象語を出力する
     処理を実現するためのプログラムを記録した、コンピュータが読み取り可能な記録媒体。
     
PCT/JP2021/047621 2021-12-22 2021-12-22 抽出装置 WO2023119496A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/047621 WO2023119496A1 (ja) 2021-12-22 2021-12-22 抽出装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/047621 WO2023119496A1 (ja) 2021-12-22 2021-12-22 抽出装置

Publications (1)

Publication Number Publication Date
WO2023119496A1 true WO2023119496A1 (ja) 2023-06-29

Family

ID=86901706

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/047621 WO2023119496A1 (ja) 2021-12-22 2021-12-22 抽出装置

Country Status (1)

Country Link
WO (1) WO2023119496A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219880A (ja) * 2006-02-17 2007-08-30 Fujitsu Ltd 評判情報処理プログラム、方法及び装置
CN110969014A (zh) * 2019-11-18 2020-04-07 南开大学 一种基于同步神经网络的意见二元组抽取方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007219880A (ja) * 2006-02-17 2007-08-30 Fujitsu Ltd 評判情報処理プログラム、方法及び装置
CN110969014A (zh) * 2019-11-18 2020-04-07 南开大学 一种基于同步神经网络的意见二元组抽取方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"The latest common sense in web marketing taught by professionals in the field, 1st ed.", 1 August 2015, MDI CORPORATION, JP, ISBN: 978-4-8443-6515-0, article ACTIVE CORE CO., LTD.: "CHAPTER 206 Social listening to listen to real voices", pages: 52 - 53, XP009547423 *
HAJIME MORITA, HIROYA TAKAMURA, MANABU OKUMURA: "Extracting evaluative tuples with structure learning", IEICE TECHNICAL REPORT, NLC, IEICE, JP, vol. 111, no. 119 (NLC2011-17), 30 June 2011 (2011-06-30), JP, pages 89 - 93, XP009546529 *

Similar Documents

Publication Publication Date Title
KR102401942B1 (ko) 번역품질 평가 방법 및 장치
US20240078386A1 (en) Methods and systems for language-agnostic machine learning in natural language processing using feature extraction
US8452772B1 (en) Methods, systems, and articles of manufacture for addressing popular topics in a socials sphere
US11487838B2 (en) Systems and methods for determining credibility at scale
CN106934069B (zh) 数据检索方法及系统
CN113220836B (zh) 序列标注模型的训练方法、装置、电子设备和存储介质
AU2022223275B2 (en) Auditing citations in a textual document
CN111144120A (zh) 一种训练语句的获取方法、装置、存储介质及电子设备
Al Qundus et al. Exploring the impact of short-text complexity and structure on its quality in social media
CN113051374A (zh) 一种文本匹配优化方法及装置
CN111930792A (zh) 数据资源的标注方法、装置、存储介质及电子设备
US20230186033A1 (en) Guided text generation for task-oriented dialogue
US20220391598A1 (en) Text checking method based on knowledge graph, electronic device, and medium
CN110610003A (zh) 用于辅助文本标注的方法和系统
CN111783424B (zh) 一种文本分句方法和装置
CN112711943A (zh) 一种维吾尔文语种识别方法、装置及存储介质
WO2023119496A1 (ja) 抽出装置
WO2023119497A1 (ja) 要望抽出装置
CN114676699A (zh) 实体情感分析方法、装置、计算机设备和存储介质
CN114461665A (zh) 用于生成语句转换模型的方法、装置及计算机程序产品
KR20220118703A (ko) 머신러닝 기반 온라인 쇼핑 리뷰 감정 예측 시스템 및 방법
CN110728131A (zh) 一种分析文本属性的方法和装置
US20230419044A1 (en) Tagging for subject matter or learning schema
CN117312862B (zh) 基于glm的金融事件抽取样本的生成方法及系统
CN116882419A (zh) 一种基于自然语言处理的专利翻译方法与系统

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21968933

Country of ref document: EP

Kind code of ref document: A1