JP2019212321A - Semantic information generation method, semantic information generation apparatus, and program - Google Patents

Semantic information generation method, semantic information generation apparatus, and program Download PDF

Info

Publication number
JP2019212321A
JP2019212321A JP2019150366A JP2019150366A JP2019212321A JP 2019212321 A JP2019212321 A JP 2019212321A JP 2019150366 A JP2019150366 A JP 2019150366A JP 2019150366 A JP2019150366 A JP 2019150366A JP 2019212321 A JP2019212321 A JP 2019212321A
Authority
JP
Japan
Prior art keywords
word
text
text data
semantic information
meaning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019150366A
Other languages
Japanese (ja)
Other versions
JP6799800B2 (en
Inventor
山上 勝義
Katsuyoshi Yamagami
勝義 山上
貴志 牛尾
Takashi Ushio
貴志 牛尾
育規 石井
Yasunori Ishii
育規 石井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JP2019212321A publication Critical patent/JP2019212321A/en
Application granted granted Critical
Publication of JP6799800B2 publication Critical patent/JP6799800B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/247Thesauruses; Synonyms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/20ICT specially adapted for the handling or processing of patient-related medical or healthcare data for electronic clinical trials or questionnaires
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Public Health (AREA)
  • Data Mining & Analysis (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

To realize the allocation of semantic information that enables a certain word to be discriminated from another word that is to be discriminated semantically by learning from a text corpus.SOLUTION: A semantic information generation method comprises: acquiring a first text corpus that contains first text data on a natural language including a first word and second text data including a second word to be discriminated semantically from the first word and having a second word distribution for the second word similar to a first word distribution for the first word; acquiring a second text corpus that contains third text data including a third word that is identical to one of the first word and the second word and having a third word distribution for the third word non-similar to the first word distribution; and allocating a first vector representing a meaning of the first word to the first word and allocating a second vector representing a meaning of the second word to the second word on the basis of sequences of word strings in the first text corpus and the second text corpus.SELECTED DRAWING: Figure 1

Description

本開示は自然言語のテキスト情報の意味を取り扱うために単語に対する意味情報を生成するための装置、および、その方法に関するものである。   The present disclosure relates to an apparatus and method for generating semantic information for a word to handle the meaning of natural language text information.

自然言語のテキスト情報の意味を取り扱うためにテキストを構成する単語に対して意味情報を生成する従来技術が存在する(非特許文献2)、(非特許文献3)。前記従来技術は大量のテキストデータセット(以降、テキストコーパスと記述)から、テキストコーパスに含まれる各単語に割り当てるべき多次元のベクトルを学習し、単語とその単語に対応する多次元のベクトル(意味情報)の対応関係を結果として出力する。   There are conventional techniques for generating semantic information for words constituting text in order to handle the meaning of natural language text information (Non-Patent Document 2) and (Non-Patent Document 3). The prior art learns a multidimensional vector to be assigned to each word included in the text corpus from a large amount of text data set (hereinafter referred to as a text corpus), and multi-dimensional vector (meaning) corresponding to the word. Information) is output as a result.

このような従来技術により生成された意味情報は、単語の意味が類似しているか否かの判定に用いることができる。   Such semantic information generated by the prior art can be used to determine whether the meanings of words are similar.

特開2002−334077号公報JP 2002-334077 A

柴田、黒橋「文脈に依存した述語の同義関係獲得」情報処理学会研究報告、Vol.2010−NL−199 No.13Shibata, Kurohashi “Acquisition of synonym of context-dependent predicates” Information Processing Society of Japan, Vol. 2010-NL-199 No. 13 Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. ”Efficent Estimation of Word Representations in Vector Space.” ICLR 2013.Thomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. “Effect Evaluation of Word Representations in Vector Space.” ICLR 2013. Tomas Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, Jeffrey Dean, “Distributed Representations of Words and Phrases and their Compositionality.” NIPS 2013.Thomas Mikolov, Ilya Sutskever, Kai Chen, Greg Corrado, Jeffrey Dean, “Distributed Representations of Words and Phrases and thes.

しかしながら、従来技術によると、ある単語に割り当てられる意味情報と、その単語に対して意味を区別すべき他の単語に割り当てられる意味情報とが近接したものとなるため、単語の意味が類似しているかどうかの判定に用いるためには、さらなる改善が必要であった。   However, according to the prior art, the semantic information assigned to a word and the semantic information assigned to other words whose meaning should be distinguished from the word are close to each other, so the meanings of the words are similar. Further improvements were needed to use it to determine whether or not.

本開示の一態様による方法は、意味情報生成装置が行う意味情報生成方法であって、テキストデータを取得し、単語と、所定次元のベクトル空間において前記単語の意味を表すベクトル情報とを対応付けた意味情報テーブルに基づき、前記テキストデータの意味を解析し、前記解析された意味を示す情報を出力し、前記意味情報テーブルは、第一テキストコーパスおよび第二テキストコーパスにおける単語列の配列に基づいて、前記ベクトル空間において第一単語の意味を表す第一ベクトルを前記第一単語に割り当て、前記ベクトル空間において第二単語の意味を表す第二ベクトルを前記第二単語に割り当てる学習により生成されたものであり、前記第一テキストコーパスは、前記第一単語を含み、自然言語で記述された第一文章の第一テキストデータと、前記第一単語と意味を区別すべき前記第二単語を含み、前記第二単語の前および後の所定範囲に出現する単語の種類および出現個数を示す第二単語分布が、前記第一文章における前記第一単語の前および後の前記所定範囲の第一単語分布と類似する第二文章の第二テキストデータとを含み、前記第二テキストコーパスは、前記第一単語および前記第二単語の少なくとも一方と同じ単語である第三単語を含み、前記第三単語の前および後の前記所定範囲の第三単語分布が前記第一単語分布と類似しない第三文章の第三テキストデータを含む。   A method according to an aspect of the present disclosure is a semantic information generation method performed by a semantic information generation apparatus, which acquires text data and associates a word with vector information representing the meaning of the word in a vector space of a predetermined dimension. And analyzing the meaning of the text data based on the semantic information table, and outputting information indicating the analyzed meaning. The semantic information table is based on word string arrangements in the first text corpus and the second text corpus. The first vector representing the meaning of the first word in the vector space is assigned to the first word, and the second vector representing the meaning of the second word is assigned to the second word in the vector space. The first text corpus includes the first word and the first text of the first sentence written in natural language. And a second word distribution indicating the type and the number of occurrences of words appearing in a predetermined range before and after the second word, Second text data of a second sentence similar to the first word distribution of the predetermined range before and after the first word in one sentence, the second text corpus includes the first word and the second word Third text data of a third sentence including a third word that is the same word as at least one of the words, and the third word distribution of the predetermined range before and after the third word is not similar to the first word distribution Including.

なお、これらの包括的又は具体的な態様は、システム、装置、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、装置、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。   Note that these comprehensive or specific modes may be realized by a system, an apparatus, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM, and the system, apparatus, integrated circuit, and computer program. Also, any combination of recording media may be realized.

本開示によれば、ある単語に割り当てられるベクトルと、その単語と意味を区別すべき他の単語に割り当てられるベクトルとが近接したものとなることを抑制することができるため、単語の意味が類似しているかどうかの判定に用いることが可能となる。   According to the present disclosure, since a vector assigned to a word and a vector assigned to another word whose meaning should be distinguished from the word can be prevented from being close to each other, the meanings of the words are similar. It can be used to determine whether or not

なお、本開示の更なる効果及び利点は、本明細書及び図面の開示内容から明らかとなるであろう。上記更なる効果及び利点は、本明細書及び図面に開示されている様々な実施の形態及び特徴によって個別に提供されてもよく、必ずしもすべての効果及び利点が提供される必要はない。   Further effects and advantages of the present disclosure will be apparent from the disclosure of the present specification and drawings. The above-described further effects and advantages may be provided individually by the various embodiments and features disclosed in this specification and the drawings, and not all effects and advantages need to be provided.

本開示の一実施の形態における単語意味情報生成装置の構成の一例を表すブロック図である。It is a block diagram showing an example of composition of a word meaning information generating device in a 1 embodiment of this indication. 第二テキストコーパスに含まれる単語が、第一テキストコーパスに含まれる単語の反意語である場合の単語意味情報生成装置の構成の一例を表すブロック図である。It is a block diagram showing an example of a structure of the word meaning information generation apparatus in case the word contained in a 2nd text corpus is an antonym of the word contained in a 1st text corpus. 一般テキストコーパスとして採用されるテキストコーパスの一例を示す図である。It is a figure which shows an example of the text corpus employ | adopted as a general text corpus. 一般テキストコーパスとして採用されるテキストコーパスであって、反意語関係にある単語を含むテキストコーパスの一例を示す図である。It is a figure which shows an example of the text corpus employ | adopted as a general text corpus, Comprising: The word which has an antonym relation is included. 反意語テキストコーパスに格納されるテキストデータの一例を示す図である。It is a figure which shows an example of the text data stored in an antonym text corpus. 出現確率の計算に用いられるニューラルネットワークの構成の一例を示す図である。It is a figure which shows an example of a structure of the neural network used for calculation of an appearance probability. 学習に用いられるテキストデータの一例を示す図である。It is a figure which shows an example of the text data used for learning. 1−of−K形式のベクトルで表された単語の一例を示す図である。It is a figure which shows an example of the word represented by the vector of 1-of-K format. ベクトルX、H、Y(−2),Y(−1),Y(+1),Y(+2)を用いて図6のニューラルネットワークを表現した場合の図である。It is a figure at the time of expressing the neural network of FIG. 6 using the vector X, H, Y (-2) , Y (-1) , Y (+1) , Y (+2) . 本開示の実施の形態における単語意味情報生成装置の学習処理を示すフローチャートである。It is a flowchart which shows the learning process of the word meaning information generation apparatus in embodiment of this indication. 本実施の形態の比較例の意味ベクトルテーブルにおいて、単語「アップ」と単語「ダウン」とに割り当てられた意味ベクトルを主成分分析法で2次元に縮退させたグラフである。In the semantic vector table of the comparative example of this Embodiment, it is the graph which reduced the semantic vector allocated to the word "up" and the word "down" to the two dimensions by the principal component analysis method. 本実施の形態における意味ベクトルテーブにおいて、単語「アップ」と単語「ダウン」とに割り当てられた意味ベクトルを主成分分析法で2次元に縮退させたグラフである。In the semantic vector table in the present embodiment, it is a graph in which semantic vectors assigned to a word “up” and a word “down” are two-dimensionally reduced by a principal component analysis method. 意味情報テーブルの利用形態の第一例を構成する家電機器300のブロック図の一例である。It is an example of the block diagram of the household appliances 300 which comprise the 1st example of the utilization form of a semantic information table. 意味情報テーブルの利用形態の第二例を構成する家電システムのブロック図の一例である。It is an example of the block diagram of the household appliance system which comprises the 2nd example of the utilization form of a semantic information table.

(本開示の基礎となった知見)
前述した従来技術に係る単語に対して多次元のベクトルを割り当てる方式は、自然言語処理技術分野において分布仮説と呼ばれる原理に基づくものである。分布仮説とは、似た意味をもつ単語は同じ文脈で使われるという原理である。言い換えると、似た意味をもつ単語の前後には同じような単語が出現するという原理である。例えば、非特許文献1には、一般的に反意語の関係を持つ単語同士は、文脈が類似する、すなわち、前後の単語列が一致、あるいは、類似することが多いことが指摘されている。
(Knowledge that became the basis of this disclosure)
The above-described method of assigning a multidimensional vector to a word according to the prior art is based on a principle called a distribution hypothesis in the natural language processing technology field. The distribution hypothesis is the principle that words with similar meanings are used in the same context. In other words, the principle is that similar words appear before and after words with similar meanings. For example, Non-Patent Document 1 points out that words having antonym relations are generally similar in context, that is, word strings before and after are often identical or similar.

例えば、「上がる」という単語と「アップする」という単語とは、それぞれ「ボーナス/が/上がる/と/うれしい」、「ボーナス/が/アップする/と/うれしい」のような文を構成する際に使われ、「ボーナス/が」、「と/うれしい」という前後の単語列が共通である。分布仮説に基づく従来技術では、単語に多次元のベクトルを割り当てる際に、テキストコーパスにおいて前後の文脈が類似している単語同士は、値が近いベクトルが割り当てられる。その結果、分布仮説に基づく従来技術は、単語を多次元のベクトルに変換し、得られた多次元のベクトルが類似しているかどうかで、単語の意味が類似しているかどうかを判定することができる。   For example, the words “up” and “up” constitute sentences such as “bonus / increase / increase / and / happy” and “bonus / increase / increase / and / delight”, respectively. The word strings before and after “Bonus / Ga” and “To / I'm happy” are common. In the prior art based on the distribution hypothesis, when assigning a multidimensional vector to a word, vectors having similar values are assigned to words having similar contexts in the text corpus. As a result, the conventional technology based on the distribution hypothesis converts words into multidimensional vectors and determines whether the meanings of words are similar based on whether the obtained multidimensional vectors are similar. it can.

しかしながら、分布仮説に基づく従来技術には、互いに反対の意味をもつ反意語に対しても値が近いベクトルが割り当てられてしまうという課題が存在する。例えば、「上昇する」、「下落する」という単語は、「株価/は/上昇する/だろう」、「株価/は/下落する/だろう」という文に現れるので、「株価/が」「だろう」というように前後の文脈が共通となる。したがって、分布仮説の「似た意味をもつ単語は同じ文脈で使われる」という原理に従うと、「上昇する」「下落する」という反意語も似た意味をもつ単語と判断されてしまう。   However, the conventional technique based on the distribution hypothesis has a problem that vectors having close values are assigned to antonyms having opposite meanings. For example, the words “increase” and “decrease” appear in the sentences “stock price / has / increase / will” and “stock price / has / declines / will”. The context before and after will be common. Therefore, according to the principle of the distribution hypothesis “words with similar meanings are used in the same context”, the antonyms “rising” and “falling” are also judged as words having similar meanings.

一方で、反意語の意味を区別するための手法を開示する従来技術(特許文献1)が存在する。この従来技術では、あらかじめ単語の意味を複数の属性値の組み合わせで表現する概念ベースを構成することが前提となっている。その概念ベースの中で反意語関係にある単語において、ある属性値では値が異なるように属性値を設定しておくことで、反意語関係にある単語同士が区別される。例えば、「上流」「下流」という反意語に対して、“高度”という属性値を持たせて、「上流」に対しては“高度”の属性値に正の数値、「下流」に対しては“高度”の属性値に負の数値を割り当てることで、「上流」と「下流」とが反意語関係であることが表現される。   On the other hand, there is a conventional technique (Patent Document 1) that discloses a method for distinguishing the meaning of antonyms. This prior art is premised on constructing a concept base that expresses the meaning of a word in advance by a combination of a plurality of attribute values. In terms of antonyms in the concept base, by setting attribute values so that the values differ for certain attribute values, words having antonym relationships are distinguished from each other. For example, for the antonyms “upstream” and “downstream”, the attribute value “altitude” is given, the attribute value “altitude” is positive for “upstream”, and the attribute value is “downstream” By assigning a negative numerical value to the attribute value of “altitude”, it is expressed that “upstream” and “downstream” are antonyms.

しかし、特許文献1では、反意語同士で値が異なるように属性値を設定するには、人手による作業により属性値を記述する、あるいは、しかるべき学習方式によってテキストコーパスなどの言語資源データから学習するとの記載に留まっている。したがって、特許文献1では、反意語に対して値が異なるように属性値を設定させることについての具体的な学習方式の開示はない。   However, in Patent Document 1, in order to set an attribute value so that values differ between antonyms, the attribute value is described by manual work, or learning is performed from language resource data such as a text corpus by an appropriate learning method. The description remains. Therefore, in Patent Document 1, there is no disclosure of a specific learning method for setting an attribute value so that a value differs from an antonym.

また、非特許文献1では、反意語が表れる文脈は類似しているとの指摘に留まり、分布仮説に基づく従来技術の上述の課題を解決するための具体的な手段が何ら明示されていない。   Further, in Non-Patent Document 1, it is only pointed out that the context in which antonyms appear is similar, and no specific means for solving the above-described problems of the prior art based on the distribution hypothesis is disclosed.

このように、従来技術によれば、テキストコーパスからの学習により、反意語に対して適切に意味を区別可能な意味情報を割り当てることができないという課題が存在する。   Thus, according to the prior art, there is a problem that semantic information that can appropriately distinguish meanings cannot be assigned to antonyms by learning from a text corpus.

このような課題を解決するために、本開示に係る方法は、第一単語を含み、自然言語で記述された第一文章の第一テキストデータと、前記第一単語と意味を区別すべき第二単語を含み、前記第二単語の前および後の所定範囲に出現する単語の種類および出現個数を示す第二単語分布が、前記第一文章における前記第一単語の前および後の前記所定範囲の第一単語分布と類似する第二文章の第二テキストデータとを含む第一テキストコーパスを取得し、前記第一単語および前記第二単語の少なくとも一方と同じ単語である第三単語を含み、前記第三単語の前および後の前記所定範囲の第三単語分布が前記第一単語分布と類似しない第三文章の第三テキストデータを含む第二テキストコーパスを取得し、前記第一テキストコーパスおよび前記第二テキストコーパスにおける単語列の配列に基づいて、所定次元のベクトル空間において前記第一単語の意味を表す第一ベクトルを前記第一単語に割り当て、前記ベクトル空間において前記第二単語の意味を表す第二ベクトルを前記第二単語に割り当てることで学習を行い、前記第一ベクトルを前記第一単語と対応付けて格納し、前記ベクトル空間において前記第一ベクトルとの距離が所定以上離れた前記第二ベクトルを前記第二単語と対応付けて格納する。   In order to solve such a problem, the method according to the present disclosure includes a first text data of a first sentence that includes a first word and is described in a natural language, and a first text that should be distinguished from the first word. The predetermined range before and after the first word in the first sentence is a second word distribution that includes two words and indicates the type and number of occurrences of the word appearing in the predetermined range before and after the second word. A first text corpus including second text data of a second sentence similar to the first word distribution of the first word, including a third word that is the same word as at least one of the first word and the second word, Obtaining a second text corpus including third text data of a third sentence in which the third word distribution of the predetermined range before and after the third word is not similar to the first word distribution; Second A first vector representing the meaning of the first word in the vector space of a predetermined dimension is assigned to the first word based on the arrangement of the word strings in the text corpus, and a second representing the meaning of the second word in the vector space. Learning is performed by assigning a vector to the second word, the first vector is stored in association with the first word, and the second vector whose distance from the first vector is more than a predetermined distance in the vector space Is stored in association with the second word.

これにより、テキストコーパスからの学習により、ある単語、およびその単語と意味を区別すべき他の単語を区別可能な意味情報の割り当てを実現することが可能となる。   Thereby, it is possible to realize assignment of semantic information that can distinguish a word and other words whose meaning should be distinguished from the word by learning from the text corpus.

より具体的には、実際の単語の使われ方が反映された第一テキストコーパスと、意味を区別すべき単語の周辺の単語列が類似しないように作成された第二テキストコーパスとが取得される。そして、両テキストコーパスから、単語の意味情報であるベクトルが生成されるので、意味を区別すべき単語が異なる文脈で使われるという情報が単語の意味情報の学習に反映される。その結果、意味を区別すべき単語の意味が類似してしまうという従来技術の課題を解決することができる。   More specifically, a first text corpus that reflects how the actual word is used and a second text corpus that is created so that the word strings around the words whose meaning should be distinguished are not similar are acquired. The Then, since the vector which is the semantic information of the word is generated from both text corpora, the information that the word whose meaning should be distinguished is used in different contexts is reflected in the learning of the semantic information of the word. As a result, it is possible to solve the problem of the prior art that the meanings of the words whose meanings should be distinguished are similar.

また、第一単語には所定の次元数のベクトルで表現された意味情報が割り当てられるので、例えば、ベクトル間の距離を用いて第一単語同士の類似度を適切に判断できる。   Moreover, since the semantic information expressed by the vector of a predetermined dimension number is assigned to the first word, for example, the similarity between the first words can be appropriately determined using the distance between the vectors.

また、前記第二テキストコーパスは、第三単語、および自然言語のテキストデータに出現しない人工的に作成された第四単語を含み、前記第三テキストデータにおいて、前記第三単語の前および後の前記所定範囲に含まれる単語は、前記第四単語であるとしてもよい。   The second text corpus includes a third word and an artificially created fourth word that does not appear in the natural language text data. In the third text data, before and after the third word. The word included in the predetermined range may be the fourth word.

これにより、第二テキストコーパスには人工的な単語が含まれることになり、テキストコーパス中の自然言語の単語に対して意味情報を割り当てる際の悪影響を排除することが可能となる。第三単語の周辺の単語を自然言語のある一の単語で置き換えると、その一の単語に対する意味情報が、第二テキストコーパスでの文脈の影響を受けて、本来割り当てられるべき意味情報とは異なる意味情報が割り当てられる可能性がある。そこで、本態様では、第三単語の周辺の単語を第四単語に置き換えることで、上記の問題を解決できる。   Thereby, an artificial word is included in the second text corpus, and it is possible to eliminate an adverse effect when assigning semantic information to a natural language word in the text corpus. When a word around the third word is replaced with a word in the natural language, the semantic information for the one word is different from the semantic information that should be assigned due to the influence of the context in the second text corpus. Semantic information may be assigned. Therefore, in this aspect, the above problem can be solved by replacing the words around the third word with the fourth word.

前記第一テキストデータおよび前記第二テキストデータは、第一言語の単語で構成されており、前記第三テキストデータにおいて、前記第三単語は前記第一言語の単語であり、前記第三単語の前および後の前記所定範囲に含まれる単語は、前記第一言語とは異なる第二言語の単語であるとしてもよい。   The first text data and the second text data are composed of words in a first language, and in the third text data, the third word is a word in the first language, and the third word The words included in the predetermined range before and after may be words in a second language different from the first language.

また、前記第二単語は、前記第一単語に対する反意語であることとしてもよい。   The second word may be an antonym for the first word.

これにより、例えば「上げる」、「下げる」といった反意語を適切に区別することが可能となる。   Thereby, for example, antonyms such as “raise” and “lower” can be appropriately distinguished.

また、前記第二単語は、前記第一単語と同じ意味を有し、当該第一単語と程度の異なる単語であることとしてもよい。   The second word may have the same meaning as the first word and be a word having a different degree from the first word.

これにより、例えば「good」、「better」、「best」といった、同じ意味で程度の異なる単語を適切に区別することが可能となる。   This makes it possible to appropriately distinguish words having different degrees in the same meaning, such as “good”, “better”, and “best”.

また、前記第二単語は、前記第一単語と同じ概念に属し、当該第一単語と属性の異なる単語であることとしてもよい。   The second word may be a word belonging to the same concept as the first word and having a different attribute from the first word.

これにより、例えば「色」という同一の概念に属する「赤」、「青」、「緑」といった属性の異なる単語を適切に区別することが可能となる。   Thereby, for example, words having different attributes such as “red”, “blue”, and “green” belonging to the same concept of “color” can be appropriately distinguished.

また、前記学習は、ニューラルネットワークを用いて行うこととしてもよい。   The learning may be performed using a neural network.

これにより、第一および第二テキストコーパスをニューラルネットワークを用いて学習させることで、第一および第二単語が適切に区別されるように意味情報の割り当てが可能となる。   Thus, by learning the first and second text corpora using the neural network, it is possible to assign semantic information so that the first and second words are appropriately distinguished.

また、前記学習は、潜在的意味インデキシングを用いて行うこととしてもよい。   The learning may be performed using latent semantic indexing.

これにより、第一および第二テキストコーパスを潜在的意味インデキシングを用いて学習させることで、第一および第二単語が適切に区別されるように意味情報の割り当てが可能となる。   Thus, by making the first and second text corpora learn by using latent semantic indexing, it is possible to assign semantic information so that the first and second words are appropriately distinguished.

また、前記学習は、確率的意味インデキシングを用いて行うこととしてもよい。   The learning may be performed using probabilistic semantic indexing.

これにより、第一および第二テキストコーパスを確率的意味インデキシングを用いて学習させることで、第一および第二単語が適切に区別されるように意味情報の割り当てが可能となる。   Thus, by learning the first and second text corpora using probabilistic semantic indexing, it is possible to assign semantic information so that the first and second words are appropriately distinguished.

また、前記所定次元のベクトルは、前記第一テキストコーパスおよび前記第二テキストコーパスに出現する異なり語数を次元数とすることとしてもよい。   The vector of the predetermined dimension may be a number of different words appearing in the first text corpus and the second text corpus.

この構成によれば、意味情報は、第一および第二テキストコーパスに出現する異なり語数の次元を持つベクトルで表されるので、種類の異なる各単語は、例えば、1−of−K形式のベクトルで表現可能となり、学習に適した記号列で表わされる。   According to this configuration, the semantic information is represented by a vector having different word count dimensions appearing in the first and second text corpora, so that each different type of word is, for example, a 1-of-K format vector It can be expressed by a symbol string suitable for learning.

また、前記第一テキストコーパスは、機器を操作する指示に用いられる自然言語のテキストデータを含み、前記第一単語および前記第二単語は、前記機器の操作内容に関する単語であることとしてもよい。   The first text corpus may include natural language text data used for an instruction to operate the device, and the first word and the second word may be words related to the operation content of the device.

これにより、例えば、「温度を上げてください」と「温度を下げてください」、「寝室のエアコンをつけてください」と「リビングのエアコンをつけてください」といった、単語列は類似するが意味が異なる機器への指示を適切に区別し、機器の誤操作を防止することが可能となる。   This makes the word strings similar, for example, “Please raise the temperature”, “Please lower the temperature”, “Turn on the air conditioner in the bedroom” and “Turn on the air conditioner in the living room”. It is possible to appropriately distinguish instructions to different devices and prevent erroneous operation of the devices.

また、前記第一テキストコーパスは、医療診断において患者による症状の説明に用いられる自然言語のテキストデータを含み、前記第一単語は、身体の状態に関する単語であることとしてもよい。   The first text corpus may include natural language text data used for explanation of symptoms by a patient in a medical diagnosis, and the first word may be a word related to a physical condition.

これにより、例えば、「三日前から頭が痛い」、「三日前から頭がふらふらする」といった、単語列は類似するが意味が全く異なる症状の説明を適切に区別し、誤った診断を行うことを防止することが可能となる。   In this way, for example, to properly distinguish between explanations of symptoms that have similar word strings but have completely different meanings, such as “My head hurts from three days ago” and “My head sways from three days ago”. Can be prevented.

また、前記第一テキストコーパスは、医療診断において症状の説明または当該症状に対する処置に用いられる自然言語のテキストデータを含み、前記第一単語は、身体の部位に関する単語であることとしてもよい。   The first text corpus may include natural language text data used for explanation of symptoms or treatment for the symptoms in medical diagnosis, and the first word may be a word related to a body part.

これにより、例えば、「三日前から右手が痛い」および「三日前から腹部が痛い」、あるいは「頭を冷やしてください」および「左足を冷やしてください」といった、単語列は類似するが意味が全く異なる症状の説明または処置の説明を適切に区別し、誤った診断あるいは誤った処置の提示を防止することが可能となる。   This makes the word strings similar, for example, “I have a pain in my right hand from 3 days ago” and “I have a pain in my abdomen from 3 days ago” or “Cool my head” and “Cool my left foot”. It is possible to appropriately distinguish between explanations of different symptoms or explanations of treatments and prevent presentation of wrong diagnosis or wrong treatment.

また、前記第一テキストコーパスは、医療診断において症状に対する処置の説明に用いられる自然言語のテキストデータを含み、前記第一単語は、処置内容に関する単語であることとしてもよい。   The first text corpus may include natural language text data used for explaining treatments for symptoms in medical diagnosis, and the first words may be words related to treatment contents.

これにより、例えば、「患部を温めてください」および「患部を冷やしてください」といった、単語列は類似するが意味が全く異なる処置の説明を適切に区別し、誤った処置の提示を防止することが可能となる。   In this way, for example, “Warm the affected area” and “Cool the affected area”, such as appropriately distinguishing descriptions of treatments that have similar word sequences but completely different meanings, and prevent the presentation of incorrect treatments. Is possible.

また、本開示は、以上のような特徴的な処理を実行する単語意味情報生成方法として実現することができるだけでなく、単語意味情報生成方法に含まれる特徴的なステップを実行するための処理部を備える単語意味情報生成装置などとして実現することもできる。また、このような単語意味情報生成方法に含まれる特徴的な各ステップをコンピュータに実行させるコンピュータプログラムとして実現することもできる。そして、そのようなコンピュータプログラムを、CD−ROM等のコンピュータ読取可能な非一時的な記録媒体あるいはインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。   In addition, the present disclosure can be realized not only as a word meaning information generation method that executes the above characteristic processing, but also as a processing unit for executing characteristic steps included in the word meaning information generation method. It can also be realized as a word meaning information generation device including It can also be realized as a computer program that causes a computer to execute the characteristic steps included in such a word meaning information generation method. Needless to say, such a computer program can be distributed via a computer-readable non-transitory recording medium such as a CD-ROM or a communication network such as the Internet.

以下、本開示の実施の形態について、図面を参照しながら説明する。
なお、以下で説明する実施の形態は、いずれも本開示の一具体例を示すものである。以下の実施の形態で示される数値、形状、構成要素、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、全ての実施の形態において、各々の内容を組み合わせることもできる。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
Note that each of the embodiments described below shows a specific example of the present disclosure. Numerical values, shapes, components, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the present disclosure. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept are described as optional constituent elements. In all the embodiments, the contents can be combined.

(実施の形態)
図1は、本開示の一実施の形態における単語意味情報生成装置の構成の一例を表すブロック図である。単語意味情報生成装置は、例えば、コンピュータで構成され、記憶部110、処理部120、記憶部130、及び操作部108を備える。記憶部110、130は、例えば、ハードディスクドライブやソリッドステートドライブ等の書き換え可能な不揮発性のメモリーで構成される。記憶部110は、第一テキストコーパス101及び第二テキストコーパス102を備える。記憶部130は、意味情報テーブル107を備える。
(Embodiment)
FIG. 1 is a block diagram illustrating an example of a configuration of a word meaning information generation device according to an embodiment of the present disclosure. The word meaning information generation device is configured by a computer, for example, and includes a storage unit 110, a processing unit 120, a storage unit 130, and an operation unit 108. The storage units 110 and 130 are constituted by rewritable nonvolatile memories such as hard disk drives and solid state drives, for example. The storage unit 110 includes a first text corpus 101 and a second text corpus 102. The storage unit 130 includes a semantic information table 107.

処理部120は、例えば、CPU、ASIC、FPGA等のプロセッサで構成され、取得部103、意味情報学習部104、意味情報管理部105、およびコーパス生成部106を備える。操作部108は、例えば、キーボード、およびマウス等の入力装置ならびに情報を表示する表示装置で構成される。   The processing unit 120 includes, for example, a processor such as a CPU, ASIC, and FPGA, and includes an acquisition unit 103, a semantic information learning unit 104, a semantic information management unit 105, and a corpus generation unit 106. The operation unit 108 includes, for example, a keyboard, an input device such as a mouse, and a display device that displays information.

なお、記憶部110、処理部120、及び記憶部130が備える各ブロックは、CPUがコンピュータを単語意味情報生成装置として機能させるプログラムを実行することで実現される。   Each block included in the storage unit 110, the processing unit 120, and the storage unit 130 is realized by the CPU executing a program that causes the computer to function as a word meaning information generation device.

第一テキストコーパス101は、意味情報の生成対象とする単語を含む所定の単位のテキストデータ(例えば、1文を一単位とするテキストデータ)を複数集積したものである。各テキストデータは、単語単位に分割された状態で第一テキストコーパス101に記録される。ここで、1文とは、例えば、句点(例えば、英語であれば、「ピリオド」、日本語であれば「○」)で区画された単語列が該当する。   The first text corpus 101 is obtained by accumulating a plurality of text data in a predetermined unit (for example, text data having one sentence as one unit) including a word for which semantic information is generated. Each text data is recorded in the first text corpus 101 in a state of being divided into words. Here, one sentence corresponds to, for example, a word string divided by punctuation (for example, “period” for English and “◯” for Japanese).

第一テキストコーパス101は、所定の意味を持つ単語(以下、「第一単語」と記述する)が出現する一以上のテキストデータと、第一単語に対して意味を区別すべき単語(以下、「第二単語」と記述する)が出現する一以上のテキストデータとを複数集積したものである。   The first text corpus 101 includes one or more text data in which a word having a predetermined meaning (hereinafter referred to as “first word”) appears, and a word (hereinafter referred to as a word) whose meaning should be distinguished from the first word. A plurality of one or more text data in which “second word” appears) is collected.

第二テキストコーパス102は、第一単語および第二単語の少なくとも一方と同じ単語(以下、「第三単語」と記述する」)が出現する一以上のテキストデータとを複数集積したものである。   The second text corpus 102 is a collection of a plurality of one or more text data in which the same word (hereinafter referred to as “third word”) appears as at least one of the first word and the second word.

第二テキストコーパス102において、第三単語が出現するテキストデータは、自然言語のテキストデータであってもよいし、自然言語に出現しない人工的に作成された単語(以下、「第四単語」と記述する。)を含むテキストデータであってもよい。第四単語が用いられる場合、第三単語を含むテキストデータは、第三単語の周辺の単語列の分布が、第一テキストコーパス101に含まれるテキストデータに出現する第一単語または第二単語の周辺の単語列の分布と異なるように構成されればよい。ここで、「単語の周辺の単語列の分布」とは、対象単語の前後の所定範囲に出現する単語の種類および出現個数を意味する。例えば、「音量を上げて下さい」という文章において、対象単語「上げ」の前後2語分の単語列の分布は、「音量」が1個、「を」が1個、「て」が1個、「下さい」が1個となる。なお、対象単語の前後の所定範囲は、1つの文章すべてを含むような数に設定されてもよく、文章の一部を包含する所定の数(例えば3語)に設定されてもよい。また、「単語列の分布」として、出現する単語の種類および出現個数に加え、単語の出現順序をも考慮してもよい。このように第四単語をテキストデータに含めることにより、テキストコーパス中の自然言語の単語に対して意味情報を割り当てる際の悪影響を排除することが可能となる。   In the second text corpus 102, the text data in which the third word appears may be natural language text data, or an artificially created word that does not appear in the natural language (hereinafter referred to as “fourth word”). May be text data including When the fourth word is used, the text data including the third word has a distribution of word strings around the third word of the first word or the second word appearing in the text data included in the first text corpus 101. What is necessary is just to be comprised so that it may differ from the distribution of the surrounding word string. Here, the “distribution of word strings around a word” means the type and number of words that appear in a predetermined range before and after the target word. For example, in the sentence “Please turn up the volume”, the distribution of the word string for the two words before and after the target word “up” is one “volume”, one “on”, and one “te”. , "Please" will be one. The predetermined range before and after the target word may be set to a number that includes all of one sentence, or may be set to a predetermined number that includes a part of the sentence (for example, three words). Further, as the “word string distribution”, the appearance order of words may be considered in addition to the type and the number of appearance of words. By including the fourth word in the text data in this way, it is possible to eliminate the adverse effect of assigning semantic information to natural language words in the text corpus.

例えば、第三単語の周辺の単語を自然言語のある一の単語で置き換えたとすると、その一の単語に対する意味情報が、第二テキストコーパス102での文脈の影響を受けて、その一の単語に対して、本来割り当てられるべき意味情報とは異なる意味情報が割り当てられる可能性がある。そこで、本開示では、第三単語の周辺の単語を第四単語に置き換えている。   For example, if a word around the third word is replaced with a certain word in the natural language, the semantic information for the one word is affected by the context in the second text corpus 102 and is changed to the one word. On the other hand, there is a possibility that semantic information different from the semantic information that should be assigned is assigned. Therefore, in the present disclosure, words around the third word are replaced with the fourth word.

ここで、第四単語としては、例えば、「#」、「!」、「”」、「$」、「&」というよう自然言語には登場しない記号や、それらを組み合わせた記号列が採用できる。第四単語として一律に同じ記号列を採用すると、第三単語同士に類似する意味情報が割り当てられる可能性がある。そこで、第四単語としては、例えば、第二テキストコーパス102を構成する一つのテキストデータ毎に異なる記号或いは記号列が採用されてもよいし、置き換え対象となる単語毎に異なる記号或いは記号列が採用されてもよいし、対象単語が類似する単語同士においては同じ記号或いは記号列が採用されてもよい。   Here, as the fourth word, for example, a symbol that does not appear in a natural language such as “#”, “!”, “” ”,“ $ ”,“ & ”, Or a symbol string that combines them can be adopted. . If the same symbol string is adopted uniformly as the fourth word, there is a possibility that similar semantic information is assigned to the third words. Therefore, as the fourth word, for example, a different symbol or symbol string may be adopted for each piece of text data constituting the second text corpus 102, or a different symbol or symbol string may be used for each word to be replaced. The same symbol or symbol string may be adopted between words having similar target words.

また、第二テキストコーパス102において、第二テキストコーパス102に含まれるテキストデータは、第三単語の周辺の単語列は第一単語の周辺の単語列と異なる自然言語のテキストデータで構成されてもよい。例えば、「エアコンを入れると涼しい」というテキストデータが第一テキストコーパス101に含まれているとする。この場合、「入れる」の反意語である「切る」に対しては「エアコンを切ると暑い」というように、「切る」の周辺に「涼しい」の反意語である「暑い」の文脈を持つテキストデータで第二テキストコーパス102は構成されればよい。   In the second text corpus 102, the text data included in the second text corpus 102 may be composed of natural language text data in which the word string around the third word is different from the word string around the first word. Good. For example, it is assumed that text data “cool when the air conditioner is turned on” is included in the first text corpus 101. In this case, text data with the context of "hot", which is an antonym of "cool", around "cut", such as "hot when you turn off the air conditioner" for "cut", which is an antonym of "put" Thus, the second text corpus 102 may be configured.

また、例えば、第一、第二テキストコーパス101、102が所定の第一言語(例えば、日本語)で構成される場合、第三単語の周辺の単語列は、第一言語とは異なる第二言語(例えば、英語)で構成されてもよい。例えば、「エアコンを入れると涼しい」というテキストコーパスが第一テキストコーパス101に含まれていたとすると、「エアコン/を」が「APPLE/APPLE」で置き換えられ、「と/涼しい」が「APPLE/APPLE」で置き換えられたテキストデータ「APPLE/APPLE/入れる/APPLE/APPLE」で第二テキストコーパス102は構成されてもよい。   For example, when the first and second text corpora 101 and 102 are configured in a predetermined first language (for example, Japanese), the word string around the third word is different from the first language. You may comprise a language (for example, English). For example, if the first text corpus 101 includes a text corpus “cool when the air conditioner is turned on”, “air conditioner / to” is replaced with “APPLE / APPLE”, and “to / cool” is replaced with “APPLE / APPLE”. The second text corpus 102 may be configured with the text data “APPLE / APPLE / put in / APPLE / APPLE” replaced with “”.

また、第一テキストコーパス101に含まれる第二単語および第二テキストコーパス102に含まれる第三単語の例として、(1)第一テキストコーパス101に含まれる第一単語の反意語、(2)第一テキストコーパス101に含まれる第一単語と同じ意味を有し、程度の異なる単語、(3)第一テキストコーパス101に含まれる第一単語と同じ概念に属し、属性の異なる単語、などが挙げられる。   Examples of the second word included in the first text corpus 101 and the third word included in the second text corpus 102 include (1) an antonym of the first word included in the first text corpus 101, and (2) the second word. A word having the same meaning as the first word included in one text corpus 101 and having a different degree, and (3) a word belonging to the same concept as the first word included in the first text corpus 101 and having different attributes. It is done.

反意語の場合、例えば「上げる」、「下げる」といった反意語を区別することが可能となる。また、同じ意味を有し、程度の異なる単語の場合、例えば「good」、「better」、「best」といった、同じ意味で程度の異なる単語を区別することが可能となる。また、同じ概念に属し、属性の異なる単語の場合、例えば、「色」という同一の概念に属する「赤」、「青」、「緑」といった属性の異なる単語を区別することが可能となる。   In the case of antonyms, it is possible to distinguish antonyms such as “raise” and “lower”. In addition, in the case of words having the same meaning and different degrees, it is possible to distinguish words having the same meaning and different degrees, such as “good”, “better”, and “best”. In addition, in the case of words belonging to the same concept and having different attributes, for example, words having different attributes such as “red”, “blue”, and “green” belonging to the same concept “color” can be distinguished.

取得部103は、第一テキストコーパス101と第二テキストコーパス102とを取得する。ここで、記憶部110がローカルの記憶装置で構成されているのであれば、取得部103は、記憶部110から第一、第二テキストコーパス101、102を読み出せばよい。また、記憶部110が通信ネットワークを介して接続された外部の記憶装置で構成されているのであれば、取得部103は、通信ネットワークを介して記憶部110にアクセスし、第一、第二テキストコーパス101、102を取得すればよい。   The acquisition unit 103 acquires the first text corpus 101 and the second text corpus 102. Here, if the storage unit 110 is configured by a local storage device, the acquisition unit 103 may read the first and second text corpuses 101 and 102 from the storage unit 110. Further, if the storage unit 110 is configured by an external storage device connected via a communication network, the acquisition unit 103 accesses the storage unit 110 via the communication network, and the first and second texts Corpus 101 and 102 may be acquired.

意味情報学習部104は、第一テキストコーパス101および第二テキストコーパス102に含まれるテキストデータにおいて出現する単語を対象単語として、当該対象単語の前後の所定範囲に出現する単語列の分布が類似する単語に対して意味が近くなるように意味情報を割り当てる学習を行う。   The semantic information learning unit 104 uses words appearing in text data included in the first text corpus 101 and the second text corpus 102 as target words, and distributions of word strings appearing in a predetermined range before and after the target words are similar. Learning is performed to assign semantic information so that the meaning is close to the word.

ここで、対象単語に割り当てられる意味情報は、所定の次元数の意味ベクトルにより区別可能に表現されればよい。これにより、例えば、意味ベクトル間の距離を用いて単語同士の類似度を適切に判断できる。   Here, the semantic information assigned to the target word may be expressed so as to be distinguishable by a semantic vector having a predetermined number of dimensions. Thereby, for example, the similarity between words can be appropriately determined using the distance between semantic vectors.

この意味ベクトルは、例えば、第一、第二テキストコーパス101、102に出現する異なり語数が次元数とされればよい。これにより、種類の異なる各単語は、例えば、1−of−Kの形式のベクトルで表現可能となり、学習に適した記号列で表される。   For this semantic vector, for example, the number of different words appearing in the first and second text corpora 101 and 102 may be the number of dimensions. Thus, different types of words can be expressed by, for example, vectors in the form of 1-of-K, and are represented by symbol strings suitable for learning.

なお、意味情報は、所定次元のベクトル空間におけるベクトルではなく、ベクトルの終点に相当する点の座標情報として表現してもよい。   The semantic information may be expressed not as a vector in a vector space of a predetermined dimension but as coordinate information of a point corresponding to the end point of the vector.

また、意味情報は、単語同士の意味がどの程度類似しているかを示す類似度が計算可能な所定の形式で表現されてもよい。類似度が計算可能な所定の形式としては、例えば、上述の意味ベクトルが採用されてもよいし、ベクトル空間内のある基準点(例えば原点)からの各意味ベクトルの先端までの距離が採用されてもよい。この距離を採用する場合、基準点から同一距離にある単語同士は区別できないが、基準点からの距離が異なる単語同士は区別可能となる。また、この場合、類似度がスカラーで表されるので、単語同士の類似度を算出する際の処理負担が軽減される。   In addition, the semantic information may be expressed in a predetermined format that can calculate the degree of similarity indicating how similar the meanings of words are. As the predetermined format in which the similarity can be calculated, for example, the above-described semantic vector may be employed, or the distance from a certain reference point (for example, the origin) in the vector space to the tip of each semantic vector is employed. May be. When this distance is adopted, words at the same distance from the reference point cannot be distinguished from each other, but words having different distances from the reference point can be distinguished from each other. In this case, since the similarity is represented by a scalar, the processing burden when calculating the similarity between words is reduced.

また、意味情報学習部104は、学習として、ニューラルネットワーク、潜在的意味インデキシング、或いは確率的意味インデキシング等を採用すればよい。   The semantic information learning unit 104 may adopt neural network, latent semantic indexing, stochastic semantic indexing, or the like as learning.

意味情報管理部105は、意味情報学習部104による学習の結果である、対象単語に対する意味情報の割り当て状態を示す意味情報テーブル107を管理する。なお、「対象単語」は意味情報の割り当て対象となる単語を指し、第一単語及び第三単語が含まれる。また、第四単語は対象単語とされても良いし、されなくてもよい。   The semantic information management unit 105 manages the semantic information table 107 indicating the assignment state of semantic information to the target word, which is a result of learning by the semantic information learning unit 104. The “target word” refers to a word to which semantic information is assigned, and includes a first word and a third word. The fourth word may or may not be the target word.

意味情報テーブル107は、各単語と、各単語に割り当てられた意味情報との対応関係をテーブル形式で格納するデータである。   The semantic information table 107 is data that stores the correspondence between each word and the semantic information assigned to each word in a table format.

コーパス生成部106は、第一テキストコーパス101を用いて第二テキストコーパス102を生成する。ここで、第二テキストコーパス102は、人為的に生成されてもよいし、自動的に生成されてもよい。人為的に生成する場合、コーパス生成部106は、操作部108が受け付けるオペレータの操作に基づいて第二テキストコーパス102を生成すればよい。この場合、オペレータは、例えば、第一テキストコーパスを1文ずつ編集する操作を入力することで、コーパス生成部106に第二テキストコーパス102を生成させればよい。   The corpus generation unit 106 generates the second text corpus 102 using the first text corpus 101. Here, the second text corpus 102 may be generated artificially or automatically. When generating artificially, the corpus generation unit 106 may generate the second text corpus 102 based on the operator's operation accepted by the operation unit 108. In this case, for example, the operator may cause the corpus generation unit 106 to generate the second text corpus 102 by inputting an operation for editing the first text corpus one sentence at a time.

また、自動的に生成する場合、コーパス生成部106は、第一テキストコーパス101を構成するテキストデータにおいて、意味が所定の関係にある単語のペアを第一、第三単語として抽出する。そして、コーパス生成部106は、抽出した第一単語の前後の所定範囲に出現する単語列を所定の単語で置き換えると共に、第三単語の前後の所定範囲に出現する単語列を所定の単語で置き換え、第二テキストコーパス102に格納する。ここで、所定の単語としては、上述の第四単語或いは第二言語の単語が採用できる。このとき、コーパス生成部106は、第一単語を含むテキストデータと、その第一単語とペアとなる第三単語を含むテキストデータとに対しては、異なる所定の単語を用いて前記置き換えを行えばよい。また、意味が所定の関係を持つ第一、第三単語を抽出する際、コーパス生成部106は、単語同士の対応関係が事前に登録された対応テーブルを用いればよい。この対応テーブルは、例えば、第三単語として反意語が採用されるのであれば、「暑い」−「涼しい」というような反意語の対応関係を事前に登録していればよい。また、コーパス生成部106は、第一単語を含むテキストデータについては単語の置き換えを行わなくてもよい。   In the case of automatic generation, the corpus generation unit 106 extracts word pairs having meanings in a predetermined relationship as first and third words in the text data constituting the first text corpus 101. Then, the corpus generation unit 106 replaces the word string appearing in the predetermined range before and after the extracted first word with the predetermined word, and replaces the word string appearing in the predetermined range before and after the third word with the predetermined word. And stored in the second text corpus 102. Here, as the predetermined word, the above-described fourth word or second language word can be adopted. At this time, the corpus generation unit 106 performs the replacement by using different predetermined words for the text data including the first word and the text data including the third word paired with the first word. Just do it. Further, when extracting the first and third words having a predetermined meaning, the corpus generation unit 106 may use a correspondence table in which correspondences between words are registered in advance. In this correspondence table, for example, if an antonym is adopted as the third word, the correspondence relationship of antonyms such as “hot”-“cool” may be registered in advance. In addition, the corpus generation unit 106 does not have to perform word replacement for text data including the first word.

以下、第二テキストコーパス102に含まれる単語が、第一テキストコーパス101に含まれる単語の反意語である場合を例として説明する。   Hereinafter, a case where the word included in the second text corpus 102 is an antonym of the word included in the first text corpus 101 will be described as an example.

図2は、第二テキストコーパス102に含まれる単語が、第一テキストコーパス101に含まれる単語の反意語である場合の単語意味情報生成装置の構成の一例を表すブロック図である。なお、図2において、図1と同一の構成については同一の符号が付され、説明が省略される。   FIG. 2 is a block diagram illustrating an example of a configuration of the word meaning information generation device when a word included in the second text corpus 102 is an antonym of the word included in the first text corpus 101. In FIG. 2, the same components as those in FIG. 1 are denoted by the same reference numerals, and description thereof is omitted.

図2において、一般テキストコーパス201は、意味情報の生成対象とする単語を含む所定の単位のテキストデータ(例えば、1文を一単位とするテキストデータ)を複数集積したものである。各テキストデータは、単語単位に分割された状態で記録される。   In FIG. 2, a general text corpus 201 is obtained by accumulating a plurality of text data in a predetermined unit (for example, text data having one sentence as one unit) including words for which semantic information is to be generated. Each text data is recorded in a state divided into words.

図3は、一般テキストコーパス201として採用されるテキストコーパス201A、201Bの例を示す図である。図3において、テキストコーパス201Aは、日本語の一般テキストコーパス201の例である。日本語は、単語の区切りがない文字列で記述される場合がほとんどであるが、形態素解析ソフトウェア(例えば、MeCab)によって、単語の区切りがない文字列データから、単語単位に分割された単語列データが得られる。図3の例では、テキストコーパス201Aに含まれるテキストデータの単位が1文単位とされている。テキストコーパス201A中の複数のテキストデータは、それぞれ、識別番号(図3のID)によって識別される。また、テキストコーパス201Aは、各テキストデータを構成する単語を、出現順序に格納する。テキストデータ中の各単語は、インデックス情報(図3のW1〜W6・・・)によって識別される。   FIG. 3 is a diagram illustrating an example of the text corpora 201A and 201B employed as the general text corpus 201. In FIG. 3, a text corpus 201A is an example of a Japanese general text corpus 201. In most cases, Japanese is described in character strings without word delimiters, but word strings divided into word units from character string data without word delimiters by morphological analysis software (for example, MeCab). Data is obtained. In the example of FIG. 3, the unit of text data included in the text corpus 201A is one sentence unit. Each of the plurality of text data in the text corpus 201A is identified by an identification number (ID in FIG. 3). In addition, the text corpus 201A stores words constituting each text data in the appearance order. Each word in the text data is identified by index information (W1 to W6 in FIG. 3).

図3において、テキストコーパス201Bは、英語の一般テキストコーパス201の例である。英語は、空白文字によって単語の区切りが明示された文字列で記述される場合がほとんどであるので、空白文字を境に文字列を分割して、単語列データが得られる。テキストコーパス201Aと同様、テキストコーパス201Bは、テキストデータの単位が1文単位とされ、識別情報(図3のID)でテキストデータが識別される。また、テキストコーパス201Bは、テキストコーパス201Aと同様、テキストデータ中の各単語がインデックス情報(図3のW1〜W5・・・)によって識別される。   In FIG. 3, a text corpus 201B is an example of an English general text corpus 201. Since English is mostly described by a character string in which a word delimiter is specified by a space character, the character string is divided by the space character to obtain word string data. Similar to the text corpus 201A, the text corpus 201B has a text data unit of one sentence, and the text data is identified by identification information (ID in FIG. 3). In the text corpus 201B, as in the text corpus 201A, each word in the text data is identified by index information (W1 to W5 in FIG. 3).

図4は、一般テキストコーパス201として採用されるテキストコーパス201C、201Dであって、反意語関係にある単語を含むテキストコーパス201C、201Dの例を示す図である。テキストコーパス201Cは、日本語のテキストコーパスの例であり、「上げ」が出現するテキストデータと、「上げ」の反意語である「下げ」が出現するテキストデータとが含まれている。また、テキストコーパス201Cには、「アップ」が出現するテキストデータと、「アップ」の反意語である「ダウン」が出現するテキストデータとが含まれている。   FIG. 4 is a diagram illustrating examples of text corpora 201C and 201D that are adopted as the general text corpus 201 and include words having antonym relations. The text corpus 201C is an example of a Japanese text corpus, and includes text data in which “raise” appears and text data in which “lower” that is an antonym of “raise” appears. The text corpus 201C includes text data in which “up” appears and text data in which “down”, which is an antonym of “up”, appears.

この例では、「上げ」「下げ」という単語の前後に出現する単語列が、「音量/を」「て/下さい」で共通し、「アップ」「ダウン」という単語の前後に出現する単語列が、「温度/を」「し/て/欲しい」で共通している。非特許文献1で指摘されているように、一般的に反意語に関しては、反意語が現れる文脈が類似する、すなわち、前後の単語列が一致、あるいは、類似することが多い。   In this example, word strings that appear before and after the words “up” and “down” are common to “volume / on” and “te / please”, and word strings that appear before and after the words “up” and “down”. However, they are common to "temperature / s" and "she / te / want". As pointed out in Non-Patent Document 1, generally, for antonyms, the context in which antonyms appear is similar, that is, the word strings before and after are often the same or similar.

テキストコーパス201Dは、英語のテキストコーパスの例であり、”increase”が出現するテキストデータと、”increase”の反意語である”decrease”が出現するテキストデータとが含まれている。また、テキストコーパス201Dは、”raise”が出現するテキストデータと、”raise”の反意語である”lower”が出現するテキストデータとが含まれている。この例では、”increase””decrease”という単語の前後に出現する単語列が”Please””the/volume”で共通し、”raise””lower”という単語の前後に出現する単語列が”Please””the/temperature”で共通している。   The text corpus 201D is an example of an English text corpus, and includes text data in which “increase” appears and text data in which “decrease”, which is an antonym of “increase”, appears. The text corpus 201D includes text data in which “rise” appears and text data in which “lower”, which is an antonym of “rise”, appears. In this example, the word strings appearing before and after the words “increase” and “decrease” are common in “Please”, “the / volume”, and the word strings appearing before and after the words “rise” and “lower” are “Please”. "" The / temperature "is common.

このように、反意語の現れる文脈が類似するという現象は、日本語以外の英語や他の言語においても共通に見られる現象である。   Thus, the phenomenon that the antonym appears in a similar context is a phenomenon that is commonly seen in English and other languages other than Japanese.

図2において、反意語テキストコーパス202は、一般テキストコーパス201に含まれる反意語関係にある単語の少なくとも一方を含む所定の単位のテキストデータ(例えば、1文を一単位とするテキストデータ)を集積したものである。反意語テキストコーパス202は、一般テキストコーパス201と同じく、各テキストデータは単語単位に分割されて記録される。   In FIG. 2, an antonym text corpus 202 is a collection of predetermined units of text data (for example, text data with one sentence as one unit) including at least one of the antonym-related words included in the general text corpus 201. It is. In the antonym text corpus 202, as with the general text corpus 201, each text data is divided and recorded in units of words.

図5は、反意語テキストコーパス202に格納されるテキストデータの例を示す図である。図5において、テキストコーパス202Aは、日本語の反意語テキストコーパス202の例である。テキストコーパス202Aには、「上げ」が出現するテキストデータと、「上げ」の反意語である「下げ」が出現するテキストデータとが含まれている。「上げ」が出現するテキストデータにおいて、「上げ」の前後に現れる単語列は、「#U1#/#U1#」「#U1#/#U1#」である。すなわち、図4では、「音量/を/上げ/て/下さい」と記述されたテキストデータが「#U1#/#U1#/上げ/#U1#/#U1#」と置き換えられている。   FIG. 5 is a diagram illustrating an example of text data stored in the antonym text corpus 202. In FIG. 5, a text corpus 202A is an example of a Japanese antonym text corpus 202. The text corpus 202A includes text data in which “raise” appears and text data in which “lower” that is an antonym of “raise” appears. In text data in which “raise” appears, the word strings appearing before and after “raise” are “# U1 # / # U1 #” and “# U1 # / # U1 #”. That is, in FIG. 4, text data describing “volume / up / up / te / please” is replaced with “# U1 # / # U1 # / up / # U1 # / # U1 #”.

一方、「下げ」の前後に現れる単語列は、「#D1#/#D1#」「#D1#/#D1#」である。すなわち、図4では、「音量/を/下げ/て/下さい」と記述されたテキストデータが、「#D1#/#D1#/下げ/#D1#/#D1#」と置き換えられている。   On the other hand, the word strings appearing before and after “down” are “# D1 # / # D1 #” and “# D1 # / # D1 #”. That is, in FIG. 4, the text data described as “volume / lower / lower / te / please” is replaced with “# D1 # / # D1 # / lower / # D1 # / # D1 #”.

ここで、「#U1#」「#D1#」という単語(記号)は、上記の第四単語の一例であり、通常の自然言語のテキストには出現しない人工的に作成された単語である。すなわち、「#U1#」「#D1#」という単語(記号)は、一般テキストコーパス201のテキストデータには出現しない単語である。   Here, the words (symbols) “# U1 #” and “# D1 #” are examples of the fourth word described above, and are artificially created words that do not appear in ordinary natural language text. That is, the words (symbols) “# U1 #” and “# D1 #” are words that do not appear in the text data of the general text corpus 201.

このような第四単語「#U1#」「#D1#」を用いて、反意語関係にある「上げ」と「下げ」の前後の単語列が異なるようにテキストコーパス202Aは作成されている。反意語関係にある「アップ」「ダウン」についても同様で第四単語「#U2#」「#D2#」を用いて、「アップ」と「ダウン」との前後に出現する単語列が異なるようにテキストコーパス202Aは作成されている。したがって、テキストコーパス201A、202Aを用いて学習を行うと、反意語が明確に区別されるように意味情報を割り当てることができる。   Using such fourth words “# U1 #” and “# D1 #”, the text corpus 202A is created so that the word strings before and after “up” and “down” in an antonym relationship are different. The same applies to “up” and “down” in the antonym relationship, and the fourth words “# U2 #” and “# D2 #” are used so that the word strings appearing before and after “up” and “down” are different. The text corpus 202A has been created. Therefore, when learning is performed using the text corpora 201A and 202A, semantic information can be assigned so that antonyms can be clearly distinguished.

図5において、テキストコーパス202Bは、英語の場合の反意語テキストコーパス202の例である。テキストコーパス202Bには、”increase”が出現するテキストデータと、”increase”の反意語である”decrease”が出現するテキストデータとが含まれている。両テキストデータにおいて、”increase”の前後に現れる単語列は”#INC#””#INC#/#INC#”である。すなわち、図4では、”Please/increase/the/volume”と記述されたテキストデータが”#INC#/increase/#INC#/#INC#”と置き換えられている。   In FIG. 5, a text corpus 202B is an example of the antonym text corpus 202 in the case of English. The text corpus 202B includes text data in which “increase” appears, and text data in which “decrease”, which is an antonym of “increase”, appears. In both text data, the word strings appearing before and after “increase” are “# INC #” “#INC # / # INC #”. That is, in FIG. 4, the text data described as “Please / increase / the / volume” is replaced with “# INC # / increase / # INC # / # INC #”.

一方、”decrease”の前後に現れる単語列は”#DEC#””#DEC#/#DEC#”である。すなわち、図4では、”Please/decrease/the/volume”と記述されたテキストデータが”#DEC#/decrease/#DEC#/#DEC#”と置き換えられている。   On the other hand, the word strings appearing before and after “decrease” are “# DEC #” “#DEC # / # DEC #”. That is, in FIG. 4, the text data described as “Please / decrease / the / volume” is replaced with “# DEC # / decrease / # DEC # / # DEC #”.

ここで、テキストコーパス202Aと同様に、”#INC#””#DEC#”という単語(記号)は、上記の第四単語の一例であり、通常の自然言語のテキストには出現しない人工的に作成された単語である。   Here, as in the text corpus 202A, the word (symbol) “# INC #” and “# DEC #” is an example of the fourth word described above, and is not artificially appearing in normal natural language text. It is a created word.

このような第四単語”#INC#””#DEC#”を用いて、反意語関係にある”increase””decrease”の前後の単語列が異なるようにテキストコーパス202Bは作成されている。反意語関係にある”raise””lower”に関しても同様に、第四単語”#UP#””#DW#”を用いて、”raise””lower”の前後に出現する単語が異なるようにテキストコーパス202Bは作成されている。したがって、テキストコーパス201B、202Bを用いて学習を行うと、反意語が明確に区別されるように意味情報を割り当てることができる。   Using such fourth words “# INC #” and “# DEC #”, the text corpus 202B is created so that the word strings before and after “increase” and “decrease” in an antonym relation are different. Similarly, with respect to “raise” and “lower” which are antonyms, the fourth word “# UP #” and “# DW #” are used so that the words appearing before and after “rise” and “lower” are different. 202B has been created. Therefore, when learning is performed using the text corpora 201B and 202B, semantic information can be assigned so that antonyms can be clearly distinguished.

なお、図5においては、対象単語に対して直前及び直後に出現する1又は2つの単語が第四単語で置き換えられているが、本開示はこれに限定されず、対象単語の直前及び直後に出現する3つ以上の単語が第四単語で置き換えられてもよい。また、第四単語で置き換えられる直前直後の単語数が一般テキストコーパス201における対象単語の直前直後の単語数と一致していなくてもよい。例えば、テキストコーパス202Bにおいて、”increase””decrease”の直前の単語が一つのみ置き換えられている例を記載しているが、2つ以上、あるいは、1つ以下の第四単語で置き換えるとしてもよい。   In FIG. 5, one or two words appearing immediately before and immediately after the target word are replaced with the fourth word, but the present disclosure is not limited to this, and immediately before and immediately after the target word. Three or more words that appear may be replaced with a fourth word. In addition, the number of words immediately before and after being replaced with the fourth word may not match the number of words immediately before and after the target word in the general text corpus 201. For example, in the text corpus 202B, an example is described in which only one word immediately before “increase” and “decrease” is replaced, but two or more or even one or four fourth words may be replaced. Good.

また、テキストコーパス202Bにおいて、”increase””decrease”の直前の単語が一つしか置き換えられていないのは、元のテキストデータにおいて”increase””decrease”の直前に一つの単語しかないからである。”increase””decrease”の直前に2つ以上の単語があれば、直前の2つの単語が第四単語で置き換えられる。   In the text corpus 202B, only one word immediately before “increase” and “decrease” is replaced because there is only one word immediately before “increase” and “decrease” in the original text data. . If there are two or more words immediately before “increase” and “decrease”, the immediately preceding two words are replaced with the fourth word.

また、図5の例では、1つのテキストデータにおいては、同じ第四単語が用いられているが、これは一例であり、置き換え対象となる単語毎に異なる第四単語が用いられてもよい。   In the example of FIG. 5, the same fourth word is used in one text data. However, this is an example, and a different fourth word may be used for each word to be replaced.

図2において、取得部203は、一般テキストコーパス201と反意語テキストコーパス202とを取得する。   In FIG. 2, the acquisition unit 203 acquires a general text corpus 201 and an antonym text corpus 202.

図2において、意味ベクトル学習部204(意味情報学習部の一例)は、一般テキストコーパス201に含まれるテキストデータ、および、反意語テキストコーパス202に含まれるテキストデータを用いて、テキストコーパス中に出現する単語を対象単語として、対象単語の前後の所定範囲に出現する単語列の分布が類似する単語に対して意味が近くなるように意味ベクトル(意味情報の一例)を割り当てる学習を行う。意味ベクトルは、単語の意味を1次元以上の数値情報で表現したものである。   In FIG. 2, a semantic vector learning unit 204 (an example of a semantic information learning unit) appears in a text corpus using text data included in a general text corpus 201 and text data included in an antonym text corpus 202. Learning is performed in which a semantic vector (an example of semantic information) is assigned so that the meaning is close to a word having a similar distribution of word strings appearing in a predetermined range before and after the target word. The meaning vector represents the meaning of a word with numerical information of one dimension or more.

意味ベクトル管理部205(意味情報管理部の一例)は、意味ベクトル学習部204による学習の結果である、対象単語に対する意味情報の割り当て状態を示す意味ベクトルテーブル207(意味情報の一例)を管理する。   The semantic vector management unit 205 (an example of the semantic information management unit) manages a semantic vector table 207 (an example of the semantic information) indicating the assignment state of the semantic information to the target word, which is a result of learning by the semantic vector learning unit 204. .

コーパス生成部206は、コーパス生成部106と同様、一般テキストコーパス201から反意語テキストコーパス202を生成する。   The corpus generation unit 206 generates the antonym text corpus 202 from the general text corpus 201 as with the corpus generation unit 106.

意味ベクトルテーブル207は、各単語と、各単語に対する意味ベクトルとの対応関係をテーブル形式で格納するデータである。   The semantic vector table 207 is data that stores the correspondence between each word and the semantic vector for each word in a table format.

単語に対する意味ベクトルの割り当ては、類似した文脈をもつ単語、すなわち前後に類似した単語列が出現する単語に対して値が類似した意味ベクトルを割り当てるという原理が採用される。このような原理に基づいて意味ベクトルの学習を行う方式は、非特許文献2、3で開示されている方式で実現できる。   For the assignment of meaning vectors to words, a principle is adopted in which meaning vectors having similar values are assigned to words having similar contexts, that is, words having similar word strings appearing before and after. A method for learning a semantic vector based on such a principle can be realized by the methods disclosed in Non-Patent Documents 2 and 3.

本実施の形態においては、非特許文献3の方式で、単語に意味ベクトルを割り当てるものとする。ここでは、非特許文献3の方式について概略を説明する。まず、意味ベクトル学習部204は、式(1)に示すように、学習データとなる各テキストデータを単語数T(Tは1以上の整数)からなる単語列Wと定式化する。具体的には、意味ベクトル学習部204は、一般テキストコーパス201を構成する全てのテキストデータ及び反意語テキストコーパス202に含まれる全てのテキストデータに出現する全ての単語を抽出し、各単語を後述する1−of―K形式のベクトル表現に置き換えた上で、各テキストデータを1−of−Kの列である単語列Wとして定式化する。   In the present embodiment, it is assumed that a semantic vector is assigned to a word by the method of Non-Patent Document 3. Here, an outline of the method of Non-Patent Document 3 will be described. First, as shown in Expression (1), the semantic vector learning unit 204 formulates each text data serving as learning data as a word string W including the number of words T (T is an integer of 1 or more). Specifically, the semantic vector learning unit 204 extracts all the text data constituting the general text corpus 201 and all the words appearing in all the text data included in the antonym text corpus 202, and each word will be described later. After replacing with a 1-of-K vector representation, each text data is formulated as a word string W which is a 1-of-K string.

Figure 2019212321
Figure 2019212321

学習の目的は式(2)で定義された値を最大化することである。   The purpose of learning is to maximize the value defined by equation (2).

式(2)は、単語列Wのt番目に位置する単語wの前後に出現するc(cは1以上の整数)個の単語wt+jの条件付き出現確率の対数和を、単語列Wのすべての単語について平均することを意味する。jは単語wの前後に出現するc個の単語を特定するためのインデックスであり、−c以上、c以下、且つ、0以外の整数で表される。式(2)を最大化するということは、単語wを入力したときに出力される単語wt+jが、学習データにおいて、単語wに対して前後に出現する単語になっている確率が高いことを意味する。 The expression (2) is obtained by calculating the logarithmic sum of the conditional appearance probabilities of c (where c is an integer of 1 or more) words w t + j appearing before and after the t-th word w t of the word string W. Means to average for all words. j is an index for identifying c words appearing before and after the word w t , and is represented by an integer other than −c and not more than c and other than 0. Maximizing equation (2) means that the word w t + j output when the word w t is input is highly likely to be a word that appears before and after the word w t in the learning data. Means that.

非特許文献3では、式(2)の条件付き出現確率の計算が3層のニューラルネットワークでモデル化されている。図6は、出現確率の計算に用いられるニューラルネットワークの構成の一例を示す図である。   In Non-Patent Document 3, the conditional appearance probability calculation of Expression (2) is modeled by a three-layer neural network. FIG. 6 is a diagram illustrating an example of the configuration of a neural network used for calculating the appearance probability.

図6に示すニューラルネットワークは、式(2)において、c=2とした場合の例が示されている。つまり、このニューラルネットワークは、単語wの前後に2個ずつ出現する4個の単語wt−2、wt−1、wt+1、wt+2に関する条件付き出現確率が最大化されるようにニューラルネットワークを構成する各層同士の結合状態が学習される。 The neural network shown in FIG. 6 shows an example in which c = 2 in Equation (2). That is, the neural network, as four word w t-2, w t- 1, w t + 1, w t + 2 the conditional occurrence probabilities for appearing every two before and after the word w t is maximized Neural The connection state of each layer constituting the network is learned.

図6において、入力層601は、単語wを入力する層である。例えば、図7に示すテキストデータ「今日/の/天気/は/良く/なる/予報/が/出て/いる」中の単語「良く」が単語wであるとすると、「良く」に対応するベクトルが入力層601に入力される。 In FIG. 6, an input layer 601 is a layer for inputting a word w t . For example, if the word “good” in the text data “today / of / weather / has / more / becoming / forecast / get out / is” shown in FIG. 7 is the word w t , it corresponds to “good”. A vector to be input is input to the input layer 601.

ここで、単語wに対応するベクトルは、1−of−K形式と呼ばれる表現形式が採用される。1−of−K形式とは、学習データのテキストコーパスに出現する異なり語数をK個とすると、K個の単語を並べた時にt(tはK以下の整数)番目の単語に対して、K次元ベクトルのt番目の次元のみ「1」、他の次元は「0」を割り当てる表現形式である。 Here, the expression format called 1-of-K format is adopted as the vector corresponding to the word w t . In the 1-of-K format, when the number of different words appearing in the text corpus of learning data is K, when K words are arranged, the t-th word (where t is an integer equal to or less than K) is K Only the t-th dimension of the dimension vector is an expression format in which “1” is assigned and “0” is assigned to other dimensions.

通常、大規模なサイズのテキストコーパスが学習データとされるので、異なり語数は数万〜数十万となり、単語wは数万〜数十万次元のベクトルで表される。例えば、日本語の新聞記事の場合、異なり語数は約20万語足らずであるので、新聞記事が学習データとされた場合、単語wは約20万次元のベクトルで表される。なお、単語wがK次元のベクトルで表されるとすると、入力層601は、K個のノードで構成される。 Usually, since a large-sized text corpus is used as learning data, the number of words is different from tens of thousands to hundreds of thousands, and the word w t is represented by a vector of tens of thousands to hundreds of thousands. For example, in the case of a Japanese newspaper article, the number of words is less than about 200,000. Therefore, when a newspaper article is used as learning data, the word w t is represented by a vector of about 200,000 dimensions. If the word w t is represented by a K-dimensional vector, the input layer 601 is composed of K nodes.

図8は、1−of−K形式のベクトルで表された単語wの一例を示す図である。図8の例では、単語「天気」「は」「良く」「なる」「予報」が1−of−K形式のベクトルで表されている。例えば、単語「天気」は学習データとなるK個の単語のうちt番目に並べられた単語とすると、t番目の次元のみ「1」、他の次元には「0」が割り当てられる。また、単語「は」は単語「天気」の次に並べられているので、t+1番目の次元のみ「1」、他の次元には「0」が割り当てられる。他の単語も同様にして、1−of−K形式のベクトルで表されている。このように、各単語は「1」の出現位置が異なるようにベクトルが割り当てられるので、意味ベクトル学習部204は、「1」が出現する位置から単語を区別できる。なお、K個の単語の並べ方は、特に限定はなく、テキストコーパスでの単語の出現順であってもよいし、ランダム順であってもよい。 FIG. 8 is a diagram illustrating an example of the word w t represented by a vector in the 1-of-K format. In the example of FIG. 8, the words “weather”, “ha”, “well”, “become”, and “forecast” are represented by vectors in the 1-of-K format. For example, if the word “weather” is a word arranged at the t-th among K words serving as learning data, “1” is assigned only to the t-th dimension, and “0” is assigned to the other dimensions. Since the word “ha” is arranged next to the word “weather”, “1” is assigned only to the t + 1th dimension, and “0” is assigned to the other dimensions. Other words are similarly represented by vectors in the 1-of-K format. Thus, since each word is assigned a vector so that the appearance position of “1” is different, the semantic vector learning unit 204 can distinguish the word from the position where “1” appears. The arrangement of the K words is not particularly limited, and may be in the order of appearance of words in the text corpus or in random order.

図6において、隠れ層602は、入力層601に入力されたベクトルの各要素を重み付き線形結合し、得られたスカラー値を活性化関数で変換して得られるベクトルの層である。   In FIG. 6, a hidden layer 602 is a vector layer obtained by weighted linearly combining the elements of the vector input to the input layer 601 and converting the obtained scalar value with an activation function.

隠れ層602のベクトルの次元数は、任意の次元数が設定できるが、通常、入力層601のベクトルの次元数(K次元)に比べて小さい次元数が設定される。非特許文献3では、隠れ層602のベクトルの次元数として、200次元がデフォルトの次元数として設定されている。   Although the number of dimensions of the vector of the hidden layer 602 can be set to an arbitrary number of dimensions, the number of dimensions is usually set smaller than the number of dimensions of the vector of the input layer 601 (K dimension). In Non-Patent Document 3, 200 dimensions is set as a default dimension number as the vector dimension number of the hidden layer 602.

図6において、出力層603A、603B、603C、603Dは、それぞれ、隠れ層602のベクトルの各要素を重み付き線形結合し、得られたスカラー値をSoftmax関数で変換して得られるベクトルの層である。ここでは、出力層603A、603B、603C、603Dは、それぞれ、単語wt−2、wt−1、wt+1、wt+2の出現確率分布を表す。テキストコーパスに含まれる異なり語数がK個の場合、出力層603A、603B、603C、603Dのベクトルは、それぞれ、K次元であり、k番目の次元の値が、k番目の単語wの出現確率を表す。 In FIG. 6, output layers 603A, 603B, 603C, and 603D are vector layers obtained by weighted linearly combining the elements of the vector of the hidden layer 602 and converting the obtained scalar value by the Softmax function. is there. Here, the output layers 603A, 603B, 603C, and 603D represent the appearance probability distributions of the words w t−2 , w t−1 , w t + 1 , and w t + 2 , respectively. When the number of different words included in the text corpus is K, the vectors of the output layers 603A, 603B, 603C, and 603D are each K-dimensional, and the value of the k-th dimension is the appearance probability of the k-th word w k . Represents.

入力層601のベクトルをX、隠れ層602のベクトルをH、出力層603A、603B、603C,603DのベクトルをY(−2),Y(−1),Y(+1),Y(+2)とする。ベクトルXからベクトルHを得る式は式(3)、ベクトルHからベクトルY(−2),Y(−1),Y(+1),Y(+2)のi番目の要素を得る式は式(4)で表される。 The vector of the input layer 601 is X, the vector of the hidden layer 602 is H, the vectors of the output layers 603A, 603B, 603C, and 603D are Y (−2) , Y (−1) , Y (+1) , Y (+2) To do. The equation for obtaining the vector H from the vector X is the equation (3), and the equation for obtaining the i-th element of the vectors Y (−2) , Y (−1) , Y (+1) , Y (+2) from the vector H is 4).

Figure 2019212321
Figure 2019212321

式(3)のWXHはベクトルXの各要素を重み付き線形結合する際の重みを表す行列である。式(4)のベクトルI,Iは、それぞれ、i番目、k番目の次元のみ「1」、他の次元には「0」が割り当てられたK次元のベクトルである。 W XH in Expression (3) is a matrix representing a weight when the elements of the vector X are weighted linearly combined. The vectors I i and I k in Expression (4) are K-dimensional vectors in which “1” is assigned only to the i-th and k-th dimensions, and “0” is assigned to the other dimensions.

式(4)の重み行列W(j)HYはベクトルHを重み付き線形結合する際の重みを表す行列である。式(4)の分子は、ベクトルHを、重み行列W(j)HYのi行目のベクトルで線形結合した値を引数とした指数関数値を示す。式(4)の分母は、ベクトルHを、重み行列W(j)HYの1行目からK行目の各ベクトルで、それぞれ線形結合した値を引数とした指数関数値の和である。 The weight matrix W (j) HY in Expression (4) is a matrix representing the weight when the vector H is weighted linearly combined. The numerator of Expression (4) indicates an exponential function value using as an argument a value obtained by linearly combining the vector H with the vector in the i-th row of the weight matrix W (j) HY . The denominator of Equation (4) is the sum of exponential function values using as arguments the vector H and the vectors linearly combined with the vectors from the first row to the Kth row of the weight matrix W (j) HY .

図9は、ベクトルX、H、Y(−2),Y(−1),Y(+1),Y(+2)を用いて図6のニューラルネットワークを表現した場合の図である。このように定式化されたニューラルネットワークを用いて、意味ベクトル学習部204は、テキストコーパスに含まれるテキストデータに出現する単語wを入力教師信号、単語wt+j(−c≦j≦c,j≠0)を出力教師信号として誤差逆伝搬学習によって重みを表す行列の値を決定する。 FIG. 9 is a diagram when the neural network of FIG. 6 is expressed using vectors X, H, Y (−2) , Y (−1) , Y (+1) , Y (+2) . Using the neural network formulated in this way, the semantic vector learning unit 204 uses the word w t appearing in the text data included in the text corpus as an input teacher signal, and the word w t + j (−c ≦ j ≦ c, j ≠ 0) as an output teacher signal, a matrix value representing a weight is determined by error back propagation learning.

非特許文献3の方法で意味ベクトル学習部204を構成した場合、重み行列WXHが意味ベクトルテーブル207として採用される。各単語を1−of−K形式のベクトルで表すと、式(3)で示される重み行列WXHは、S行×K列の行列で表される。なお、Sは隠れ層602のベクトルの次元数である。 When the semantic vector learning unit 204 is configured by the method of Non-Patent Document 3, the weight matrix W XH is adopted as the semantic vector table 207. When each word is represented by a vector in the 1-of-K format, the weight matrix W XH represented by Expression (3) is represented by a matrix of S rows × K columns. S is the number of dimensions of the hidden layer 602 vector.

重み行列WXHのj番目の列は、1−of−K形式で表現されたベクトルであり、j次元目が1となっている単語の意味ベクトルを表す。したがって、意味ベクトルテーブル207は、重み行列WXHに加えて、重み行列WXHの各列に割り当てられた単語の対応関係を示すテーブルが含まれてもよい。 The j-th column of the weight matrix W XH is a vector expressed in 1-of-K format, and represents a semantic vector of a word whose j-th dimension is 1. Therefore, the semantic vector table 207 may include a table indicating the correspondence between words assigned to each column of the weight matrix W XH in addition to the weight matrix W XH .

なお、重み行列W(−2) HY,W(−1) HY,W(+1) HY,W(+1) HYは、誤差逆伝搬学習を用いた学習フェーズにおいては必要となるが、学習フェーズが終了すれば不要となる。そのため、意味ベクトルテーブル207が利用される利用フェーズにおいては、重み行列WXHのみが用いられる。 The weight matrices W (−2) HY , W (−1) HY , W (+1) HY , W (+1) HY are necessary in the learning phase using error back propagation learning, but the learning phase is When it is finished, it becomes unnecessary. Therefore, in the use phase in which the semantic vector table 207 is used, only the weight matrix W XH is used.

図10は、本開示の実施の形態における単語意味情報生成装置の学習処理を示すフローチャートである。   FIG. 10 is a flowchart illustrating a learning process of the word meaning information generation device according to the embodiment of the present disclosure.

まず、意味ベクトル学習部204は、ニューラルネットワークの重み行列WXH、WHYをランダム値で初期化する(ステップS101)。次に、意味ベクトル学習部204は誤差逆伝搬学習による重み行列WXH、WHYの値の変化が所定の閾値を下回り、学習が収束したか否かを判定する(ステップS102)。学習が収束したと判定した場合(S102でYES)、意味ベクトル学習部204は、学習処理を終了する。重み行列WXH、WHYが所定の閾値を下回らなければ、意味ベクトル学習部204は、学習は収束していないと判定し(ステップS102でNO)、処理をステップS103に進める。 First, the semantic vector learning unit 204 initializes the neural network weight matrices W XH and W HY with random values (step S101). Next, the semantic vector learning unit 204 determines whether or not the change in the values of the weight matrices W XH and W HY by the error back propagation learning is below a predetermined threshold value and the learning has converged (step S102). When it is determined that the learning has converged (YES in S102), the semantic vector learning unit 204 ends the learning process. If the weight matrices W XH and W HY are not less than the predetermined threshold, the semantic vector learning unit 204 determines that the learning has not converged (NO in step S102), and advances the process to step S103.

次に、取得部203は、学習対象のテキストコーパスからテキストデータを1つ取り出す(ステップS103)。ここで、学習対象のテキストコーパスは、一般テキストコーパス201および反意語テキストコーパス202である。したがって、取得部203は、両テキストコーパスの中からいずれか1つのテキストデータを取り出せばよい。   Next, the acquisition unit 203 extracts one piece of text data from the text corpus to be learned (step S103). Here, the text corpus to be learned is a general text corpus 201 and an antonym text corpus 202. Therefore, the acquisition unit 203 may extract any one text data from both text corpora.

次に、意味ベクトル学習部204は、取り出された1つのテキストデータに含まれるある一つの単語wを入力教師信号、単語wの前後のj個の単語wt+j(−c≦j≦c,j≠0)を出力教師信号とし、誤差逆伝搬学習で重み行列WXH、WHYの値を変化させ(ステップS104)、処理をステップS102に戻す。 Next, the semantic vector learning unit 204, the input teacher signal is one of a word w t included in one text data retrieved word w before and after the j word w of t t + j (-c ≦ j ≦ c , J ≠ 0) as an output teacher signal, the values of the weight matrices W XH and W HY are changed by back propagation learning (step S104), and the process returns to step S102.

つまり、意味ベクトル学習部204は、重み行列WXH、WHYの値の変化が閾値を下回るまで、学習対象のテキストコーパスから1つずつテキストデータを取り出すのである。なお、学習対象のテキストコーパスに含まれるテキストデータを全て取り出しても学習が収束しなければ、取得部203は、再度、1番目のテキストデータから順次にテキストデータを取り出していけばよい。つまり、学習処理では、学習対象のテキストコーパスの中から、テキストデータがサイクリックに取り出され、重み行列WXH、WHYの値を収束させるのである。 That is, the semantic vector learning unit 204 extracts text data one by one from the learning target text corpus until the change in the values of the weight matrices W XH and W HY falls below the threshold value. If the learning does not converge even if all the text data included in the text corpus to be learned is extracted, the acquisition unit 203 may extract the text data sequentially from the first text data again. That is, in the learning process, text data is cyclically extracted from the text corpus to be learned, and the values of the weight matrices W XH and W HY are converged.

以上の説明の通り、意味ベクトル学習部204は、テキストコーパス中のテキストデータを教師信号として、ある単語を入力として、その単語の前後の単語の出現確率が高くなるように、ニューラルネットワークの重み行列を修正し、単語に割り当てる意味ベクトルを学習する。このことから、必然的に、テキストコーパスに含まれる複数の単語において、前後の単語列が類似している単語同士は、学習される意味ベクトルも類似する。これは、同じ意味をもつ単語は似た文脈で出現するという分布仮説に基づいた学習が行われるからである。   As described above, the semantic vector learning unit 204 receives the text data in the text corpus as a teacher signal and inputs a certain word, and the weight matrix of the neural network is set so that the appearance probability of the word before and after the word increases. To learn the semantic vector assigned to the word. For this reason, inevitably, in a plurality of words included in the text corpus, words having similar word strings before and after have similar semantic vectors to be learned. This is because learning based on the distribution hypothesis that words having the same meaning appear in similar contexts is performed.

しかし、現実の自然言語のテキストでは、反意語も似たような文脈を伴って出現することが多い。図4に示したテキストコーパス201C、201Dの例に見られるように、反意語の関係にある単語同士の文脈は、前後の単語列が一致する、あるいは、類似することが多い。そのため、普通に収集したテキストコーパスを学習データとして分布仮説に基づいた学習を行うと、反意語の関係にある単語同士に割り当てられる意味ベクトルが類似し、両者を明確に区別することが困難になる。   However, in an actual natural language text, antonyms often appear with a similar context. As can be seen in the examples of the text corpora 201C and 201D shown in FIG. 4, the contexts of the words having antonyms are often the same as or similar to each other. For this reason, when learning based on the distribution hypothesis is performed using a normally collected text corpus as learning data, the semantic vectors assigned to the words having the antonym relationship are similar, and it becomes difficult to clearly distinguish the two.

図11は、本実施の形態の比較例の意味ベクトルテーブルにおいて、単語「アップ」と単語「ダウン」とに割り当てられた意味ベクトルを主成分分析法で2次元に縮退させたグラフである。この比較例の意味ベクトルテーブルは、日本語版のWikipediaを形態素解析して作成されたテキストコーパスに対して、分布仮説に基づく学習を実施することで得られたものである。図11に示されるように、単語「アップ」と単語「ダウン」とは、近接した位置に配置されており、非常に近い意味ベクトルが割り当てられていることが分かる。   FIG. 11 is a graph in which the semantic vectors assigned to the word “up” and the word “down” are reduced in two dimensions by the principal component analysis method in the semantic vector table of the comparative example of the present embodiment. The semantic vector table of this comparative example is obtained by performing learning based on the distribution hypothesis on a text corpus created by morphological analysis of the Japanese version of Wikipedia. As shown in FIG. 11, the word “up” and the word “down” are arranged at close positions, and it is understood that very close semantic vectors are assigned.

図12は、本実施の形態における意味ベクトルテーブル207において、単語「アップ」と単語「ダウン」とに割り当てられた意味ベクトルを主成分分析法で2次元に縮退させたグラフである。図12では、日本語版のWikipediaから作成されたテキストコーパスが一般テキストコーパス201として用いられている。また、単語「アップ」と単語「ダウン」とを含む反意語に対して、図5の202Aに示されるような反意語の文脈が異なるように作成されたテキストコーパスが反意語テキストコーパス202として用いられている。そして、両テキストコーパスに対して分布仮説に基づく学習が実施され、意味ベクトルテーブル207が作成されている。   FIG. 12 is a graph in which the semantic vectors assigned to the word “up” and the word “down” in the semantic vector table 207 in this embodiment are reduced to two dimensions by the principal component analysis method. In FIG. 12, a text corpus created from the Japanese version of Wikipedia is used as the general text corpus 201. Also, a text corpus created so that the antonym context shown in 202A of FIG. 5 differs for antonyms including the word “up” and the word “down” is used as the antonym text corpus 202. . Then, learning based on the distribution hypothesis is performed for both text corpora, and a semantic vector table 207 is created.

つまり、意味ベクトルテーブル207においては、第一単語の意味を表す第一ベクトルと第一単語とが対応付けられて格納されるとともに、ベクトル空間において第一ベクトルとの距離が所定以上離れた第二ベクトルと第二単語とが対応付けられて格納される。   That is, in the semantic vector table 207, the first vector representing the meaning of the first word and the first word are stored in association with each other, and the distance from the first vector in the vector space is a predetermined distance or more. The vector and the second word are stored in association with each other.

図12に示されるように、単語「アップ」と単語「ダウン」とは、図11に比べて大幅に離れて配置されており、顕著に相違する意味ベクトルが割り当てられていることがわかる。   As shown in FIG. 12, the word “up” and the word “down” are arranged far apart compared to FIG. 11, and it can be seen that a significantly different meaning vector is assigned.

このように、本実施の形態の単語意味情報生成装置では、通常の一般テキストコーパス201に加え、反意語の関係を持つ単語同士の文脈が異なるように作成された反意語テキストコーパス202が用いられている。そして、両テキストコーパスに対して分布仮説に基づく学習が実施されているので、反意語の関係を持つ単語同士が適切に区別されるように各単語に意味ベクトルを割り当てることが可能となる。   As described above, in the word meaning information generation apparatus according to the present embodiment, the antonym text corpus 202 created so that the contexts of the words having antonym relations are different is used in addition to the normal general text corpus 201. . Since learning based on the distribution hypothesis is performed for both text corpora, it is possible to assign a semantic vector to each word so that words having antonym relations can be appropriately distinguished from each other.

以上、ある単語とその反意語とを区別する例を用いて本開示は説明された。本開示は、この他に、以下のような具体的な事例に応用することが可能である。   As described above, the present disclosure has been described using an example of distinguishing a word from its antonym. In addition to this, the present disclosure can be applied to the following specific examples.

(1)例えば、第一テキストコーパス101は、機器を操作する指示に用いられる自然言語のテキストデータを含み、第二テキストコーパス102は、機器の操作内容に関する単語を第三単語として含むように構成することができる。このようにすることで、例えば、「温度を上げてください」と「温度を下げてください」、「寝室のエアコンをつけてください」と「リビングのエアコンをつけてください」といった、単語列は類似するが意味が異なる指示を適切に区別し、機器の誤操作を防止することが可能となる。   (1) For example, the first text corpus 101 includes natural language text data used for an instruction to operate the device, and the second text corpus 102 includes a word related to the operation content of the device as a third word. can do. By doing this, for example, “Please raise the temperature”, “Please lower the temperature”, “Turn on the air conditioner in the bedroom” and “Turn on the air conditioner in the living room”. However, it is possible to appropriately distinguish instructions having different meanings and prevent erroneous operation of the device.

(2)また、第一テキストコーパス101は医療診断において患者による症状の説明に用いられる自然言語のテキストデータを含み、第二テキストコーパス102は身体の状態に関する単語を第三単語として含むように構成することができる。このようにすることで、例えば、例えば、「三日前から頭が痛い」、「三日前から頭がふらふらする」といった、単語列は類似するが意味が全く異なる症状の説明を適切に区別し、誤った診断を行うことを防止することが可能となる。   (2) Also, the first text corpus 101 includes natural language text data used for explanation of symptoms by a patient in medical diagnosis, and the second text corpus 102 includes a word related to the physical condition as a third word. can do. By doing so, for example, appropriately distinguishing descriptions of symptoms that are similar in word sequence but completely different in meaning, for example, “My head hurts from three days ago” and “My head sways from three days ago” It is possible to prevent wrong diagnosis.

(3)また、第一テキストコーパス101は医療診断において症状の説明または当該症状に対する処置に用いられる自然言語のテキストデータを含み、第二テキストコーパス102は身体の部位に関する単語を第三単語として含むように構成することができる。このようにすることで、例えば、「三日前から右手が痛い」および「三日前から腹部が痛い」、あるいは「頭を冷やしてください」および「左足を冷やしてください」といった、単語列は類似するが意味が全く異なる症状の説明または処置の説明を適切に区別し、誤った診断あるいは誤った処置の提示を防止することが可能となる。   (3) The first text corpus 101 includes natural language text data used for explanation or treatment of symptoms in medical diagnosis, and the second text corpus 102 includes words relating to body parts as third words. It can be constituted as follows. By doing this, for example, word strings like “right hand hurts from 3 days ago” and “abdomen hurts from 3 days ago” or “cool your head” and “cool your left foot” are similar. However, it is possible to appropriately distinguish between explanations of symptoms or treatments with completely different meanings, and prevent wrong diagnosis or presentation of wrong treatments.

(4)また、第一テキストコーパス101は医療診断において症状に対する処置の説明に用いられる自然言語のテキストデータを含み、第二テキストコーパス102は処置内容に関する単語を第三単語として含むように構成することができる。このようにすることで、例えば、「患部を温めてください」と「患部を冷やしてください」といった、単語列は類似するが意味が全く異なる処置の説明を適切に区別し、誤った処置の提示を防止することが可能となる。   (4) Further, the first text corpus 101 includes natural language text data used for explanation of treatments for symptoms in medical diagnosis, and the second text corpus 102 is configured to include words related to treatment contents as third words. be able to. In this way, for example, “Please warm the affected area” and “Cool the affected area”, but appropriately distinguish between descriptions of treatments that have similar word strings but have completely different meanings, and present incorrect treatments. Can be prevented.

次に、上記の学習で作成された意味情報テーブルの利用形態について説明する。図13は、意味情報テーブルの利用形態の第一例を構成する家電機器300のブロック図の一例である。   Next, a usage form of the semantic information table created by the above learning will be described. FIG. 13 is an example of a block diagram of a household electrical appliance 300 that constitutes a first example of a usage form of the semantic information table.

家電機器300は、テレビ、レコーダ、オーディオ装置、洗濯機、空気調和機、冷蔵庫、照明装置といった、種々の家電機器で構成される。   The home appliance 300 includes various home appliances such as a television, a recorder, an audio device, a washing machine, an air conditioner, a refrigerator, and a lighting device.

家電機器300は、意味情報テーブル301、マイク302、音声処理部303、解析部304、コマンド生成部305、およびコマンド実行部306を備える。意味情報テーブル301は、図1に示す第一、第二テキストコーパス101、102に対して、上記の学習を実施することで作成されたテーブルであり、図1の意味情報テーブル107に相当する。   The home appliance 300 includes a semantic information table 301, a microphone 302, an audio processing unit 303, an analysis unit 304, a command generation unit 305, and a command execution unit 306. The semantic information table 301 is a table created by performing the above learning on the first and second text corpuses 101 and 102 shown in FIG. 1, and corresponds to the semantic information table 107 in FIG.

マイク302は、音声を電気的な音声信号に変換するものであり、ユーザの音声を収音するために用いられる。音声処理部303は、マイク302から出力された音声信号を解析し、ユーザが発話した音声を示すテキストデータを生成する。解析部304は、音声処理部303で生成されたテキストデータを意味情報テーブル301を用いて解析する。ここで、解析部304は、入力されたテキストデータを構成する各単語の意味情報を意味情報テーブル301を参照することで決定する。そして、解析部304は、決定した各単語の意味情報から、ユーザの発話内容が家電機器300に対する操作に関するものであるか否かを判定する。そして、ユーザの発話内容が家電機器300に対する操作に関するものであれば、解析部304は、その操作を示す操作情報をコマンド生成部305に出力する。   The microphone 302 converts the sound into an electric sound signal, and is used to collect the user's sound. The voice processing unit 303 analyzes the voice signal output from the microphone 302 and generates text data indicating the voice uttered by the user. The analysis unit 304 analyzes the text data generated by the voice processing unit 303 using the semantic information table 301. Here, the analysis unit 304 determines semantic information of each word constituting the input text data by referring to the semantic information table 301. Then, the analysis unit 304 determines whether or not the user's utterance content is related to an operation on the home appliance 300 from the determined semantic information of each word. If the user's utterance content relates to an operation on home appliance 300, analysis unit 304 outputs operation information indicating the operation to command generation unit 305.

コマンド生成部305は、入力された操作情報が示す操作を実行するコマンドを生成し、コマンド実行部306に出力する。コマンド実行部306は、入力されたコマンドを実行する。これにより、家電機器300は意味情報テーブル301を用いて、ユーザが発話する操作内容を適切に認識できる。   The command generation unit 305 generates a command for executing the operation indicated by the input operation information and outputs the command to the command execution unit 306. The command execution unit 306 executes the input command. As a result, the home appliance 300 can appropriately recognize the operation content that the user speaks using the semantic information table 301.

図14は、意味情報テーブルの利用形態の第二例を構成する家電システムのブロック図の一例である。この家電システムは、音声認識の機能をクラウド上に存在するサーバ500に担わせて、音声により家電機器400を操作するものである。   FIG. 14 is an example of a block diagram of a home appliance system that constitutes a second example of the usage form of the semantic information table. In this home appliance system, a server 500 existing on the cloud has a voice recognition function, and the home appliance 400 is operated by voice.

家電機器400及びサーバ500は、例えば、インターネット等の公衆通信ネットワークを介して接続されている。   The home appliance 400 and the server 500 are connected via a public communication network such as the Internet, for example.

家電機器400は、図13で説明した家電機器300と同じである。但し、第二例では、家電機器400は、音声認識を行わないので、意味情報テーブル501、音声処理部502、解析部503、およびコマンド生成部504はサーバ500に設けられている。   The household electrical appliance 400 is the same as the household electrical appliance 300 demonstrated in FIG. However, in the second example, since the home appliance 400 does not perform voice recognition, the semantic information table 501, the voice processing unit 502, the analysis unit 503, and the command generation unit 504 are provided in the server 500.

マイク401は、図13のマイク302と同じである。信号処理部402は、マイク401から入力される音声信号がノイズであるか否かを判定し、ノイズで無い場合、その音声信号を通信部404に出力する。通信部404は、入力された音声信号を通信可能なフォーマットを持つ通信信号に変換し、サーバ500に送信する。   The microphone 401 is the same as the microphone 302 in FIG. The signal processing unit 402 determines whether or not the audio signal input from the microphone 401 is noise. If the audio signal is not noise, the signal processing unit 402 outputs the audio signal to the communication unit 404. The communication unit 404 converts the input audio signal into a communication signal having a communicable format and transmits it to the server 500.

サーバ500の通信部505は、家電機器400からの通信信号を受信し、音声信号を取り出して、音声処理部502に出力する。音声処理部502は、図13に示す音声処理部303と同様、入力された音声信号を解析し、ユーザが発話した音声を示すテキストデータを生成する。解析部503は、図13に示す解析部304と同様、音声処理部502で生成されたテキストデータを意味情報テーブル501を用いて解析し、操作情報をコマンド生成部504に出力する。   The communication unit 505 of the server 500 receives a communication signal from the home appliance 400, extracts an audio signal, and outputs the audio signal to the audio processing unit 502. Similar to the speech processing unit 303 shown in FIG. 13, the speech processing unit 502 analyzes the input speech signal and generates text data indicating the speech uttered by the user. Similar to the analysis unit 304 shown in FIG. 13, the analysis unit 503 analyzes the text data generated by the speech processing unit 502 using the semantic information table 501, and outputs operation information to the command generation unit 504.

コマンド生成部504は、入力された操作情報が示す操作を実行するコマンドを生成し、通信部505に出力する。通信部505は、入力されたコマンドを通信可能なフォーマットを持つ通信信号に変換し、家電機器400に送信する。   The command generation unit 504 generates a command for executing the operation indicated by the input operation information and outputs the command to the communication unit 505. The communication unit 505 converts the input command into a communication signal having a communicable format and transmits the communication signal to the home appliance 400.

家電機器400の通信部404は通信信号を受信し、受信した通信信号からヘッダー等を除去し、信号処理部402に出力する。信号処理部402は、ヘッダーが除去された通信信号が家電機器400のコマンドである場合、そのコマンドをコマンド実行部403に出力する。コマンド実行部403は、入力されたコマンドを実行する。   The communication unit 404 of the home appliance 400 receives a communication signal, removes a header or the like from the received communication signal, and outputs the header to the signal processing unit 402. When the communication signal from which the header has been removed is a command of home appliance 400, signal processing unit 402 outputs the command to command execution unit 403. The command execution unit 403 executes the input command.

このように、図14の家電システムでは、サーバ500は、上記の学習により生成された意味情報テーブル501を用いて、ユーザが発話する操作内容を適切に認識し、家電機器400にコマンドを送信することができる。   As described above, in the home appliance system of FIG. 14, the server 500 appropriately recognizes the operation content spoken by the user using the semantic information table 501 generated by the learning, and transmits a command to the home appliance 400. be able to.

本開示にかかる単語意味情報生成装置は、自然言語テキストの意味を取り扱うアプリケーションへの応用が有効である。例えば、類似の意味の文の検索、言い換え処理、対話システムにおける発話文の意味分類などに応用が可能である。   The word meaning information generating apparatus according to the present disclosure is effective when applied to an application that handles the meaning of natural language text. For example, the present invention can be applied to retrieval of sentences having similar meanings, paraphrase processing, semantic classification of uttered sentences in a dialogue system, and the like.

101 第一テキストコーパス
102 第二テキストコーパス
103 取得部
104 意味情報学習部
105 意味情報管理部
106 コーパス生成部
107 意味情報テーブル
108 操作部
110 記憶部
120 処理部
130 記憶部
201 一般テキストコーパス
201A、201B、201C、201D テキストコーパス
202 反意語テキストコーパス
202A、202B テキストコーパス
203 取得部
204 意味ベクトル学習部
205 意味ベクトル管理部
206 コーパス生成部
207 意味ベクトルテーブル
DESCRIPTION OF SYMBOLS 101 1st text corpus 102 2nd text corpus 103 Acquisition part 104 Semantic information learning part 105 Semantic information management part 106 Corpus generation part 107 Semantic information table 108 Operation part 110 Storage part 120 Processing part 130 Storage part 201 General text corpus 201A, 201B , 201C, 201D Text corpus 202 Antonym text corpus 202A, 202B Text corpus 203 Acquisition unit 204 Semantic vector learning unit 205 Semantic vector management unit 206 Corpus generation unit 207 Semantic vector table

Claims (16)

意味情報生成装置が行う意味情報生成方法であって、
テキストデータを取得し、
単語と、所定次元のベクトル空間において前記単語の意味を表すベクトル情報とを対応付けた意味情報テーブルに基づき、前記テキストデータの意味を解析し、
前記解析された意味を示す情報を出力し、
前記意味情報テーブルは、
第一テキストコーパスおよび第二テキストコーパスにおける単語列の配列に基づいて、前記ベクトル空間において第一単語の意味を表す第一ベクトルを前記第一単語に割り当て、前記ベクトル空間において第二単語の意味を表す第二ベクトルを前記第二単語に割り当てる学習により生成されたものであり、
前記第一テキストコーパスは、前記第一単語を含み、自然言語で記述された第一文章の第一テキストデータと、前記第一単語と意味を区別すべき前記第二単語を含み、前記第二単語の前および後の所定範囲に出現する単語の種類および出現個数を示す第二単語分布が、前記第一文章における前記第一単語の前および後の前記所定範囲の第一単語分布と類似する第二文章の第二テキストデータとを含み、
前記第二テキストコーパスは、前記第一単語および前記第二単語の少なくとも一方と同じ単語である第三単語を含み、前記第三単語の前および後の前記所定範囲の第三単語分布が前記第一単語分布と類似しない第三文章の第三テキストデータを含む、
意味情報生成方法。
A semantic information generation method performed by a semantic information generation device,
Get text data,
Based on a semantic information table in which words and vector information representing the meaning of the words in a vector space of a predetermined dimension are associated, the meaning of the text data is analyzed,
Outputting information indicating the analyzed meaning;
The semantic information table is
Based on the arrangement of word strings in the first text corpus and the second text corpus, a first vector representing the meaning of the first word in the vector space is assigned to the first word, and the meaning of the second word in the vector space is assigned. Generated by learning to assign a second vector to the second word,
The first text corpus includes the first word, includes first text data of a first sentence written in a natural language, the second word whose meaning should be distinguished from the first word, and the second The second word distribution indicating the type and number of occurrences of the word appearing in the predetermined range before and after the word is similar to the first word distribution in the predetermined range before and after the first word in the first sentence. Second text data of the second sentence,
The second text corpus includes a third word that is the same word as at least one of the first word and the second word, and the third word distribution of the predetermined range before and after the third word is the first word. Including the third text data of the third sentence that is not similar to the one word distribution,
Semantic information generation method.
前記第二テキストコーパスは、前記第三単語、および自然言語のテキストデータに出現しない人工的に作成された第四単語を含み、
前記第三テキストデータにおいて、前記第三単語の前および後の前記所定範囲に含まれる単語は、前記第四単語である、
請求項1記載の意味情報生成方法。
The second text corpus includes the third word and an artificially created fourth word that does not appear in natural language text data;
In the third text data, the word included in the predetermined range before and after the third word is the fourth word,
The semantic information generation method according to claim 1.
前記第一テキストデータおよび前記第二テキストデータは、第一言語の単語で構成されており、
前記第三テキストデータにおいて、前記第三単語は前記第一言語の単語であり、前記第三単語の前および後の前記所定範囲に含まれる単語は、前記第一言語とは異なる第二言語の単語である
請求項1記載の意味情報生成方法。
The first text data and the second text data are composed of words in a first language,
In the third text data, the third word is a word in the first language, and words included in the predetermined range before and after the third word are in a second language different from the first language. The semantic information generation method according to claim 1, which is a word.
前記第二単語は、前記第一単語に対する反意語である
請求項1記載の意味情報生成方法。
The semantic information generation method according to claim 1, wherein the second word is an antonym for the first word.
前記第二単語は、前記第一単語と同じ意味を有し、当該第一単語と程度の異なる単語である、
請求項1記載の意味情報生成方法。
The second word has the same meaning as the first word, and is a different word from the first word.
The semantic information generation method according to claim 1.
前記第二単語は、前記第一単語と同じ概念に属し、当該第一単語と属性の異なる単語である、
請求項1記載の意味情報生成方法。
The second word belongs to the same concept as the first word and has a different attribute from the first word.
The semantic information generation method according to claim 1.
前記学習は、ニューラルネットワークを用いて行われる、
請求項1記載の意味情報生成方法。
The learning is performed using a neural network.
The semantic information generation method according to claim 1.
前記学習は、潜在的意味インデキシングを用いて行われる、
請求項1記載の意味情報生成方法。
The learning is performed using latent semantic indexing,
The semantic information generation method according to claim 1.
前記学習は、確率的意味インデキシングを用いて行われる、
請求項1記載の意味情報生成方法。
The learning is performed using probabilistic semantic indexing.
The semantic information generation method according to claim 1.
前記ベクトル空間は、前記第一テキストコーパスおよび前記第二テキストコーパスに出現する異なり語数を次元数とする、
請求項1記載の意味情報生成方法。
The vector space has the number of different words appearing in the first text corpus and the second text corpus as the number of dimensions.
The semantic information generation method according to claim 1.
前記第一テキストコーパスは、機器を操作する指示に用いられる自然言語のテキストデータを含み、
前記第三単語は、前記機器の操作内容に関する単語である、
請求項1記載の意味情報生成方法。
The first text corpus includes natural language text data used for instructions to operate the device,
The third word is a word related to the operation content of the device.
The semantic information generation method according to claim 1.
前記第一テキストコーパスは、医療診断において患者による症状の説明に用いられる自然言語のテキストデータを含み、
前記第三単語は、身体の状態に関する単語である、
請求項1記載の意味情報生成方法。
The first text corpus includes natural language text data used to explain symptoms by a patient in a medical diagnosis,
The third word is a word related to a physical condition.
The semantic information generation method according to claim 1.
前記第一テキストコーパスは、医療診断において症状の説明または当該症状に対する処置に用いられる自然言語のテキストデータを含み、
前記第三単語は、身体の部位に関する単語である、
請求項1記載の意味情報生成方法。
The first text corpus includes natural language text data used for explanation of symptoms or treatment for the symptoms in medical diagnosis,
The third word is a word related to a body part,
The semantic information generation method according to claim 1.
前記第一テキストコーパスは、医療診断において症状に対する処置の説明に用いられる自然言語のテキストデータを含み、
前記第三単語は、処置内容に関する単語である、
請求項1記載の意味情報生成方法。
The first text corpus includes natural language text data used to describe treatment of symptoms in medical diagnosis,
The third word is a word related to treatment content.
The semantic information generation method according to claim 1.
テキストデータを取得する手段と、
単語と、所定次元のベクトル空間において前記単語の意味を表すベクトル情報とを対応付けた意味情報テーブルに基づき、前記テキストデータの意味を解析する手段と、
前記解析された意味を示す情報を出力する手段とを備え、
前記意味情報テーブルは、
第一テキストコーパスおよび第二テキストコーパスにおける単語列の配列に基づいて、前記ベクトル空間において第一単語の意味を表す第一ベクトルを前記第一単語に割り当て、前記ベクトル空間において第二単語の意味を表す第二ベクトルを前記第二単語に割り当てる学習により生成されたものであり、
前記第一テキストコーパスは、前記第一単語を含み、自然言語で記述された第一文章の第一テキストデータと、前記第一単語と意味を区別すべき前記第二単語を含み、前記第二単語の前および後の所定範囲に出現する単語の種類および出現個数を示す第二単語分布が、前記第一文章における前記第一単語の前および後の前記所定範囲の第一単語分布と類似する第二文章の第二テキストデータとを含み、
前記第二テキストコーパスは、前記第一単語および前記第二単語の少なくとも一方と同じ単語である第三単語を含み、前記第三単語の前および後の前記所定範囲の第三単語分布が前記第一単語分布と類似しない第三文章の第三テキストデータを含む、
意味情報生成装置。
Means for obtaining text data;
Means for analyzing the meaning of the text data based on a semantic information table in which a word and vector information representing the meaning of the word in a vector space of a predetermined dimension are associated;
Means for outputting information indicating the analyzed meaning,
The semantic information table is
Based on the arrangement of word strings in the first text corpus and the second text corpus, a first vector representing the meaning of the first word in the vector space is assigned to the first word, and the meaning of the second word in the vector space is assigned. Generated by learning to assign a second vector to the second word,
The first text corpus includes the first word, includes first text data of a first sentence written in a natural language, the second word whose meaning should be distinguished from the first word, and the second The second word distribution indicating the type and number of occurrences of the word appearing in the predetermined range before and after the word is similar to the first word distribution in the predetermined range before and after the first word in the first sentence. Second text data of the second sentence,
The second text corpus includes a third word that is the same word as at least one of the first word and the second word, and the third word distribution of the predetermined range before and after the third word is the first word. Including the third text data of the third sentence that is not similar to the one word distribution,
Semantic information generator.
コンピュータに
テキストデータを取得し、
単語と、所定次元のベクトル空間において前記単語の意味を表すベクトル情報とを対応付けた意味情報テーブルに基づき、前記テキストデータの意味を解析し、
前記解析された意味を示す情報を出力することを実行させるプログラムであって、
前記意味情報テーブルは、
第一テキストコーパスおよび第二テキストコーパスにおける単語列の配列に基づいて、前記ベクトル空間において第一単語の意味を表す第一ベクトルを前記第一単語に割り当て、前記ベクトル空間において第二単語の意味を表す第二ベクトルを前記第二単語に割り当てる学習により生成されたものであり、
前記第一テキストコーパスは、前記第一単語を含み、自然言語で記述された第一文章の第一テキストデータと、前記第一単語と意味を区別すべき前記第二単語を含み、前記第二単語の前および後の所定範囲に出現する単語の種類および出現個数を示す第二単語分布が、前記第一文章における前記第一単語の前および後の前記所定範囲の第一単語分布と類似する第二文章の第二テキストデータとを含み、
前記第二テキストコーパスは、前記第一単語および前記第二単語の少なくとも一方と同じ単語である第三単語を含み、前記第三単語の前および後の前記所定範囲の第三単語分布が前記第一単語分布と類似しない第三文章の第三テキストデータを含む、
プログラム。
Get text data to computer,
Based on a semantic information table in which words and vector information representing the meaning of the words in a vector space of a predetermined dimension are associated, the meaning of the text data is analyzed,
A program for executing output of information indicating the analyzed meaning,
The semantic information table is
Based on the arrangement of word strings in the first text corpus and the second text corpus, a first vector representing the meaning of the first word in the vector space is assigned to the first word, and the meaning of the second word in the vector space is assigned. Generated by learning to assign a second vector to the second word,
The first text corpus includes the first word, includes first text data of a first sentence written in a natural language, the second word whose meaning should be distinguished from the first word, and the second The second word distribution indicating the type and number of occurrences of the word appearing in the predetermined range before and after the word is similar to the first word distribution in the predetermined range before and after the first word in the first sentence. Second text data of the second sentence,
The second text corpus includes a third word that is the same word as at least one of the first word and the second word, and the third word distribution of the predetermined range before and after the third word is the first word. Including the third text data of the third sentence that is not similar to the one word distribution,
program.
JP2019150366A 2015-06-17 2019-08-20 Semantic information generation method, semantic information generation device, and program Active JP6799800B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015121670 2015-06-17
JP2015121670 2015-06-17

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016081140A Division JP6583686B2 (en) 2015-06-17 2016-04-14 Semantic information generation method, semantic information generation device, and program

Publications (2)

Publication Number Publication Date
JP2019212321A true JP2019212321A (en) 2019-12-12
JP6799800B2 JP6799800B2 (en) 2020-12-16

Family

ID=56098111

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2016081140A Active JP6583686B2 (en) 2015-06-17 2016-04-14 Semantic information generation method, semantic information generation device, and program
JP2019150366A Active JP6799800B2 (en) 2015-06-17 2019-08-20 Semantic information generation method, semantic information generation device, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2016081140A Active JP6583686B2 (en) 2015-06-17 2016-04-14 Semantic information generation method, semantic information generation device, and program

Country Status (4)

Country Link
US (2) US10007659B2 (en)
EP (1) EP3107003A1 (en)
JP (2) JP6583686B2 (en)
CN (1) CN106257440B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114788257A (en) * 2019-12-18 2022-07-22 索尼半导体解决方案公司 Information processing apparatus, information processing method, program, imaging apparatus, and imaging system

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11062701B2 (en) * 2016-12-27 2021-07-13 Sharp Kabushiki Kaisha Answering device, control method for answering device, and recording medium
US11182561B2 (en) * 2017-02-14 2021-11-23 Mitsubishi Electric Corporation Data analyzer and data analysis method
JP7117629B2 (en) * 2017-04-27 2022-08-15 パナソニックIpマネジメント株式会社 translation device
US11200269B2 (en) * 2017-06-15 2021-12-14 Microsoft Technology Licensing, Llc Method and system for highlighting answer phrases
JP6775202B2 (en) * 2017-06-19 2020-10-28 パナソニックIpマネジメント株式会社 Processing method, processing equipment, and processing program
JP6972711B2 (en) * 2017-06-30 2021-11-24 富士通株式会社 Semantics vector generation program, meaning vector generation method and meaning vector generator
CN107403068B (en) * 2017-07-31 2018-06-01 合肥工业大学 Merge the intelligence auxiliary way of inquisition and system of clinical thinking
US11288581B2 (en) 2017-12-27 2022-03-29 Sap Se Subsymbolic encoding with preserved semantic relationships
CN110675863A (en) * 2018-07-03 2020-01-10 上海智臻智能网络科技股份有限公司 Voice corpus generation method and device and voice recognition method and device
JP7087095B2 (en) * 2018-09-13 2022-06-20 株式会社Nttドコモ Dialogue information generator
EP3637428A1 (en) * 2018-10-12 2020-04-15 Siemens Healthcare GmbH Natural language sentence generation for radiology reports
CN109597873B (en) * 2018-11-21 2022-02-08 腾讯科技(深圳)有限公司 Corpus data processing method and device, computer readable medium and electronic equipment
US11675966B2 (en) * 2019-05-15 2023-06-13 Fortia Financial Solutions Table of contents generation
CN110575040B (en) * 2019-09-09 2021-08-20 珠海格力电器股份有限公司 Control method and control terminal of intelligent curtain and intelligent curtain control system
CN110675862A (en) * 2019-09-25 2020-01-10 招商局金融科技有限公司 Corpus acquisition method, electronic device and storage medium
EP3828731A1 (en) * 2019-11-26 2021-06-02 Siemens Aktiengesellschaft A method and analytical engine for a semantic analysis of textual data
CN111198939B (en) * 2019-12-27 2021-11-23 北京健康之家科技有限公司 Statement similarity analysis method and device and computer equipment
CN111160042B (en) * 2019-12-31 2023-04-28 重庆觉晓科技有限公司 Text semantic analysis method and device
CN111414750B (en) * 2020-03-18 2023-08-18 北京百度网讯科技有限公司 Synonym distinguishing method, device, equipment and storage medium
CN111984789B (en) * 2020-08-26 2024-01-30 普信恒业科技发展(北京)有限公司 Corpus classification method, corpus classification device and server
JP2022051113A (en) * 2020-09-18 2022-03-31 富士フイルムビジネスイノベーション株式会社 Information output device, question generation device and program
CN112259096B (en) * 2020-10-23 2022-10-18 海信视像科技股份有限公司 Voice data processing method and device
CN112699688B (en) * 2021-01-08 2022-11-04 北京理工大学 Text generation method and system with controllable discourse relation
CN116029284B (en) * 2023-03-27 2023-07-21 上海蜜度信息技术有限公司 Chinese substring extraction method, chinese substring extraction system, storage medium and electronic equipment

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316803A (en) * 2006-05-24 2007-12-06 Matsushita Electric Ind Co Ltd Operation support device and operation support method

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5371807A (en) * 1992-03-20 1994-12-06 Digital Equipment Corporation Method and apparatus for text classification
CA2423964A1 (en) * 2000-09-29 2002-04-04 Gavagai Technology Incorporated A method and system for describing and identifying concepts in natural language text for information retrieval and processing
JP2002334077A (en) 2001-05-10 2002-11-22 Nippon Telegr & Teleph Corp <Ntt> Device and method for detecting degree of antonym
US7181451B2 (en) * 2002-07-03 2007-02-20 Word Data Corp. Processing input text to generate the selectivity value of a word or word group in a library of texts in a field is related to the frequency of occurrence of that word or word group in library
US7343280B2 (en) * 2003-07-01 2008-03-11 Microsoft Corporation Processing noisy data and determining word similarity
US8312021B2 (en) * 2005-09-16 2012-11-13 Palo Alto Research Center Incorporated Generalized latent semantic analysis
US8364468B2 (en) * 2006-09-27 2013-01-29 Academia Sinica Typing candidate generating method for enhancing typing efficiency
US8280885B2 (en) * 2007-10-29 2012-10-02 Cornell University System and method for automatically summarizing fine-grained opinions in digital text
EP2307951A4 (en) * 2008-07-29 2012-12-19 Textwise Llc Method and apparatus for relating datasets by using semantic vectors and keyword analyses
US9384678B2 (en) * 2010-04-14 2016-07-05 Thinkmap, Inc. System and method for generating questions and multiple choice answers to adaptively aid in word comprehension
US20130149681A1 (en) * 2011-12-12 2013-06-13 Marc Tinkler System and method for automatically generating document specific vocabulary questions
CN104063502B (en) * 2014-07-08 2017-03-22 中南大学 WSDL semi-structured document similarity analyzing and classifying method based on semantic model
CN104679823A (en) * 2014-12-31 2015-06-03 智慧城市信息技术有限公司 Semantic annotation-based association method and system of heterogeneous data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316803A (en) * 2006-05-24 2007-12-06 Matsushita Electric Ind Co Ltd Operation support device and operation support method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
吉井 和輝 外3名: "日本語単語ベクトルの構築とその評価", 情報処理学会 研究報告 音声言語情報処理(SLP) 2015−SLP−106 [ONLINE], JPN6019028413, 18 May 2015 (2015-05-18), JP, pages 1 - 8, ISSN: 0004366780 *
大野 雅之 外4名: "分散表現に基づく選択選好モデルの文脈化", 情報処理学会 研究報告 自然言語処理(NL) 2016−NL−225 [ONLINE], JPN6019028420, 15 January 2016 (2016-01-15), JP, pages 1 - 9, ISSN: 0004366782 *
小野 正貴 外2名: "辞書と文脈情報を用いた対義語モデルの学習", 言語処理学会第21回年次大会 発表論文集 [ONLINE], JPN6019028417, 9 March 2015 (2015-03-09), JP, pages 756 - 759, ISSN: 0004366781 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114788257A (en) * 2019-12-18 2022-07-22 索尼半导体解决方案公司 Information processing apparatus, information processing method, program, imaging apparatus, and imaging system

Also Published As

Publication number Publication date
JP6583686B2 (en) 2019-10-02
US20180267961A1 (en) 2018-09-20
EP3107003A1 (en) 2016-12-21
JP6799800B2 (en) 2020-12-16
US20160371254A1 (en) 2016-12-22
US10325023B2 (en) 2019-06-18
JP2017010528A (en) 2017-01-12
CN106257440B (en) 2021-03-09
US10007659B2 (en) 2018-06-26
CN106257440A (en) 2016-12-28

Similar Documents

Publication Publication Date Title
JP6583686B2 (en) Semantic information generation method, semantic information generation device, and program
CN109564589B (en) Entity identification and linking system and method using manual user feedback
US10719668B2 (en) System for machine translation
US8412715B2 (en) Information processing apparatus and method and program for controlling the same
CN108124477B (en) Improving word segmenters to process natural language based on pseudo data
KR20210158344A (en) Machine learning system for digital assistants
CN109840287A (en) A kind of cross-module state information retrieval method neural network based and device
WO2020068234A1 (en) Automated content editor
WO2017127296A1 (en) Analyzing textual data
KR20190125863A (en) Multilingual translation device and multilingual translation method
CN111931477B (en) Text matching method and device, electronic equipment and storage medium
JP6729095B2 (en) Information processing device and program
CN110245349B (en) Syntax dependence analysis method and apparatus, and electronic device
CN107943940A (en) Data processing method, medium, system and electronic equipment
JP2018084627A (en) Language model learning device and program thereof
CN111968646B (en) Voice recognition method and device
JP2013250926A (en) Question answering device, method and program
CN117422074A (en) Method, device, equipment and medium for standardizing clinical information text
CN110442877A (en) Use robot planning as parallel language corpus
CN110047569A (en) Method, apparatus and medium based on rabat report generation question and answer data set
JP6817690B2 (en) Extraction device, extraction method and its program, support device, display control device
CN114281925A (en) Text processing method, device, equipment and computer readable storage medium
JP5302784B2 (en) Machine translation method and system
CN115248846B (en) Text recognition method, device and medium
JP2018198002A (en) Document processing device, document processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201105

R151 Written notification of patent or utility model registration

Ref document number: 6799800

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151