JP2022148430A - Document information extraction system and document information extraction method - Google Patents

Document information extraction system and document information extraction method Download PDF

Info

Publication number
JP2022148430A
JP2022148430A JP2021050108A JP2021050108A JP2022148430A JP 2022148430 A JP2022148430 A JP 2022148430A JP 2021050108 A JP2021050108 A JP 2021050108A JP 2021050108 A JP2021050108 A JP 2021050108A JP 2022148430 A JP2022148430 A JP 2022148430A
Authority
JP
Japan
Prior art keywords
feature
feature amount
document
feature quantity
evaluation target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021050108A
Other languages
Japanese (ja)
Inventor
絵理 照屋
Eri Teruya
理 竹内
Osamu Takeuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2021050108A priority Critical patent/JP2022148430A/en
Priority to PCT/JP2021/029973 priority patent/WO2022201578A1/en
Publication of JP2022148430A publication Critical patent/JP2022148430A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/28Databases characterised by their database models, e.g. relational or object models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/44Statistical methods, e.g. probability models

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Machine Translation (AREA)

Abstract

To provide a document information extraction system and method that can assist in setting feature quantities of a model used when extracting useful information from a document, by a machine learning method.SOLUTION: A document information extraction system manages a document group, extracts information from a document of the document group using a model of machine learning, stores a plurality of feature quantities constituting parameters of the model and action types that are information indicating characteristics of actions performed when extracting the information for each of the feature quantities, displays an evaluation target feature quantity that is a feature quantity to be evaluated among the plurality of feature quantities, at least one sentence of an extraction source of the evaluation target feature quantity, and a weight currently set to the evaluation target feature quantity, receives action type of the evaluation target feature quantity or the setting of the weight, and updates the parameters on the basis of the received action type or weight.SELECTED DRAWING: Figure 1

Description

本発明は、文書情報抽出システム、および文書情報抽出方法に関する。 The present invention relates to a document information extraction system and a document information extraction method.

特許文献1には、入力データから抽出される複数の特徴量から、入力データの分類に用いる特徴量を選択する情報処理装置について記載されている。上記情報処理装置は、入力データから抽出される複数の特徴量の組み合わせを生成し、生成した組み合わせに対して、入力データの分類の判定に適しているか否かを評価する第一評価値を算出し、特徴量の組み合わせを評価する第二評価値を算出する際に使用するパラメータを複数生成し、複数のパラメータごとに第一評価値に基づき第二評価値を算出し、複数のパラメータごとに第二評価値に基づいて特徴量を選択し特徴量のサブセットを生成して、特徴量の組み合わせの選択において特徴量の選択を行えるようにする。 Patent Literature 1 describes an information processing apparatus that selects a feature amount to be used for classifying input data from a plurality of feature amounts extracted from input data. The information processing device generates a combination of a plurality of feature amounts extracted from the input data, and calculates a first evaluation value for evaluating whether the generated combination is suitable for determining the classification of the input data. Then, generate multiple parameters to be used when calculating the second evaluation value for evaluating the combination of feature amounts, calculate the second evaluation value based on the first evaluation value for each of the multiple parameters, and calculate the second evaluation value for each of the multiple parameters A feature is selected based on the second evaluation value to generate a subset of the feature so that the feature can be selected in the selection of the combination of the features.

特許文献2には、音声認識や画像認識における特徴量の分類を行う特徴量分類システムに関して記載されている。特徴量分類システムは、与えられた特徴量を変換すると共に、教師データである正解クラスラベルを用いて特徴量変換を行うための識別基準の学習を行う特徴量変換器と、特徴量変換器で変換された変換特徴量を分類する分類器とを備え、特徴量変換器は、他の特徴量分類システムの分類器の誤り傾向を考慮すべく、上記学習に際して他の特徴量分類システムの分類器の事後確率を用い、他の特徴量変換器とは異なる特徴量変換を行う。 Patent Literature 2 describes a feature amount classification system that classifies feature amounts in speech recognition and image recognition. A feature quantity classification system includes a feature quantity converter that converts a given feature quantity and learns discrimination criteria for performing feature quantity conversion using correct class labels as teacher data, and a feature quantity converter. and a classifier for classifying the transformed feature quantity, wherein the feature quantity converter classifies the classifier of the other feature quantity classification system during the learning in order to consider the error tendency of the classifier of the other feature quantity classification system. Using the posterior probability of , a feature quantity conversion different from that of other feature quantity converters is performed.

特開2017-10318号公報Japanese Patent Application Laid-Open No. 2017-10318 国際公開第2016/021060号WO2016/021060

膨大な文書の中から有用な情報を抽出する方法として、固有表現抽出等の機械学習の仕組みを用いて文書から単語や関連語を抽出する技術がある。しかし機械学習の仕組みによって質の高い情報を抽出するには、モデルの特徴量を適切に設定する必要がある。ここで文書からの情報の抽出に用いる特徴量とは、例えば、単語の最終語や単語の左右に出現する単語等の文の性質である。こうした特徴量の設定を適切に行うには、抽出対象となる情報についての知識(ドメイン知識)を有しているだけでなく、機械学習についての知識や経験も必要とされ、特徴量の設定にかかる人的負荷が高いことが課題となっている。 As a method of extracting useful information from a huge amount of documents, there is a technique of extracting words and related terms from documents using a mechanism of machine learning such as named entity extraction. However, in order to extract high-quality information using a machine learning mechanism, it is necessary to appropriately set the feature values of the model. Here, the feature amount used for extracting information from a document is, for example, the property of a sentence such as the final word of a word or words appearing to the left and right of a word. Appropriate setting of such feature values requires not only knowledge of the information to be extracted (domain knowledge), but also knowledge and experience in machine learning. The problem is that the human load is high.

特許文献1には、入力データの分類に用いる特徴量を選択する技術に関して記載されている。しかし同文献に記載の技術は、検査対象物を撮影した画像から画素値の平均や分散等の特徴量群を抽出する技術に関するものであり、文書から有用な情報を抽出する技術に関するものではない。また、同文献では、入力データから抽出される複数の特徴量の組み合わせについて機械的な総当たり方式で特徴量を選択しており、抽出精度を得るために相当な数の学習データを準備する必要もある。 Japanese Patent Laid-Open No. 2002-200003 describes a technique for selecting feature amounts used for classifying input data. However, the technique described in the document relates to a technique for extracting a group of feature values such as the mean and variance of pixel values from an image of an object to be inspected, and does not relate to a technique for extracting useful information from a document. . In addition, in the same document, feature values are selected by a mechanical round-robin method for combinations of multiple feature values extracted from the input data, and it is necessary to prepare a considerable amount of training data in order to obtain extraction accuracy. There is also

特許文献2には、音声認識や画像認識における特徴量を分類する技術に関して記載されている。しかし同文献には、与えられた特徴量の分類に用いる分類器の調整に関する技術が記載されているに過ぎず、特徴量の設定に関する技術については記載されていない。 Patent Literature 2 describes a technique for classifying feature amounts in speech recognition and image recognition. However, this document merely describes a technique for adjusting a classifier used for classifying given feature amounts, and does not describe a technique for setting feature amounts.

本発明は、このような背景に鑑みてなされたものであり、機械学習の方法により文書から有用な情報を抽出する際に用いるモデルの特徴量の設定を支援する仕組みを備えた文書情報抽出システム、および文書情報抽出方法を提供することを目的とする。 SUMMARY OF THE INVENTION The present invention has been made in view of such a background. , and a document information extraction method.

上記目的を達成するための本発明の1つは、文書情報抽出システムであって、情報処理装置を用いて構成され、文書群を管理する文書管理部と、機械学習のモデルを用いて前記文書群の文書から情報を抽出する文書情報抽出部と、前記モデルのパラメータを構成する複数の特徴量と、前記特徴量の夫々について前記情報を抽出する際の作用の特性を示す情報である作用種別と、を記憶する記憶部と、前記複数の特徴量のうち評価の対象とする特徴量である評価対象特徴量と、前記評価対象特徴量の抽出元の1つ以上の文章と、前記評価対象特徴量に現在設定されている重みと、を表示しつつ、前記評価対象特徴量の前記作用種別または前記重みの設定を受け付けるパラメータ設定受付部と、受け付けた前記作用種別または前記重みに基づき前記パラメータを更新するパラメータ更新部と、を備える。 One of the present inventions for achieving the above object is a document information extraction system, comprising an information processing device, a document management unit for managing a group of documents, and a machine learning model for extracting the documents. a document information extraction unit for extracting information from a group of documents; a plurality of feature quantities constituting parameters of the model; an evaluation target feature quantity that is a feature quantity to be evaluated among the plurality of feature quantities, one or more sentences from which the evaluation target feature quantity is extracted, and the evaluation target a parameter setting reception unit that receives setting of the action type or the weight of the evaluation target feature amount while displaying the weight currently set for the feature amount; and the parameter based on the received action type or the weight and a parameter updating unit that updates the

その他、本願が開示する課題、およびその解決方法は、発明を実施するための形態の欄、および図面により明らかにされる。 In addition, the problems disclosed by the present application and their solutions will be clarified by the description of the mode for carrying out the invention and the drawings.

本発明によれば、機械学習の方法により文書から有用な情報を抽出する際に用いるモデルの特徴量の設定を支援することができる。 According to the present invention, it is possible to support the setting of the feature amount of a model used when extracting useful information from a document by a machine learning method.

文書情報抽出システムの主な構成を説明するシステムフロー図である。1 is a system flow diagram illustrating the main configuration of a document information extraction system; FIG. 文書情報抽出システムの主な構成を説明するブロック図である。1 is a block diagram illustrating the main configuration of a document information extraction system; FIG. 優先度の決定に用いる特徴量の正性らしさの評価方法を説明する図である。It is a figure explaining the evaluation method of the correctness-likeness of the feature-value used for determination of a priority. 特徴量評価テーブルの一例である。It is an example of a feature evaluation table. 特徴量頻度テーブルの一例である。It is an example of a feature amount frequency table. 特徴量類似度テーブルの一例である。It is an example of a feature amount similarity table. 特徴量共起度テーブルの一例である。It is an example of a feature value co-occurrence table. 表示優先度算出テーブルの一例である。It is an example of a display priority calculation table. 特徴量表示優先度テーブルの一例である。It is an example of a feature amount display priority table. パラメータ設定画面の一例である。It is an example of a parameter setting screen. 更新前後対比画面の一例である。It is an example of a before-and-after update comparison screen. 特徴量抽出元情報テーブルの一例である。It is an example of a feature extraction source information table. 文字飾りの一例である。This is an example of character decoration. マッピング対象特徴量テーブルの一例である。It is an example of a mapping target feature amount table. 特徴量評価設定情報テーブルの一例である。It is an example of a feature evaluation setting information table. 特徴量抽出状況表示テーブルの一例である。It is an example of a feature extraction status display table. 特徴量評価設定情報テーブル生成処理を説明するフローチャートである。FIG. 11 is a flowchart for explaining feature amount evaluation setting information table generation processing; FIG. 特徴量抽出状況表示テーブル生成処理を説明するフローチャートである。FIG. 11 is a flowchart for explaining feature extraction status display table generation processing; FIG. 文書情報抽出システムの実現に用いる情報処理装置の一例である。It is an example of an information processing device used for realizing a document information extraction system.

以下、実施形態について図面を参照しつつ説明する。尚、以下の記載および図面は、本発明を説明するための例示であって、説明の明確化のため、適宜、省略もしくは簡略化がなされている。本発明は、他の種々の形態でも実施することが可能である。とくに限定しない限り、各構成要素は単数でも複数でも構わない。 Hereinafter, embodiments will be described with reference to the drawings. The following description and drawings are examples for explaining the present invention, and are appropriately omitted or simplified for clarity of explanation. The present invention can also be implemented in various other forms. Unless otherwise specified, each component may be singular or plural.

以下の説明において、同一または類似の構成について同一の符号を付して重複した説明
を省略することがある。また、以下の説明において、符号の前に付した「S」の文字は処理ステップを意味する。また、以下の説明では、「テーブル」、「情報」等の表現にて各種情報を説明することがあるが、各種情報は、これら以外のデータ構造で表現されていてもよい。
In the following description, the same or similar configurations may be denoted by the same reference numerals, and redundant description may be omitted. Also, in the following description, the letter "S" attached before the reference sign means a processing step. Also, in the following description, various types of information may be described using expressions such as “table” and “information”, but various types of information may be expressed in data structures other than these.

以下、本発明の一実施形態として、機械学習の方法を用いて、膨大な数の文書(文書群)から有用な情報を抽出してユーザに提供する情報処理システム(以下、「文書情報抽出システム1」と称する。)について説明する。文書情報抽出システム1は、例えば、膨大な文書群(特許文献、各種論文、ビジネスレポート、企業レポート、ニュース等)から、新材料の研究や開発の指針を立案する上で有用な情報、例えば、材料の構造と特性や機能との相関関係等を抽出し、抽出した結果をユーザに提供する、いわゆるMI(Materials Informatics、マテリアルズインフォマティクス)を用いたデータ駆動型の材料開発に利
用される。
Hereinafter, as one embodiment of the present invention, an information processing system (hereinafter referred to as "document information extraction system 1”) will be described. The document information extraction system 1, for example, extracts useful information for drafting guidelines for research and development of new materials from a huge set of documents (patent documents, various papers, business reports, corporate reports, news, etc.), such as It is used for data-driven material development using so-called MI (Materials Informatics), which extracts correlations between material structures, properties, and functions, and provides the extracted results to users.

図1は、文書情報抽出システム1の主な構成を説明するシステムフロー図である。また、図2は、文書情報抽出システム1の主な構成を説明するブロック図である。図1に示すように、文書情報抽出システム1は、文書情報抽出部170およびパラメータ設定部180の各機能を備える。このうち文書情報抽出部170は、蓄積された文書111から機械学習のモデル(学習モデル)を用いて情報を抽出してユーザに提示する。また、パラメータ設定部180は、上記モデルのパラメータ(特徴量、特徴量の重み)を、ユーザインタフェースを介したユーザとの対話形式により設定する。 FIG. 1 is a system flow diagram for explaining the main configuration of the document information extraction system 1. As shown in FIG. FIG. 2 is a block diagram for explaining the main configuration of the document information extraction system 1. As shown in FIG. As shown in FIG. 1, the document information extraction system 1 has functions of a document information extraction section 170 and a parameter setting section 180 . Among them, the document information extraction unit 170 extracts information from the accumulated document 111 using a machine learning model (learning model) and presents it to the user. In addition, the parameter setting unit 180 sets the parameters (feature amounts, weights of the feature amounts) of the model in an interactive manner with the user via the user interface.

図1または図2に示すように、文書情報抽出部170は、単語/関連語抽出部171および文書情報提示部172を含む。単語/関連語抽出部171は、初期辞書112や単語/関連語辞書113を参照しつつ、機械学習の仕組みにより、単語、単語の関連語、単語の類義語等(以下、「単語/関連語114」と称する。)の情報を文書111から抽出する。上記機械学習の仕組みとして、例えば、RNN(Recurrent Neural Network)やLSTM(Long short-term memory)を用いて実現される固有表現抽出技術によるものがある。但し、上記機械学習の種類は必ずしも限定されない。 As shown in FIG. 1 or 2, the document information extraction unit 170 includes a word/related word extraction unit 171 and a document information presentation unit 172. FIG. While referring to the initial dictionary 112 and the word/related word dictionary 113, the word/related word extraction unit 171 extracts words, word-related words, word synonyms, etc. (hereinafter referred to as “word/related word 114 ) is extracted from the document 111 . As a mechanism of the machine learning, for example, there is a named entity extraction technology realized by using RNN (Recurrent Neural Network) and LSTM (Long short-term memory). However, the type of machine learning is not necessarily limited.

上記モデルは、例えば、特徴量と各特徴量の重みの情報を含んだ行列やベクトルにより表現される。文書111からの情報を抽出する上記モデルの特徴量として、例えば、周辺単語の特徴(左右単語、左右単語の品詞、係り受け)、単語自身の特徴(始単語(prefix)、終単語(suffix)、文字数、大文字小文字、品詞、文字の種類(数字、漢字等))等がある。 The model is represented by, for example, a matrix or vector containing information on the feature amount and the weight of each feature amount. The features of the model for extracting information from the document 111 include, for example, the features of peripheral words (left and right words, parts of speech of left and right words, dependencies), the features of the words themselves (prefix, suffix, , number of characters, uppercase and lowercase letters, parts of speech, types of characters (numbers, kanji, etc.), etc.

文書111は、図2に示す文書管理部160によって管理される。文書111は、多数の文書(例えば、WebスクレイピングやWebクローリングによってインターネットを介して取得された文書やユーザによって登録された文書)を含む。尚、本実施形態では、所定のトピックについて記述された、1つ以上の文、1つ以上の文章、1つ以上の節、1つ以上の節や句、2つ以上の単語等が纏まったものを文書と称する。以下では、文書情報抽出システム1により行われる各種の情報処理が文書を単位として行われる場合を例として説明するが、処理の単位は必ずしも限定されない。また以下では、文書111はテキスト形式のデータ(テキストデータ)として管理されるものとするが、文書111の管理方法は必ずしも限定されない。以下に説明する各種情報処理の対象となる文書は、例えば、形態素解析技術によって適宜形態素に分解され、また、各形態素は、例えば、適宜分散表現(単語埋め込み)に変換されて取り扱われる。 The document 111 is managed by the document management section 160 shown in FIG. The documents 111 include a large number of documents (for example, documents acquired via the Internet by web scraping or web crawling, or documents registered by users). In the present embodiment, one or more sentences, one or more sentences, one or more clauses, one or more clauses or phrases, two or more words, etc., which are described on a predetermined topic, are grouped together. Objects are called documents. In the following, a case where various types of information processing performed by the document information extraction system 1 are performed on a document-by-document basis will be described as an example, but the processing unit is not necessarily limited. In the following, the document 111 is assumed to be managed as data in text format (text data), but the method of managing the document 111 is not necessarily limited. Documents to be subjected to various types of information processing described below are decomposed into morphemes by, for example, a morphological analysis technique, and each morpheme is converted into distributed representation (word embedding), for example, and handled.

文書情報抽出部170が参照する初期辞書112や単語/関連語辞書113は、図2に示す辞書管理部161によって管理される。このうち初期辞書112には、例えば、上記
機械学習による抽出対象の方向性等を示す単語が設定される。例えば、熱化学に関する文書111から温度に関する情報を抽出する場合、初期辞書112には、例えば、「30度」、「10度」等の単語が設定される。尚、この場合、文書情報抽出部170は、例えば、「30℃」、「10℃」等を関連語として抽出する。単語/関連語辞書113には、単語にその関連語や類義語を対応づけた情報が管理される。初期辞書112や単語/関連語辞書113の内容は、例えば、ユーザが設定してもよいし、インターネット等から取得されるコーパスや辞書等を用いて設定してもよい。ユーザは、例えば、有用な情報を得たい技術分野や抽出しようとする情報の種類等に応じた内容の初期辞書112や単語/関連語辞書113を準備する。
The initial dictionary 112 and the word/related word dictionary 113 referenced by the document information extraction unit 170 are managed by the dictionary management unit 161 shown in FIG. Among these, the initial dictionary 112 is set with, for example, words indicating the directionality of the extraction target by the machine learning. For example, when extracting information about temperature from the document 111 about thermochemistry, words such as "30 degrees" and "10 degrees" are set in the initial dictionary 112, for example. In this case, the document information extraction unit 170 extracts, for example, “30° C.” and “10° C.” as related terms. The word/related word dictionary 113 manages information in which words are associated with related words and synonyms. For example, the contents of the initial dictionary 112 and the word/related word dictionary 113 may be set by the user, or may be set using a corpus or dictionary obtained from the Internet or the like. For example, the user prepares the initial dictionary 112 and the word/related word dictionary 113 whose contents correspond to the technical field from which useful information is to be obtained and the type of information to be extracted.

文書情報提示部172は、単語/関連語抽出部171によって抽出された単語/関連語114や、抽出された単語/関連語114に基づき生成した情報(以下、「文書抽出情報115」と称する。)をユーザに提供する。ユーザは、例えば、文書情報抽出システム1が備えるユーザインタフェースや、文書情報抽出システム1と通信可能に接続する他の情報処理装置を介して、文書情報提示部172が提供する文書抽出情報115を利用する。 The document information presenting unit 172 extracts the word/related word 114 extracted by the word/related word extracting unit 171 and information generated based on the extracted word/related word 114 (hereinafter referred to as "document extraction information 115"). ) to the user. The user uses the document extraction information 115 provided by the document information presentation unit 172 via, for example, a user interface provided in the document information extraction system 1 or another information processing device communicably connected to the document information extraction system 1. do.

パラメータ設定部180は、特徴量情報生成部181、特徴量表示優先度設定部182、パラメータ設定画面生成部183、パラメータ設定受付部184、およびパラメータ更新部185の各機能を有する。 The parameter setting unit 180 has functions of a feature amount information generation unit 181 , a feature amount display priority setting unit 182 , a parameter setting screen generation unit 183 , a parameter setting reception unit 184 and a parameter update unit 185 .

このうち特徴量情報生成部181は、単語/関連語抽出部171から現状のモデルのパラメータ(特徴量と各特徴量の重み)(以下、「現状パラメータ155」と称する。)を取得し、取得した現状パラメータ155に基づき、特徴量表示優先度設定部182等によって参照される情報である特徴量情報120(特徴量評価テーブル121、特徴量頻度テーブル122、特徴量類似度テーブル123、特徴量共起度テーブル124、および特徴量抽出元情報テーブル125)を生成する。特徴量情報120の詳細については後述する。 Of these, the feature amount information generation unit 181 acquires the current model parameters (feature amounts and weights of each feature amount) (hereinafter referred to as "current parameters 155") from the word/related word extraction unit 171, and acquires Feature quantity information 120 (feature quantity evaluation table 121, feature quantity frequency table 122, feature quantity similarity table 123, feature quantity An origination table 124 and a feature extraction source information table 125) are generated. Details of the feature amount information 120 will be described later.

特徴量表示優先度設定部182は、特徴量情報生成部181が生成した特徴量情報120に基づき、ユーザとの対話処理によりモデルのパラメータの設定を行う際の特徴量の表示優先度(以下、「特徴量表示優先度」と称する。)の算出に用いる表示優先度算出テーブル131を生成する。特徴量表示優先度設定部182は、表示優先度算出テーブル131に基づき特徴量表示優先度を求め、求めた特徴量表示優先度を特徴量表示優先度テーブル132に格納する。 The feature amount display priority setting unit 182 sets the feature amount display priority (hereinafter referred to as The display priority calculation table 131 used for calculating the “feature amount display priority” is generated. The feature amount display priority setting unit 182 obtains the feature amount display priority based on the display priority calculation table 131 and stores the obtained feature amount display priority in the feature amount display priority table 132 .

パラメータ設定画面生成部183は、特徴量表示優先度に従った順序で特徴量を表示し、表示した特徴量のパラメータの設定に関する情報をユーザから受け付ける画面(図10に示すパラメータ設定画面1000)を生成する。パラメータ設定画面生成部183は、パラメータ設定画面1000の生成に際し、パラメータ設定画面情報140(文字飾り定義テーブル141、マッピング対象特徴量テーブル142、特徴量評価設定情報テーブル143、および特徴量抽出状況表示テーブル144)を参照もしくは生成する。パラメータ設定画面情報140の詳細については後述する。 The parameter setting screen generating unit 183 displays the feature amounts in the order according to the feature amount display priority, and generates a screen (parameter setting screen 1000 shown in FIG. 10) for accepting information from the user regarding the setting of the parameters of the displayed feature amounts. Generate. When generating the parameter setting screen 1000, the parameter setting screen generation unit 183 generates the parameter setting screen information 140 (character decoration definition table 141, mapping target feature amount table 142, feature amount evaluation setting information table 143, and feature amount extraction status display table). 144) is referenced or generated. Details of the parameter setting screen information 140 will be described later.

パラメータ設定受付部184は、パラメータ設定画面1000を表示しつつユーザからパラメータの設定に関する情報を受け付ける。 The parameter setting reception unit 184 displays the parameter setting screen 1000 and receives information regarding parameter settings from the user.

パラメータ更新部185は、パラメータ設定受付部184がユーザから受け付けた情報に基づき特徴量評価テーブル121を更新する(記憶部110は、更新の前後における特徴量評価テーブル121の双方の内容を記憶する)。また、パラメータ更新部185は、更新前後の特徴量評価テーブル121の差分の情報(以下、「パラメータ更新情報152
」と称する。)を生成し、生成したパラメータ更新情報152に基づき、単語/関連語抽出部171が用いるモデルのパラメータを更新する。
The parameter update unit 185 updates the feature amount evaluation table 121 based on the information received from the user by the parameter setting reception unit 184 (the storage unit 110 stores the contents of both the feature amount evaluation table 121 before and after the update). . In addition, the parameter update unit 185 updates the difference information (hereinafter referred to as “parameter update information 152
”. ), and based on the generated parameter update information 152, the parameters of the model used by the word/related word extraction unit 171 are updated.

続いて、特徴量表示優先度設定部182によって行われる特徴量表示優先度の算出方法について説明する。特徴量表示優先度設定部182は、ユーザに優先的に確認してもらいたい特徴量(文書111からの有用な情報の抽出精度に対する影響が大きいと考えられる特徴量)がパラメータ設定画面1000に優先的に表示されるように、特徴量表示優先度を設定する。具体的には、特徴量表示優先度設定部182は、以下の(1)~(3)のいずれかに該当する特徴量に対して高い特徴量表示優先度を設定する。尚、以下において、文書111から抽出すべき情報を抽出するように作用する特徴量のことを「正性特徴量」と、また、文書111から有用でない情報を抽出しないように作用する特徴量のことを「負性特徴量」と、「正性特徴量」にも「負性特徴量」にも該当しない特徴量のことを「中性特徴量」と、夫々称する。
(1)正性特徴量だが、現状パラメータ155では、特徴量の重みがゼロ付近もしくはマイナスに設定されている特徴量(以下、「誤評価正性特徴量」と称する。)。
(2)負性特徴量だが、現状パラメータ155では、特徴量の重みが大きく(ゼロ付近もしくはプラス等)設定されている特徴量(以下、「誤評価負性特徴量」と称する。)。
(3)中性特徴量だが、現状パラメータ155では、特徴量の絶対値が大きく設定されている特徴量(以下、「誤評価中性特徴量」と称する。)。
Next, a method of calculating the feature amount display priority performed by the feature amount display priority setting unit 182 will be described. The feature amount display priority setting unit 182 gives priority to the parameter setting screen 1000 for the feature amount that the user wants to confirm with priority (the feature amount that is considered to have a large influence on the accuracy of extracting useful information from the document 111). Set the feature amount display priority so that it is displayed as a target. Specifically, the feature quantity display priority setting unit 182 sets a high feature quantity display priority for a feature quantity corresponding to any of the following (1) to (3). In the following description, a feature amount that acts to extract information to be extracted from the document 111 is referred to as a "positive feature amount", and a feature amount that acts not to extract useful information from the document 111. This is called a “negative feature quantity”, and a feature quantity that does not correspond to either a “positive feature quantity” or a “negative feature quantity” is called a “neutral feature quantity”, respectively.
(1) A positive feature amount, but in the current parameters 155, the feature amount weight is set to be near zero or negative (hereinafter referred to as a "misevaluation correctness feature amount").
(2) Negative feature amount, but in the current parameters 155, the feature amount is set to have a large weight (near zero or plus) (hereinafter referred to as "erroneous evaluation negative feature amount").
(3) Neutral feature amount, but in the current parameters 155, the feature amount for which the absolute value of the feature amount is set large (hereinafter referred to as "false evaluation neutral feature amount").

例えば、特徴量表示優先度設定部182は、(1)の誤評価正性特徴量に該当する可能性を示す指標(以下、「正性らしさ」と称する。)を、評価対象の特徴量(以下、「当該特徴量」と称する。)と現在のモデルに用いられている他の正性特徴量(以下、「比較正性特徴量」と称する。)との類似度、当該特徴量と比較正性特徴量との共起度、現状パラメータ155における当該特徴量の重み、および文書111における当該特徴量の出現頻度に基づき評価する。 For example, the feature amount display priority setting unit 182 sets an index (hereinafter referred to as "likelihood of correctness") indicating the possibility of corresponding to the false evaluation correctness feature amount of (1) to the feature amount of the evaluation target ( hereinafter referred to as the "relevant feature") and other positive features used in the current model (hereinafter referred to as the "comparative positive feature"), and comparison with the feature Evaluation is performed based on the degree of co-occurrence with the positive feature amount, the weight of the feature amount in the current parameters 155, and the appearance frequency of the feature amount in the document 111. FIG.

また、例えば、特徴量表示優先度設定部182は、上記(2)に該当する可能性を示す指標(以下、「負性らしさ」と称する。)を、評価対象の特徴量(以下、「当該特徴量」と称する。)と現在のモデルに用いられている他の負性特徴量(以下、「比較負性特徴量」と称する。)との類似度、当該特徴量と比較負性特徴量との共起度、現状パラメータ155における当該特徴量の重み、および文書111における当該特徴量の出現頻度に基づき評価する。 Further, for example, the feature amount display priority setting unit 182 sets the index indicating the possibility of falling under (2) above (hereinafter referred to as “negative likelihood”) to the feature amount of the evaluation target (hereinafter referred to as “corresponding feature”) and other negative features used in the current model (hereinafter referred to as “comparative negative feature”), the feature and the comparative negative feature , the weight of the feature quantity in the current parameters 155, and the appearance frequency of the feature quantity in the document 111.

また、例えば、特徴量表示優先度設定部182は、上記(3)に該当する可能性を示す指標(以下、「中性らしさ」と称する。)を、評価対象の特徴量(以下、「当該特徴量」と称する。)と現在のモデルに用いられている他の中性特徴量(以下、「比較中性特徴量」と称する。)との類似度、当該特徴量と比較中性特徴量との共起度、現状パラメータ155における当該特徴量の重みの絶対値、および文書111における当該特徴量の出現頻度に基づき評価する。 Further, for example, the feature amount display priority setting unit 182 sets the index indicating the possibility of corresponding to the above (3) (hereinafter referred to as “neutrality”) to the feature amount of the evaluation target (hereinafter referred to as “relevant feature") and other neutral features used in the current model (hereinafter referred to as "comparative neutral feature"), the feature and the comparative neutral feature , the absolute value of the weight of the feature quantity in the current parameters 155, and the appearance frequency of the feature quantity in the document 111.

尚、上記のいずれの場合においても、評価対象の特徴量の文書111における出現頻度を評価に用いているのは、文書111における出現頻度が少ない特徴量は、文書111からの情報の抽出精度に与える影響も少ないと考えられるからである。 In any of the above cases, the appearance frequency in the document 111 of the feature quantity to be evaluated is used for evaluation because the feature quantity with a low appearance frequency in the document 111 does not affect the extraction accuracy of information from the document 111. This is because it is considered that the effect of the sine wave is small.

図3は、上記(1)への該当性の評価の概念を一例として示した図である。同図には、例示する文書111から、「温度」を表す単語を抽出する特徴量の「正性らしさ」を算出する場合を例示している。同図に示すように、初期辞書112には、温度を示す単語をモデルに学習させるための「30度」、「10度」等が設定され、また、比較正性特徴量として、「終単語:度」(末尾が「度」で終わる単語)、「左単語:温度は」(左側に「温
度は」の文字列が存在する単語)が存在するものとする。
FIG. 3 is a diagram showing an example of the concept of evaluation of applicability to (1) above. In the figure, a case of calculating the "likelihood of correctness" of the feature quantity for extracting the word representing "temperature" from the illustrated document 111 is illustrated. As shown in the figure, the initial dictionary 112 is set with "30 degrees", "10 degrees", etc. for learning words indicating temperature in the model. : degree" (a word ending with "degree") and "left word: temperature wa" (a word having a character string of "temperature" on the left side).

同図に示す「終単語:回」(末尾が「回」で終わる単語)、「終単語:℃」(末尾が「℃」で終わる単語)、および「左単語:低下し」(左側に「低下し」の文字列が存在する単語)は、いずれも上記(1)への該当性の評価対象となる特徴量である。尚、本例では、評価対象の各特徴量は、いずれも文書111における出現頻度が十分に高いものとする。 In the same figure, "final word: times" (words ending with "times"), "final words: ℃" (words ending with "℃"), and "left word: declining" (words ending with " Words in which the character string of "lowered" is present) are all feature quantities to be evaluated for applicability to the above (1). In this example, it is assumed that each feature amount to be evaluated has a sufficiently high appearance frequency in the document 111 .

本例の場合、評価対象の「終単語:回」という特徴量は、比較正性特徴量である「終単語:度」のみと類似性があり、評価対象の「左単語:低下し」という特徴量は、比較正性特徴量である「左単語:温度は」のみと共起性がある。また、評価対象の「終単語:℃」という特徴量は、比較正性特徴量である「終単語:度」と類似性があり、かつ、比較正性特徴量である「左単語:温度は」と共起性がある。このため、本例では、当該特徴量「終単語:℃」は、他の2つの特徴量(「終単語:回」、「左単語:低下し」)よりも上記(1)に該当する可能性、即ち「正性らしさ」が高く評価される。 In the case of this example, the evaluation target feature "final word: times" has similarity only with the comparative positive feature "final word: degree", and the evaluation target "left word: declining" is similar. The feature quantity has co-occurrence only with the comparative positive feature quantity “left word: temperature”. In addition, the feature quantity “final word: °C” to be evaluated has similarity to the comparative positive feature quantity “final word: degree”, and the comparative positive feature quantity “left word: temperature is ” and co-occurrence. Therefore, in this example, the feature quantity "final word: °C" is more likely to correspond to the above (1) than the other two feature quantities ("final word: times", "left word: lower"). Ethnicity, that is, “authenticity” is highly evaluated.

特徴量表示優先度設定部182は、以上のようにして各特徴量について評価した「正性らしさ」、「負性らしさ」、「中性らしさ」に基づき、ユーザに提示する際に用いる特徴量表示優先度を求める。例えば、特徴量表示優先度設定部182は、「正性らしさ」が高い(予め設定した閾値を超えている)特徴量に高い特徴量表示優先度を設定する。また例えば、特徴量表示優先度設定部182は、「負性らしさ」が高い(予め設定した閾値を超えている)特徴量に高い特徴量表示優先度を設定する。また例えば、特徴量表示優先度設定部182は、「中性らしさ」が高い(予め設定した閾値を超えている)特徴量に高い特徴量表示優先度を設定する。尚、特徴量表示優先度設定部182が、例えば、「正性らしさ」、「負性らしさ」、「中性らしさ」のいずれか2つ以上を総合的に評価して各特徴量の特徴量表示優先度を設定するようにしてもよい。 The feature amount display priority setting unit 182 selects the feature amount used when presenting to the user based on the "positiveness", "negativeness", and "neutrality" evaluated for each feature amount as described above. Get display priority. For example, the feature amount display priority setting unit 182 sets a high feature amount display priority to a feature amount having a high “likelihood of authenticity” (exceeding a preset threshold value). Further, for example, the feature amount display priority setting unit 182 sets a high feature amount display priority to a feature amount having a high “negativeness” (exceeding a preset threshold value). Further, for example, the feature amount display priority setting unit 182 sets a high feature amount display priority to a feature amount having a high “neutrality” (exceeding a preset threshold value). Note that the feature amount display priority setting unit 182, for example, comprehensively evaluates any two or more of "positiveness", "negativeness", and "neutrality" to determine the feature amount of each feature amount. You may make it set a display priority.

続いて、特徴量表示優先度の算出方法について、具体的なテーブルを例示しつつ説明する。特徴量表示優先度設定部182は、特徴量表示優先度の算出に際し、特徴量情報120(特徴量評価テーブル121、特徴量頻度テーブル122、特徴量類似度テーブル123、特徴量共起度テーブル124)を参照もしくは生成(更新の意味を含む)する。 Next, a method for calculating the feature amount display priority will be described with reference to specific tables. When calculating the feature amount display priority, the feature amount display priority setting unit 182 sets the feature amount information 120 (the feature amount evaluation table 121, the feature amount frequency table 122, the feature amount similarity table 123, the feature amount co-occurrence table 124). ) is referenced or generated (including the meaning of update).

図4に、特徴量評価テーブル121の一例を示す。特徴量評価テーブル121には、モデルの現在のもしくはユーザにより変更された後における各特徴量の重みと評価に関する情報が管理される。同図に示すように、特徴量評価テーブル121は、特徴量1211、重み1212、および評価1213の各項目を有する複数のエントリ(レコード)で構成される。特徴量評価テーブル121の1つのエントリは1つの特徴量に対応している。 FIG. 4 shows an example of the feature evaluation table 121. As shown in FIG. The feature evaluation table 121 manages information regarding the weight and evaluation of each feature in the current model or after being changed by the user. As shown in the figure, the feature quantity evaluation table 121 is composed of a plurality of entries (records) having respective items of feature quantity 1211 , weight 1212 and evaluation 1213 . One entry in the feature evaluation table 121 corresponds to one feature.

上記項目のうち、特徴量1211には、特徴量が格納される。重み1212には、当該特徴量の重みが格納される。評価1213には、当該特徴量の作用特性に応じた種別(以下、「作用種別」と称する。)を示す情報(正性特徴量であれば「正性」、負性特徴量であれば「負性」、中性特徴量であれば「中性」)が設定される。尚、作用種別が未設定の特徴量については、評価1213に「-」が設定される。 Among the above items, the feature amount 1211 stores the feature amount. The weight 1212 stores the weight of the feature quantity. In the evaluation 1213, information indicating the type (hereinafter referred to as "action type") corresponding to the action characteristic of the feature amount ("Positive" for positive feature amount, "Positive" for negative feature amount) "negative", and "neutral" if the feature is neutral) is set. Note that “-” is set in the evaluation 1213 for feature amounts for which the action type is not set.

図5に、特徴量頻度テーブル122の一例を示す。特徴量頻度テーブル122には、現在のモデルに用いられている各特徴量の文書111(文書群)における出現頻度が管理される。同図に示すように、特徴量頻度テーブル122は、特徴量1221および頻度1222の各項目を有する複数のエントリ(レコード)で構成される。特徴量頻度テーブル122の1つのエントリは1つの特徴量に対応している。上記項目のうち、特徴量1221には、特徴量が格納される。頻度1222には、文書111における当該特徴量の出現頻
度が格納される。
FIG. 5 shows an example of the feature quantity frequency table 122. As shown in FIG. The feature quantity frequency table 122 manages the appearance frequency of each feature quantity used in the current model in the document 111 (document group). As shown in the figure, the feature amount frequency table 122 is composed of a plurality of entries (records) each having items of feature amount 1221 and frequency 1222 . One entry in the feature quantity frequency table 122 corresponds to one feature quantity. Among the above items, the feature amount 1221 stores the feature amount. The frequency 1222 stores the appearance frequency of the feature quantity in the document 111 .

図6に、特徴量類似度テーブル123の一例を示す。特徴量類似度テーブル123には、モデルを構成する異なる特徴量の間の類似度が管理される。同図に示すように、特徴量類似度テーブル123は、第1特徴量1231、第2特徴量1232、および類似度1233の各項目を有する複数のエントリ(レコード)で構成される。特徴量類似度テーブル123の1つのエントリは1つの特徴量の組に対応している。 FIG. 6 shows an example of the feature amount similarity table 123. As shown in FIG. The feature amount similarity table 123 manages the similarities between different feature amounts forming the model. As shown in the figure, the feature amount similarity table 123 is composed of a plurality of entries (records) having items of a first feature amount 1231, a second feature amount 1232, and a degree of similarity 1233, respectively. One entry in the feature amount similarity table 123 corresponds to one set of feature amounts.

上記項目のうち、第1特徴量1231には、上記組の一方の特徴量(以下、「第1特徴量」と称する。)が格納される。第2特徴量1232には、上記組の他方の特徴量(以下、「第2特徴量」と称する。)が格納される。類似度1233には、第1特徴量と第2特徴量の類似度が格納される。尚、特徴量情報生成部181は、例えば、コサイン類似度やレーベンシュタイン(Levenshtein)距離に基づき類似度を求める。 Among the above items, the first feature amount 1231 stores one feature amount of the above set (hereinafter referred to as "first feature amount"). The second feature amount 1232 stores the other feature amount of the set (hereinafter referred to as "second feature amount"). The degree of similarity 1233 stores the degree of similarity between the first feature amount and the second feature amount. Note that the feature amount information generation unit 181 obtains similarity based on cosine similarity or Levenshtein distance, for example.

図7に、特徴量共起度テーブル124の一例を示す。特徴量共起度テーブル124には、モデルを構成する異なる特徴量の共起度が管理される。同図に示すように、特徴量共起度テーブル124は、第1特徴量1241、第2特徴量1242、および共起度1243の各項目を有する複数のエントリ(レコード)で構成される。特徴量共起度テーブル124の1つのエントリは1つの特徴量の組に対応している。 FIG. 7 shows an example of the feature value co-occurrence table 124. As shown in FIG. The feature amount co-occurrence degree table 124 manages the co-occurrence degrees of different feature amounts forming the model. As shown in the figure, the feature amount co-occurrence table 124 is composed of a plurality of entries (records) each having a first feature amount 1241 , a second feature amount 1242 , and a co-occurrence degree 1243 . One entry in the feature amount co-occurrence table 124 corresponds to one set of feature amounts.

上記項目のうち、第1特徴量1241には、上記組の一方の特徴量(以下、「第1特徴量」と称する。)が格納される。第2特徴量1242には、上記組の他方の特徴量(以下、「第2特徴量」と称する。)が格納される。共起度1243には、第1特徴量と第2特徴量の共起度が格納される。尚、特徴量情報生成部181は、例えば、単語について単語分散表現(例えば、word2vec, BERT等により生成される分散表現)を生成し、生成した各単語の分散表現を用いて2つの単語の共起度を求める。 Among the above items, the first feature amount 1241 stores one feature amount of the above set (hereinafter referred to as "first feature amount"). The second feature amount 1242 stores the other feature amount of the set (hereinafter referred to as "second feature amount"). The degree of co-occurrence 1243 stores the degree of co-occurrence between the first feature amount and the second feature amount. Note that the feature amount information generation unit 181, for example, generates a word distributed representation (for example, a distributed representation generated by word2vec, BERT, etc.) for a word, and uses the generated distributed representation of each word to generate a shared representation of two words. ask for a wake up call.

図8に、表示優先度算出テーブル131の一例を示す。表示優先度算出テーブル131には、特徴量評価テーブル121、特徴量頻度テーブル122、特徴量類似度テーブル123、および特徴量共起度テーブル124の内容に基づく情報が管理される。同図に示すように、表示優先度算出テーブル131は、第1特徴量1311、第2特徴量1312、類似度1313、共起度1314、第1特徴量重み1315、第2特徴量重み1316、および第2特徴量頻度1317の各項目を有する複数のエントリ(レコード)で構成される。表示優先度算出テーブル131の1つのエントリは1つの特徴量の組に対応している。 FIG. 8 shows an example of the display priority calculation table 131. As shown in FIG. The display priority calculation table 131 manages information based on the contents of the feature quantity evaluation table 121 , the feature quantity frequency table 122 , the feature quantity similarity table 123 , and the feature quantity co-occurrence degree table 124 . As shown in the figure, the display priority calculation table 131 includes a first feature amount 1311, a second feature amount 1312, a degree of similarity 1313, a degree of co-occurrence 1314, a first feature amount weight 1315, a second feature amount weight 1316, and a plurality of entries (records) having each item of the second feature quantity frequency 1317 . One entry in the display priority calculation table 131 corresponds to one set of feature amounts.

上記項目のうち、第1特徴量1311には、上記組の一方の特徴量(以下、「第1特徴量」と称する。)が格納される。第2特徴量1312には、上記組の他方の特徴量(以下、「第2特徴量」と称する。)が格納される。類似度1313には、第1特徴量と第2特徴量の類似度が格納される。共起度1314には、第1特徴量と第2特徴量の共起度が格納される。第1特徴量重み1315には、第1特徴量の重みが格納される。第2特徴量重み1316には、第2特徴量の重みが格納される。第2特徴量頻度1317には、文書111における第2特徴量の出現頻度が格納される。 Among the above items, the first feature amount 1311 stores one feature amount of the above set (hereinafter referred to as "first feature amount"). The second feature amount 1312 stores the other feature amount of the set (hereinafter referred to as "second feature amount"). The degree of similarity 1313 stores the degree of similarity between the first feature amount and the second feature amount. The degree of co-occurrence 1314 stores the degree of co-occurrence between the first feature amount and the second feature amount. The first feature weight 1315 stores the weight of the first feature. The weight of the second feature amount is stored in the second feature amount weight 1316 . The appearance frequency of the second feature amount in the document 111 is stored in the second feature amount frequency 1317 .

図9に、特徴量表示優先度テーブル132の一例を示す。特徴量表示優先度テーブル132には、特徴量表示優先度設定部182が表示優先度算出テーブル131に基づき生成した、各特徴量の特徴量表示優先度の設定に用いる情報が管理される。同図に示すように、特徴量表示優先度テーブル132は、特徴量1321、正性らしさ1322、負性らしさ1323、および中性らしさ1324の各項目を有する複数のエントリ(レコード)で構成される。特徴量表示優先度テーブル132の1つのエントリは1つの特徴量に対応し
ている。
FIG. 9 shows an example of the feature amount display priority table 132. As shown in FIG. The feature amount display priority table 132 manages information used for setting the feature amount display priority of each feature amount, which is generated by the feature amount display priority setting unit 182 based on the display priority calculation table 131 . As shown in the figure, the feature quantity display priority table 132 is composed of a plurality of entries (records) having respective items of a feature quantity 1321, positiveness 1322, negativeness 1323, and neutrality 1324. . One entry in the feature quantity display priority table 132 corresponds to one feature quantity.

上記項目のうち、特徴量1321には特徴量が格納される。 Among the above items, the feature amount 1321 stores the feature amount.

正性らしさ1322には、表示優先度算出テーブル131に基づき次式から求めた値(正性らしさ)が格納される。尚、次式において、特徴量iは、表示優先度算出テーブル131における第2特徴量1312が対応し、特徴量jは、同テーブルにおける第1特徴量1311が対応する。次式におけるa、b、c、dは定数である。

Figure 2022148430000002
The legitimacy 1322 stores a value (legitimacy) obtained from the following equation based on the display priority calculation table 131 . In the following equation, the feature amount i corresponds to the second feature amount 1312 in the display priority calculation table 131, and the feature amount j corresponds to the first feature amount 1311 in the same table. a, b, c, and d in the following equation are constants.
Figure 2022148430000002

負性らしさ1322には、表示優先度算出テーブル131に基づき次式から求めた値(負性らしさ)が格納される。尚、次式において、特徴量iは、表示優先度算出テーブル131における第2特徴量1312が対応し、特徴量jは、同テーブルにおける第1特徴量1311が対応する。次式におけるa、b、c、dは定数である。

Figure 2022148430000003
The negative likelihood 1322 stores a value (negative likelihood) obtained from the following equation based on the display priority calculation table 131 . In the following equation, the feature amount i corresponds to the second feature amount 1312 in the display priority calculation table 131, and the feature amount j corresponds to the first feature amount 1311 in the same table. a, b, c, and d in the following equation are constants.
Figure 2022148430000003

中性らしさ1323には、表示優先度算出テーブル131に基づき次式から求めた値(中性らしさ)が格納される。尚、次式において、特徴量iは、表示優先度算出テーブル131における第2特徴量1312が対応し、特徴量jは、同テーブルにおける第1特徴量1311が対応する。次式におけるa、b、c、dは定数である。

Figure 2022148430000004
The neutrality 1323 stores a value (neutrality) obtained from the following equation based on the display priority calculation table 131 . In the following equation, the feature amount i corresponds to the second feature amount 1312 in the display priority calculation table 131, and the feature amount j corresponds to the first feature amount 1311 in the same table. a, b, c, and d in the following equation are constants.
Figure 2022148430000004

前述したように、パラメータ設定画面生成部183は、ユーザとの対話形式によりパラメータを設定する際、以上により求めた、正性らしさ1322、負性らしさ1323、および中性らしさ1324に基づき特徴量表示優先度を求める。 As described above, the parameter setting screen generation unit 183 displays feature values based on the positiveness 1322, the negativeness 1323, and the neutrality 1324 obtained as described above when setting the parameters through interaction with the user. Ask for priority.

以上のように、文書情報抽出システム1は、各特徴量について、正性らしさ、負性らしさ、中性らしさのうちの少なくともいずれかを求め、求めた値に基づき特徴量表示優先度を設定するので、調整することにより得られる効果の高い特徴量(文書111からより適切な単語や関連語を抽出できる可能性の高い特徴量)を優先してユーザに提示することができ、ユーザは効率よくパラメータを調整(チューニング)することができる。 As described above, the document information extraction system 1 obtains at least one of positiveness, negativity, and neutrality for each feature amount, and sets the feature amount display priority based on the obtained value. Therefore, it is possible to preferentially present to the user highly effective feature amounts (feature amounts with high possibility of extracting more appropriate words and related words from the document 111) that can be obtained by adjustment, and the user can efficiently Parameters can be adjusted (tuned).

続いて、文書情報抽出システム1がユーザとの間の対話処理により行うパラメータの設定について説明する。尚、以下では、説明の簡単のため、文書111から単語を抽出する場合を例として説明する。 Next, parameter setting performed by the document information extraction system 1 through interactive processing with the user will be described. For simplicity of explanation, the case of extracting words from the document 111 will be described below as an example.

図10は、パラメータ設定画面生成部183がユーザとの対話処理によりパラメータの設定を行う際に表示する画面(以下、「パラメータ設定画面1000」と称する。)の一例である。同図に示すように、パラメータ設定画面1000は、特徴量評価設定欄1010、特徴量抽出状況表示欄1020、更新前後比較ボタン1030、および確定ボタン1040を有する。 FIG. 10 is an example of a screen (hereinafter referred to as "parameter setting screen 1000") displayed by the parameter setting screen generation unit 183 when parameters are set through interactive processing with the user. As shown in the figure, the parameter setting screen 1000 has a feature amount evaluation setting field 1010, a feature amount extraction status display field 1020, a before/after update comparison button 1030, and a confirmation button 1040. FIG.

特徴量評価設定欄1010には、ユーザに確認を促す特徴量が、特徴量表示優先度テーブル132の特徴量表示優先度の高いものから順に表示される。同図に示すように、特徴量評価設定欄1010は、特徴量1011、重み1012、文章1013、および評価1014の各項目を有する複数のエントリで構成される。特徴量評価設定欄1010の1つのエントリは1つの特徴量に対応している。 In the feature amount evaluation setting field 1010, the feature amounts for prompting the user to confirm are displayed in descending order of feature amount display priority in the feature amount display priority table 132. FIG. As shown in the figure, the feature quantity evaluation setting field 1010 is composed of a plurality of entries having respective items of a feature quantity 1011, a weight 1012, a sentence 1013, and an evaluation 1014. FIG. One entry in the feature quantity evaluation setting field 1010 corresponds to one feature quantity.

上記項目のうち、特徴量1011には、ユーザに確認を促す特徴量が表示される。重み1012には、当該特徴量に設定されている重みが表示される。ユーザは当該特徴量に設定されている重みを確認しながら、当該特徴量を評価することができる。重み1012の値は、ユーザが当該画面を利用して手動で変更することも可能である。 Among the above items, in the feature amount 1011, a feature amount prompting the user to confirm is displayed. The weight 1012 displays the weight set for the feature amount. The user can evaluate the feature amount while confirming the weight set for the feature amount. The value of the weight 1012 can also be manually changed by the user using the screen.

文章1013には、当該特徴量による単語が抽出された1つ以上の文章(文書111の要素である文章)が表示される。文章1013の特徴量に相当する部分は強調表示(本例ではアンダーラインと斜体字)されており、ユーザは、文章における特徴量の位置を容易に把握することができる。 The sentence 1013 displays one or more sentences (sentences that are elements of the document 111) from which words have been extracted based on the feature amount. A portion corresponding to the feature amount of the text 1013 is highlighted (underlined and italicized in this example), so that the user can easily grasp the position of the feature amount in the text.

評価1014には、当該特徴量について設定されている作用種別が表示される。過去に作用種別が設定されている特徴量については、評価1014に既に設定されている特徴量がデフォルト値として自動表示される。また、過去に作用種別が設定されていない特徴量については、例えば、評価1014に、パラメータ設定部180が特徴量表示優先度テーブル132の内容に基づき判定した作用種別がデフォルト値として表示される。例えば、正性らしさ1322が予め設定されている閾値を超える特徴量については「正性」が、負性らしさ1323が予め設定されている閾値を超える特徴量については「負性」が、中性らしさ1324が予め設定されている閾値を超える特徴量については「中性」が、デフォルト値として評価1014に表示される。尚、デフォルト値を自動的に判定する方法は必ずしも限定されない。評価1014の内容は、当該画面を利用してユーザが手動で変更することも可能である。ユーザは、例えば、プルダウンメニューとして表示される作用種別(「正性」、「負性」、「中性」)を操作して評価1014の内容を変更する。 The evaluation 1014 displays the action type set for the feature amount. As for the feature amount for which the action type has been set in the past, the feature amount already set in the evaluation 1014 is automatically displayed as the default value. For feature amounts for which action types have not been set in the past, for example, the action types determined by the parameter setting unit 180 based on the content of the feature amount display priority table 132 are displayed in the evaluation 1014 as default values. For example, a feature amount whose positivity 1322 exceeds a preset threshold is assigned “positivity,” a feature amount whose negativeness 1323 exceeds a preset threshold is assigned “negative,” and neutral. "Neutral" is displayed in the evaluation 1014 as a default value for the feature amount whose likelihood 1324 exceeds a preset threshold. Note that the method for automatically determining the default value is not necessarily limited. The content of the evaluation 1014 can also be manually changed by the user using the screen. The user changes the contents of the evaluation 1014 by, for example, operating the type of action (“Positive”, “Negative”, and “Neutral”) displayed as a pull-down menu.

特徴量抽出状況表示欄1020には、特徴量評価設定欄1010に表示されている各特徴量の抽出の状況(様子)を示した情報が表示される。同図に示すように、特徴量抽出状況表示欄1020は、文書ID1021、抽出単語1022、抽出元文章1023、およびマッピング外特徴量1024の各項目を有する複数のエントリで構成される。特徴量抽出状況表示欄1020の1つのエントリは文書111から抽出された1つの単語に対応している。 The feature quantity extraction status display field 1020 displays information indicating the extraction status (mode) of each feature quantity displayed in the feature quantity evaluation setting field 1010 . As shown in the figure, the feature quantity extraction status display field 1020 is composed of a plurality of entries having respective items of a document ID 1021 , an extracted word 1022 , an extraction source sentence 1023 and an unmapping feature quantity 1024 . One entry in the feature quantity extraction status display field 1020 corresponds to one word extracted from the document 111 .

上記項目のうち、文書ID1021には、抽出元の文書の識別子である文書ID(本例では抽出元の文書のファイル名)が表示される。抽出単語1022には、特徴量評価設定欄1010に表示されている特徴量1011によって抽出された単語が表示される。 Among the above items, the document ID 1021 displays the document ID that is the identifier of the extraction source document (the file name of the extraction source document in this example). A word extracted by the feature amount 1011 displayed in the feature amount evaluation setting column 1010 is displayed in the extracted word 1022 .

抽出元文章1023には、当該単語の抽出元の文章が表示される。同図に示すように、抽出元文章1023の特徴量に相当する部分には、特徴量の重みに応じた文字飾り(実線アンダーライン、枠囲み、斜体字、破線アンダーライン、飾り無し)が付されている。尚
、抽出元文章1023において文字飾りが付される特徴量は、後述するマッピング対象特徴量テーブル142に定義されている特徴量が対象となる。本例では、各特徴量に設定されている重み(効き方)の違いを文字飾りの種類を変えることで区別しているが、色分け等の他の方法で区別するようにしてもよい。
An extraction source sentence 1023 displays the sentence from which the word is extracted. As shown in the figure, the portion corresponding to the feature quantity of the extraction source sentence 1023 is decorated with characters (solid underline, framed, italic, dashed underline, no decoration) according to the weight of the feature quantity. It is It should be noted that the feature amount to which character decoration is added in the extraction source sentence 1023 is the feature amount defined in the mapping target feature amount table 142, which will be described later. In this example, the difference in the weight (effectiveness) set for each feature amount is distinguished by changing the type of character decoration, but other methods such as color coding may be used for distinction.

本例では、文字飾りのうち、実線アンダーラインは、温度を示す単語を抽出するのに大きく作用する特徴量(正性特徴量)に付され、また、枠囲みは、温度を示す単語を抽出するのに作用する特徴量(正性特徴量)に付され、また、斜体字は、温度でない単語を抽出しないように作用する特徴量(負性特徴量)に付され、また、破線アンダーラインは、温度でない単語を抽出しないように大きく作用する特徴量(負性特徴量)に付され、また、飾り無しは、正性特徴量および負性特徴量のいずれにも該当しない特徴量(中性特徴量)に付される。 In this example, among the character decorations, the solid underline is added to the feature quantity (positive feature quantity) that greatly affects the extraction of the word indicating temperature, and the framed character is used to extract the word indicating temperature. Italic characters are attached to features (negative features) that act not to extract words other than temperature, and dashed underlines is added to the feature quantity (negative feature quantity) that has a large effect on not extracting words that are not temperature. gender feature).

マッピング外特徴量1024には、当該単語を抽出に寄与した他の特徴量(本例では文字数)が表示される。マッピング外特徴量1024に表示される他の特徴量の例として、例えば、「数字か文字か」、「英語か日本語か」、「ローマ字か漢字か」、「大文字か小文字か」がある。 The non-mapping feature amount 1024 displays another feature amount (the number of characters in this example) that contributed to the extraction of the word. Examples of other feature values displayed in the non-mapping feature value 1024 include, for example, "number or letter", "English or Japanese", "romaji or kanji", and "capital letter or small letter".

ユーザが更新前後比較ボタン1030を操作すると、パラメータ設定部180は、ユーザが変更操作を行う前の特徴量評価設定欄1010の内容と、ユーザが変更操作を行った後の特徴量評価設定欄1010の内容とを対比可能な状態で示した画面(以下、「更新前後対比画面1100」と称する。)を表示する。 When the user operates the before/after update comparison button 1030, the parameter setting unit 180 compares the contents of the feature amount evaluation setting field 1010 before the user performs the change operation and the feature amount evaluation setting field 1010 after the user performs the change operation. (hereinafter referred to as "before and after update comparison screen 1100") is displayed.

図11に、更新前後対比画面1100の一例を示す。同図に示すように、例示する更新前後対比画面1100は、更新前の特徴量評価設定欄1010の内容が表示される特徴量評価設定欄(更新前)1111と、更新前の特徴量評価設定欄1010の内容が表示される特徴量評価設定欄(更新後)1112とを有する。ユーザは、更新前後対比画面1100を参照することで、自分がいずれの特徴量の評価や重みをどのように変更したのかを容易に確認することができる。尚、ユーザが特徴量の評価1014の内容を変更すると、特徴量表示優先度設定部182によって更新後の評価(作用種別)および重みに基づき特徴量表示優先度が再計算され、特徴量の表示順も更新される。 FIG. 11 shows an example of a before and after update comparison screen 1100 . As shown in the figure, the example before and after update comparison screen 1100 includes a feature amount evaluation setting field (before update) 1111 that displays the content of the feature amount evaluation setting field 1010 before updating, and a feature amount evaluation setting before updating. It also has a feature value evaluation setting column (after update) 1112 in which the contents of the column 1010 are displayed. By referring to the before and after update comparison screen 1100, the user can easily confirm how the evaluation and weighting of which feature amount has been changed by the user. When the user changes the content of the feature amount evaluation 1014, the feature amount display priority setting unit 182 recalculates the feature amount display priority based on the updated evaluation (action type) and weight, and displays the feature amount. The order is also updated.

図10に戻り、ユーザが、確定ボタン1040を操作すると、パラメータ更新部185が、パラメータ設定画面1000の設定内容(重み1012、評価1014)に基づきパラメータ更新情報152を生成し、生成したパラメータ更新情報152に基づき、単語/関連語抽出部171が用いるモデルのパラメータを更新する。尚、パラメータ更新部185が、パラメータ設定画面1000の評価1014に基づき、対応する特徴量の重みを自動設定するようにしてもよい。その場合、各特徴量について自動設定する重みは、例えば、特徴量表示優先度テーブル132における夫々の正性らしさ1322、負性らしさ1323、中性らしさ1324に基づき設定する。 Returning to FIG. 10, when the user operates the confirm button 1040, the parameter update unit 185 generates the parameter update information 152 based on the setting contents (weight 1012, evaluation 1014) of the parameter setting screen 1000, and the generated parameter update information 152, the parameters of the model used by the word/related word extraction unit 171 are updated. Note that the parameter updating unit 185 may automatically set the weight of the corresponding feature amount based on the evaluation 1014 on the parameter setting screen 1000 . In that case, the weight automatically set for each feature amount is set based on, for example, the positivity 1322 , negativeness 1323 , and neutrality 1324 in the feature amount display priority table 132 .

以上のように、パラメータ設定画面1000の特徴量評価設定欄1010には、特徴量1011とともに当該特徴量の抽出元の文章1013が表示されるので、ユーザは、特徴量について適切な評価1014を設定することができる。また、特徴量抽出状況表示欄1020には、特徴量評価設定欄1010に表示されている特徴量についての抽出状況に関する情報(抽出単語1022、抽出元文章1023、マッピング外特徴量1024)が表示されるので、ユーザは、単語の抽出に際し特徴量がどのように作用するのかを視覚的に確認することができ、機械学習についての知識や経験の少ないユーザであっても、これらの情報を参考にして特徴量を効率よく適切に設定することができる。そのため、例えば、機械学習については不慣れだが、対象とする情報分野に精通しているドメインユーザの豊
富な知識や経験を有効に活用することができる。
As described above, since the feature amount 1011 and the text 1013 from which the feature amount is extracted are displayed in the feature amount evaluation setting field 1010 of the parameter setting screen 1000, the user can set an appropriate evaluation 1014 for the feature amount. can do. In addition, in the feature quantity extraction status display field 1020, information (extracted word 1022, extraction source sentence 1023, non-mapping feature quantity 1024) regarding the extraction status of the feature quantity displayed in the feature quantity evaluation setting field 1010 is displayed. Therefore, the user can visually confirm how the feature value works in word extraction, and even users with little knowledge or experience of machine learning can refer to this information. feature quantity can be set efficiently and appropriately. Therefore, for example, it is possible to effectively utilize the abundant knowledge and experience of domain users who are not familiar with machine learning but who are familiar with the target information field.

続いて、パラメータ設定画面1000および更新前後対比画面1100の生成に用いる各種テーブルの例を示す。 Next, examples of various tables used to generate the parameter setting screen 1000 and the before/after update comparison screen 1100 are shown.

図12は、特徴量抽出元情報テーブル125の一例である。特徴量抽出元情報テーブル125には、特徴量の抽出元に関する情報が管理される。同図に示すように、特徴量抽出元情報テーブル125は、文書ID1251、単語1252、抽出元文章1253、単語始点1254、単語終点1255、特徴量1256、特徴量始点1257、および特徴量終点1258の各項目を有する複数のエントリ(レコード)で構成される。特徴量抽出元情報テーブル125の1つのエントリは1つの特徴量に対応している。 FIG. 12 is an example of the feature quantity extraction source information table 125 . The feature quantity extraction source information table 125 manages information about the feature quantity extraction sources. As shown in the figure, the feature amount extraction source information table 125 includes a document ID 1251, a word 1252, an extraction source sentence 1253, a word start point 1254, a word end point 1255, a feature amount 1256, a feature amount start point 1257, and a feature amount end point 1258. It consists of multiple entries (records) with each item. One entry in the feature quantity extraction source information table 125 corresponds to one feature quantity.

上記項目のうち、文書ID1251には、当該特徴量の抽出元の文書の文書IDが格納される。単語1252には、当該特徴量によって抽出された単語が格納される。抽出元文章1253には、当該単語の抽出元の文章が格納される。単語始点1254および単語終点1255には夫々、当該単語の文書における位置(始点、終点)が格納される。特徴量1256には、当該特徴量が格納される。特徴量始点1257および特徴量終点1258には夫々、当該抽出元の文章における当該特徴量の出現する位置(始点、終点)が格納される。 Among the above items, the document ID 1251 stores the document ID of the document from which the feature amount is extracted. The word 1252 stores the word extracted by the feature amount. The extraction source sentence 1253 stores the sentence from which the word is extracted. The word start point 1254 and the word end point 1255 store the position (start point, end point) of the word in the document, respectively. The feature amount 1256 stores the feature amount. A feature quantity start point 1257 and a feature quantity end point 1258 respectively store positions (start point, end point) at which the feature quantity appears in the extraction source sentence.

図13は、文字飾り定義テーブル141の一例である。文字飾り定義テーブル141には、特徴量の重みに応じた文字飾りを示す情報が管理される。文字飾り定義テーブル141の内容は、例えば、システム管理者やユーザが設定する。同図に示すように、文字飾り定義テーブル141は、重み1411と文字飾り1412の各項目を有する複数のレコードで構成される。重み1411には、重みの範囲を示す情報が格納される。また、文字飾り1412には文字飾りの種類を示す情報が格納される。 FIG. 13 is an example of the character decoration definition table 141. As shown in FIG. The character decoration definition table 141 manages information indicating character decoration corresponding to the weight of the feature quantity. The contents of the character decoration definition table 141 are set by, for example, a system administrator or a user. As shown in the figure, the character decoration definition table 141 is composed of a plurality of records having weight 1411 and character decoration 1412 items. Information indicating the weight range is stored in the weight 1411 . Information indicating the type of character decoration is stored in the character decoration 1412 .

図14は、マッピング対象特徴量テーブル142の一例である。マッピング対象特徴量テーブル142には、パラメータ設定画面1000の特徴量抽出状況表示欄1020の抽出元文章1023やマッピング外特徴量1024に表示される特徴量のうち、文字飾りを付す対象とする特徴量(対象特徴量1421)が管理される。マッピング対象特徴量テーブル142の内容は、例えば、システム管理者やユーザが設定する。 FIG. 14 is an example of the mapping target feature quantity table 142 . In the mapping target feature amount table 142, among the feature amounts displayed in the extraction source sentence 1023 and the non-mapping feature amount 1024 in the feature amount extraction status display field 1020 of the parameter setting screen 1000, the feature amounts to be subjected to character decoration are displayed. (target feature quantity 1421) is managed. The contents of the mapping target feature amount table 142 are set by, for example, a system administrator or a user.

図15は、特徴量評価設定情報テーブル143の一例である。特徴量評価設定情報テーブル143には、パラメータ設定画面1000の特徴量評価設定欄1010に表示する情報が管理される。同図に示すように、特徴量評価設定情報テーブル143は、特徴量1431、重み1432、抽出元文章1433、特徴量始点1434、特徴量終点1435、および評価1436の各項目を有する複数のエントリ(レコード)で構成される。特徴量評価設定情報テーブル143の1つのエントリは1つの特徴量に対応している。 FIG. 15 is an example of the feature evaluation setting information table 143. As shown in FIG. Information to be displayed in the feature amount evaluation setting column 1010 of the parameter setting screen 1000 is managed in the feature amount evaluation setting information table 143 . As shown in the figure, the feature evaluation setting information table 143 includes a plurality of entries ( records). One entry in the feature quantity evaluation setting information table 143 corresponds to one feature quantity.

上記項目のうち特徴量1431には、評価の対象となる特徴量が格納される。重み1432には、当該特徴量の重みが格納される。抽出元文章1433には、当該特徴量の抽出元の文章が格納される。特徴量始点1434および特徴量終点1435には夫々、抽出元文章1433における当該特徴量の位置を示す情報(始点、終点)が格納される。評価1436には、前述したデフォルト値またはユーザが設定した評価(「正性」、「負性」、「中性」のいずれか)が設定される。 Among the above items, the feature amount 1431 stores the feature amount to be evaluated. The weight 1432 stores the weight of the feature amount. The extraction source text 1433 stores the text from which the feature amount is extracted. Information (start point, end point) indicating the position of the feature amount in the extraction source sentence 1433 is stored in the feature amount start point 1434 and the feature amount end point 1435, respectively. In the evaluation 1436, the default value described above or the evaluation set by the user (one of “positive”, “negative”, and “neutral”) is set.

図16は、特徴量抽出状況表示テーブル144の一例である。特徴量抽出状況表示テーブル144には、パラメータ設定画面1000の特徴量抽出状況表示欄1020に表示する情報が管理される。同図に示すように、特徴量抽出状況表示テーブル144は、文書I
D1441、単語1442、抽出元文章1443、単語始点1444、単語終点1445、特徴量1446、特徴量始点1447、特徴量終点1448、重み1449、文字飾り1450、およびマッピング外特徴量1451の各項目を有する複数のレコードで構成される。特徴量抽出状況表示テーブル144の1つのエントリは文書111から抽出される1つの単語に対応している。
FIG. 16 is an example of the feature quantity extraction status display table 144. As shown in FIG. Information displayed in the feature extraction status display column 1020 of the parameter setting screen 1000 is managed in the feature extraction status display table 144 . As shown in the figure, the feature quantity extraction status display table 144 includes document I
D1441, word 1442, extraction source sentence 1443, word start point 1444, word end point 1445, feature amount 1446, feature amount start point 1447, feature amount end point 1448, weight 1449, character decoration 1450, and non-mapping feature amount 1451. Consists of multiple records. One entry in the feature quantity extraction status display table 144 corresponds to one word extracted from the document 111 .

文書ID1441には、当該単語(単語1442)の抽出元の文書111の文書IDが格納される。単語1442には、当該特徴量(特徴量1446)によって抽出された単語が格納される。抽出元文章1443には、当該単語の抽出元の文章が格納される。単語始点1444および単語終点1445には、当該単語の抽出元文章1443における位置(始点、終点)が格納される。特徴量1446には、当該単語の抽出に用いた特徴量が格納される。特徴量始点1447および特徴量終点1448には夫々、抽出元文章1443における当該特徴量の位置を示す情報(始点、終点)が格納される。 The document ID 1441 stores the document ID of the document 111 from which the word (word 1442) is extracted. The word 1442 stores a word extracted by the feature amount (feature amount 1446). The extraction source sentence 1443 stores the sentence from which the word is extracted. The word start point 1444 and word end point 1445 store the position (start point, end point) of the word in the extraction source sentence 1443 . The feature amount 1446 stores the feature amount used to extract the word. Information (start point, end point) indicating the position of the feature amount in the extraction source sentence 1443 is stored in the feature amount start point 1447 and the feature amount end point 1448, respectively.

重み1449には、当該特徴量(特徴量1446)に設定されている重みが格納される。文字飾り1450には、当該特徴量の表示に際して付する文字飾りを示す情報が格納される。マッピング外特徴量1451には、当該単語の抽出に寄与した、マッピング対象特徴量テーブル142に定義されていない他の特徴量が格納される。 The weight 1449 stores the weight set for the feature amount (feature amount 1446). The character decoration 1450 stores information indicating the character decoration to be applied when displaying the feature amount. The non-mapping feature amount 1451 stores other feature amounts that have contributed to the extraction of the word and are not defined in the mapping target feature amount table 142 .

続いて、特徴量評価設定情報テーブル143や特徴量抽出状況表示テーブル144の生成に際しパラメータ設定部180が行う処理について説明する。 Next, processing performed by the parameter setting unit 180 when generating the feature amount evaluation setting information table 143 and the feature amount extraction status display table 144 will be described.

図17は、パラメータ設定部180が、特徴量評価設定情報テーブル143の生成に際し行う処理(以下、「特徴量評価設定情報テーブル生成処理S1700」と称する。)を説明するフローチャートである。以下、同図とともに特徴量評価設定情報テーブル生成処理S1700について説明する。 FIG. 17 is a flowchart for explaining the process performed by the parameter setting unit 180 when generating the feature evaluation setting information table 143 (hereinafter referred to as "feature evaluation setting information table generation process S1700"). The feature evaluation setting information table generation processing S1700 will be described below with reference to FIG.

まず、パラメータ設定部180は、特徴量抽出元情報テーブル125と特徴量評価テーブル121を読み込む(S1711~S1712)。 First, the parameter setting unit 180 reads the feature quantity extraction source information table 125 and the feature quantity evaluation table 121 (S1711 to S1712).

続いて、パラメータ設定部180は、特徴量評価テーブル121のエントリを1つ選択する(S1713)。 Subsequently, the parameter setting unit 180 selects one entry in the feature evaluation table 121 (S1713).

続いて、パラメータ設定部180は、S1713で選択したエントリの特徴量に対応する特徴量抽出元情報テーブル125の抽出元文章1253を関連づけた内容を設定したエントリを特徴量評価設定情報テーブルに追加する(S1714)。 Next, the parameter setting unit 180 adds to the feature evaluation setting information table an entry in which the content associated with the extraction source sentence 1253 of the feature extraction source information table 125 corresponding to the feature of the entry selected in S1713 is set. (S1714).

続いて、パラメータ設定部180は、S1713で特徴量評価テーブルS1713の全てのエントリを選択済か否かを判定する(S1715)。全てのエントリを選択済でなければ(S1715:NO)、処理はS1713に戻り、未選択のエントリを選択して以上と同様の処理を行う。一方、全てのエントリを選択済であれば(S1715:YES)、特徴量評価設定情報テーブル生成処理S1700は終了する。 Subsequently, the parameter setting unit 180 determines whether or not all entries in the feature evaluation table S1713 have been selected in S1713 (S1715). If all entries have not been selected (S1715: NO), the process returns to S1713, selects an unselected entry, and performs the same process as above. On the other hand, if all entries have been selected (S1715: YES), the feature evaluation setting information table generation processing S1700 ends.

図18は、パラメータ設定部180が、特徴量抽出状況表示テーブル144の生成に際し行う処理(以下、「特徴量抽出状況表示テーブル生成処理S1800」と称する。)を説明するフローチャートである。以下、同図とともに特徴量抽出状況表示テーブル生成処理S1800について説明する。 FIG. 18 is a flowchart for explaining the process performed by the parameter setting unit 180 when generating the feature extraction status display table 144 (hereinafter referred to as "feature extraction status display table generation process S1800"). The feature quantity extraction status display table generation processing S1800 will be described below with reference to FIG.

まず、パラメータ設定部180は、特徴量抽出元情報テーブル125、特徴量評価テーブル121、文字飾り定義テーブル141、およびマッピング対象特徴量テーブル142
を読み込む(S1811~S1814)。
First, the parameter setting unit 180 sets the feature amount extraction source information table 125, the feature amount evaluation table 121, the character decoration definition table 141, and the mapping target feature amount table 142.
is read (S1811 to S1814).

続いて、パラメータ設定部180は、特徴量抽出元情報テーブル125のエントリを1つ選択し、選択したエントリの内容を用いて特徴量抽出状況表示テーブル144にエントリを1つ追加する(S1815)。 Subsequently, the parameter setting unit 180 selects one entry in the feature quantity extraction source information table 125 and adds one entry to the feature quantity extraction status display table 144 using the content of the selected entry (S1815).

続いて、パラメータ設定部180は、追加したエントリの重み1449に、特徴量評価テーブル121の対応する特徴量の重みを格納する(S1816)。 Subsequently, the parameter setting unit 180 stores the corresponding feature amount weight in the feature amount evaluation table 121 in the added entry weight 1449 (S1816).

続いて、パラメータ設定部180は、追加したエントリの文字飾り1450に、文字飾り定義テーブル141におけるS1816で格納した重みに対応する文字飾りを格納する(S1817)。 Subsequently, the parameter setting unit 180 stores the character decoration corresponding to the weight stored in S1816 in the character decoration definition table 141 in the character decoration 1450 of the added entry (S1817).

続いて、パラメータ設定部180は、マッピング対象特徴量テーブル142に、S1815で追加したエントリの特徴量1446と同じ特徴量があるか否かを判定する(S1818)。同じ特徴量があれば(S1818:YES)、パラメータ設定部180は、追加したエントリのマッピング外特徴量1451に空白を設定し、その後、処理はS1820に進む。同じ特徴量がなければ(S1818:NO)、パラメータ設定部180は、追加したエントリのマッピング外特徴量1451に当該特徴量を格納し(S1819)、その後、処理はS1820に進む。 Subsequently, the parameter setting unit 180 determines whether or not the mapping target feature amount table 142 has the same feature amount as the feature amount 1446 of the entry added in S1815 (S1818). If there is the same feature amount (S1818: YES), the parameter setting unit 180 sets the non-mapping feature amount 1451 of the added entry to blank, and then the process proceeds to S1820. If the same feature quantity does not exist (S1818: NO), the parameter setting unit 180 stores the feature quantity in the non-mapping feature quantity 1451 of the added entry (S1819), and then the process proceeds to S1820.

続いて、パラメータ設定部180は、S1815で特徴量抽出元情報テーブル125の全てのエントリを選択済か否かを判定する(S1820)。全てのエントリを選択済でなければ(S1820:NO)、処理はS1815に戻り、未選択のエントリを選択して以上と同様の処理を行う。一方、全てのエントリを選択済であれば(S1815:YES)、特徴量抽出状況表示テーブル生成処理S1800は終了する。 Subsequently, the parameter setting unit 180 determines whether or not all entries in the feature quantity extraction source information table 125 have been selected in S1815 (S1820). If all entries have not been selected (S1820: NO), the process returns to S1815, selects an unselected entry, and performs the same process as above. On the other hand, if all entries have been selected (S1815: YES), the feature extraction status display table generation processing S1800 ends.

続いて、以上に説明した文書情報抽出システム1の構成に用いる情報処理装置(コンピュータ)について説明する。 Next, an information processing apparatus (computer) used for the configuration of the document information extraction system 1 described above will be described.

図19は、文書情報抽出システム1の構成に用いる情報処理装置の一例である。同図に示すように、例示する情報処理装置10は、プロセッサ11、主記憶装置12、補助記憶装置13、入力装置14、出力装置15、および通信装置16を備える。 FIG. 19 shows an example of an information processing device used for configuring the document information extraction system 1 . As shown in the figure, the illustrated information processing apparatus 10 includes a processor 11 , a main storage device 12 , an auxiliary storage device 13 , an input device 14 , an output device 15 and a communication device 16 .

文書情報抽出システム1は、例えば、通信可能に接続された複数の情報処理装置10を用いて実現してもよい。また、情報処理装置10は、その全部または一部が、例えば、クラウドシステムによって提供される仮想サーバのように、仮想化技術やプロセス空間分離技術等を用いて提供される仮想的な情報処理資源を用いて実現されるものであってもよい。また、情報処理装置10によって提供される機能の全部または一部は、例えば、クラウドシステムがAPI(Application Programming Interface)等を介して提供するサービ
スによって実現してもよい。
The document information extraction system 1 may be implemented using, for example, a plurality of information processing apparatuses 10 that are communicatively connected. Further, the information processing apparatus 10 is a virtual information processing resource provided in whole or in part using virtualization technology, process space separation technology, etc., such as a virtual server provided by a cloud system. may be implemented using Also, all or part of the functions provided by the information processing apparatus 10 may be realized by services provided by the cloud system via an API (Application Programming Interface) or the like, for example.

また、情報処理装置10によって提供される機能の全部または一部は、例えば、SaaS(Software as a Service)、PaaS(Platform as a Service)、IaaS(Infrastructure as a Service)等を利用して実現されるものであってもよい。 Further, all or part of the functions provided by the information processing device 10 are realized using, for example, SaaS (Software as a Service), PaaS (Platform as a Service), IaaS (Infrastructure as a Service), etc. can be anything.

同図に示すプロセッサ11は、例えば、CPU(Central Processing Unit)、MPU
(Micro Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)、
AI(Artificial Intelligence)チップ等を用いて構成されている。
The processor 11 shown in the figure is, for example, a CPU (Central Processing Unit), an MPU
(Micro Processing Unit), GPU (Graphics Processing Unit), FPGA (Field Programmable Gate Array), ASIC (Application Specific Integrated Circuit),
It is configured using an AI (Artificial Intelligence) chip or the like.

主記憶装置12は、プログラムやデータを記憶する装置であり、例えば、ROM(Read
Only Memory)、RAM(Random Access Memory)、不揮発性メモリ(NVRAM(Non Volatile RAM))等である。
The main storage device 12 is a device that stores programs and data, and is, for example, a ROM (Read
Only Memory), RAM (Random Access Memory), nonvolatile memory (NVRAM (Non Volatile RAM)), and the like.

補助記憶装置13は、例えば、SSD(Solid State Drive)、ハードディスクドライ
ブ、光学式記憶装置(CD(Compact Disc)、DVD(Digital Versatile Disc)等)、ストレージシステム、ICカード、SDカードや光学式記録媒体等の記録媒体の読取/書込装置、クラウドサーバの記憶領域等である。補助記憶装置13には、記録媒体の読取装置や通信装置16を介してプログラムやデータを読み込むことができる。補助記憶装置13に格納(記憶)されているプログラムやデータは主記憶装置12に随時読み込まれる。
The auxiliary storage device 13 is, for example, an SSD (Solid State Drive), a hard disk drive, an optical storage device (CD (Compact Disc), DVD (Digital Versatile Disc), etc.), a storage system, an IC card, an SD card, or an optical recording device. They are a read/write device for a recording medium such as a medium, a storage area of a cloud server, and the like. Programs and data can be read into the auxiliary storage device 13 via a recording medium reading device or the communication device 16 . Programs and data stored (stored) in the auxiliary storage device 13 are read into the main storage device 12 at any time.

入力装置14は、外部からの入力を受け付けるインタフェースであり、例えば、キーボード、マウス、タッチパネル、カードリーダ、ペン入力方式のタブレット、音声入力装置等である。 The input device 14 is an interface that receives input from the outside, and includes, for example, a keyboard, mouse, touch panel, card reader, pen-input tablet, voice input device, and the like.

出力装置15は、処理経過や処理結果等の各種情報を出力するインタフェースである。出力装置15は、例えば、上記の各種情報を可視化する表示装置(液晶モニタ、LCD(Liquid Crystal Display)、グラフィックカード等)、上記の各種情報を音声化する装置(音声出力装置(スピーカ等))、上記の各種情報を文字化する装置(印字装置等)である。尚、例えば、情報処理装置10が通信装置16を介して他の装置との間で情報の入力や出力を行う構成としてもよい。 The output device 15 is an interface for outputting various information such as processing progress and processing results. The output device 15 is, for example, a display device (liquid crystal monitor, LCD (Liquid Crystal Display), graphic card, etc.) that visualizes the above various information, a device (audio output device (speaker, etc.)) that converts the above various information into sound. , a device (printing device, etc.) that converts the above various information into characters. For example, the information processing device 10 may be configured to input and output information with another device via the communication device 16 .

入力装置14と出力装置15は、ユーザとの間での対話処理(情報の受け付け、情報の提示等)を実現するユーザインタフェースを構成する。 The input device 14 and the output device 15 constitute a user interface that realizes interactive processing (acceptance of information, presentation of information, etc.) with the user.

通信装置16は、他の装置との間の通信を実現する装置である。通信装置16は、通信ネットワーク5(LAN(Local Area Network)、WAN(Wide Area Network)、イン
ターネット、公衆通信網、専用線等)を介して他の装置との間の通信を実現する、有線方式または無線方式の通信インタフェースであり、例えば、NIC(Network Interface Card)、無線通信モジュール、USBモジュール等である。
The communication device 16 is a device that realizes communication with other devices. The communication device 16 implements communication with other devices via a communication network 5 (LAN (Local Area Network), WAN (Wide Area Network), Internet, public communication network, dedicated line, etc.). Alternatively, it is a wireless communication interface, such as a NIC (Network Interface Card), a wireless communication module, a USB module, or the like.

情報処理装置10には、例えば、オペレーティングシステム、ファイルシステム、DBMS(DataBase Management System)(リレーショナルデータベース、NoSQL等)、KVS(Key-Value Store)等が導入されていてもよい。文書情報抽出システム1は、前
述した各種の情報(データ)を、例えば、データベースのテーブルやファイルシステムが管理するファイルとして記憶する。
For example, an operating system, a file system, a DBMS (DataBase Management System) (relational database, NoSQL, etc.), a KVS (Key-Value Store), etc. may be installed in the information processing apparatus 10 . The document information extraction system 1 stores the various types of information (data) described above, for example, as files managed by a database table or a file system.

文書情報抽出システム1が提供する各種の機能は、プロセッサ11が、主記憶装置12に格納されているプログラムを読み出して実行することにより、もしくは、文書情報抽出システム1を構成するハードウェア(FPGA、ASIC、AIチップ等)自体によって実現される。また、文書情報抽出システム1の各種の機能は、例えば、テキストデータマイニング等の公知の各種データマイニング手法、公知の各種自然言語処理手法(形態素解析、構文解析、意味解析、文脈解析、特徴量抽出、単語分散表現、固有表現抽出、テキスト分類、系列ラベリング)、公知の各種機械学習手法(深層学習(DNN(Deep Neural Network)、RNN(Recurrent Neural Network)等)を用いて実現される。 Various functions provided by the document information extraction system 1 are performed by the processor 11 reading and executing a program stored in the main storage device 12, or by hardware (FPGA, ASIC, AI chip, etc.) itself. Various functions of the document information extraction system 1 include, for example, various known data mining techniques such as text data mining, various known natural language processing techniques (morphological analysis, syntactic analysis, semantic analysis, contextual analysis, feature quantity extraction, , word distributed representation, named entity extraction, text classification, sequence labeling), and various known machine learning techniques (deep learning (DNN (Deep Neural Network), RNN (Recurrent Neural Network), etc.).

以上詳細に説明したように、本実施形態の文書情報抽出システム1は、パラメータ(特徴量、重み)の設定に際し、評価対象特徴量と、評価対象特徴量の抽出元の1つ以上の文章と、評価対象特徴量に設定されている重みとを表示しつつ、作用種別または重みの設定
を受け付けるので、ユーザは、抽出元の文章や重みを確認しつつ(どのような特徴量にどのような設定がされているのかを確認しつつ)評価対象特徴量を効率よく適切に設定することができる。
As described in detail above, the document information extraction system 1 of the present embodiment, when setting the parameters (feature amounts, weights), sets the evaluation target feature amount and one or more sentences from which the evaluation target feature amount is extracted. , while displaying the weight set for the feature to be evaluated, the setting of the action type or weight is accepted, so the user can confirm the text and weight of the extraction source (what kind of feature to what kind of feature? It is possible to efficiently and appropriately set the evaluation target feature amount while checking whether the setting has been made.

また、パラメータ設定画面1000の特徴量評価設定欄1010の文章1013において評価対象特徴量の部分が強調表示されるので、ユーザは、評価対象特徴量が文書にどのように作用するのかを容易に確認することができる。 In addition, since the part of the evaluation target feature quantity is highlighted in the text 1013 of the feature quantity evaluation setting column 1010 of the parameter setting screen 1000, the user can easily confirm how the evaluation target feature quantity affects the document. can do.

また、パラメータ設定画面1000の特徴量抽出状況表示欄1020の抽出元文章1023には、表示する文章の評価対象特徴量の部分が、作用種別ごとに区別した文字飾りや色等で強調表示されるので、ユーザは、作用種別ごとの評価対象特徴量の作用特性を認識しつつ、評価対象特徴量を効率よく適切に設定することができる。 In addition, in the extraction source sentence 1023 of the feature quantity extraction status display field 1020 of the parameter setting screen 1000, the evaluation target feature quantity portion of the displayed sentence is highlighted by character decoration, color, etc., distinguished for each action type. Therefore, the user can efficiently and appropriately set the evaluation target feature quantity while recognizing the action characteristics of the evaluation target feature quantity for each action type.

また、パラメータ設定画面1000の特徴量抽出状況表示欄1020には、文書から抽出した単語が表示されるので、ユーザは、どのように特徴量が作用してどのような単語が抽出されるのかを認識しつつ、評価対象特徴量を効率よく適切に設定することができる。 In addition, since the words extracted from the document are displayed in the feature quantity extraction status display field 1020 of the parameter setting screen 1000, the user can see how the feature quantity works and what kind of words are extracted. It is possible to efficiently and appropriately set the evaluation target feature amount while recognizing the problem.

また、パラメータ設定画面1000の特徴量抽出状況表示欄1020には、評価対象特徴量により文書から抽出した情報の抽出に作用した他の特徴量(マッピング外特徴量1024)も表示されるので、ユーザは、他の特徴量も参考にしつつ、評価対象特徴量を効率よく適切に設定することができる。 In addition, in the feature quantity extraction status display field 1020 of the parameter setting screen 1000, other feature quantity (non-mapping feature quantity 1024) that affected the extraction of information extracted from the document by the evaluation target feature quantity is also displayed. can efficiently and appropriately set the evaluation target feature amount while also referring to other feature amounts.

このように、本実施形態の文書情報抽出システム1によれば、機械学習の方法により文書から有用な情報を抽出する際に用いるモデルの特徴量に関する設定を支援することができる。そのため、例えば、抽出しようとする情報の分野についての知識(ドメイン知識)は有しているが機械学習についての知識や経験が無い者でも、特徴量を効率よく適切に行うことができ、ドメインユーザの知識を有効に活用して特徴量を適切に設定することができる。 As described above, according to the document information extraction system 1 of the present embodiment, it is possible to support the setting of the feature amount of the model used when extracting useful information from the document by the machine learning method. Therefore, for example, even a person who has knowledge about the field of information to be extracted (domain knowledge) but does not have knowledge or experience of machine learning can efficiently and appropriately perform feature values, and domain user This knowledge can be effectively used to appropriately set the feature amount.

以上、本発明の一実施形態について説明したが、本発明は上記の実施形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。例えば、上記の実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、上記実施形態の構成の一部について、他の構成の追加や削除、置換をすることが可能である。 Although one embodiment of the present invention has been described above, it goes without saying that the present invention is not limited to the above-described embodiment, and can be variously modified without departing from the scope of the invention. For example, the above embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the configurations described. Moreover, it is possible to add, delete, or replace a part of the configuration of the above embodiment with another configuration.

例えば、以上では、各種の処理が文書を単位として行われる場合を例として説明したが、処理の単位は必ずしも限定されず、本実施形態の文書情報抽出システム1は、文書に代え文章(1つ以上の文からなる文章)を単位としても同様の処理を行うことができる。 For example, in the above description, various processes are performed on a document basis, but the processing unit is not necessarily limited. The same processing can be performed using sentences consisting of the above sentences as a unit.

また、以上では、文書情報抽出部170が、蓄積された文書111から機械学習のモデル(学習モデル)により情報を抽出し、抽出した情報をシステム管理者やユーザに提示する場合を示したが、例えば、システム管理者やユーザが定義した抽出ルールを用いて情報を抽出し、システム管理者やユーザに提示するようにしてもよい。その場合、例えば、図10に示したパラメータ設定画面1000において、マッピング外特徴量1024に、ルールにマッチしたか否かを示す情報を表示するようにしてもよい。 In the above description, the document information extraction unit 170 extracts information from the accumulated documents 111 by using a machine learning model (learning model), and presents the extracted information to the system administrator and the user. For example, information may be extracted using an extraction rule defined by a system administrator or user and presented to the system administrator or user. In that case, for example, in the parameter setting screen 1000 shown in FIG. 10, the non-mapping feature amount 1024 may display information indicating whether or not the rule is matched.

また、上記の各構成、機能部、処理部、処理手段等は、それらの一部または全部を、例えば、集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイ
ル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記録装置、
ICカード、SDカード、DVD等の記録媒体に置くことができる。
Further, each of the above-described components, functional units, processing units, processing means, etc. may be realized by hardware, for example, by designing them in an integrated circuit. Moreover, each of the above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function. Information such as programs, tables, files, etc. that realize each function is stored in recording devices such as memories, hard disks, SSDs (Solid State Drives),
It can be placed in recording media such as IC cards, SD cards, and DVDs.

また、以上に説明した各情報処理装置の各種機能部、各種処理部、各種データベースの配置形態は一例に過ぎない。各種機能部、各種処理部、各種データベースの配置形態は、これらの装置が備えるハードウェアやソフトウェアの性能、処理効率、通信効率等の観点から最適な配置形態に変更し得る。 Moreover, the arrangement form of various functional units, various processing units, and various databases of each information processing apparatus described above is merely an example. The arrangement form of various functional units, various processing units, and various databases can be changed to an optimum arrangement form from the viewpoint of the performance, processing efficiency, communication efficiency, etc. of hardware and software provided in these devices.

また、前述した各種のデータを格納するデータベースの構成(スキーマ(Schema)等)は、リソースの効率的な利用、処理効率向上、アクセス効率向上、検索効率向上等の観点から柔軟に変更し得る。 Also, the configuration of the database (schema, etc.) that stores the various data described above can be flexibly changed from the viewpoints of efficient use of resources, improvement of processing efficiency, improvement of access efficiency, improvement of search efficiency, and the like.

1 文書情報抽出システム、110 記憶部、111 文書、112 初期辞書、113
単語/関連語辞書、114 単語/関連語、115 文書抽出情報、120 特徴量情報、121 特徴量評価テーブル、122 特徴量頻度テーブル、123 特徴量類似度テーブル、124 特徴量共起度テーブル、125 特徴量抽出元情報テーブル、131
表示優先度算出テーブル、132 特徴量表示優先度テーブル、140 パラメータ設定画面情報、141 文字飾り定義テーブル、142 マッピング対象特徴量テーブル、143 特徴量評価設定情報テーブル、144 特徴量抽出状況表示テーブル、152 パラメータ更新情報、155 現状パラメータ、160 文書管理部、161 辞書管理部、170 文書情報抽出部、171 単語/関連語抽出部、172 文書情報提示部、180 パラメータ設定部、181 特徴量情報生成部、182 特徴量表示優先度設定部、183 パラメータ設定画面生成部、184 パラメータ設定受付部、185 パラメータ更新部、1000 パラメータ設定画面、1100 更新前後対比画面、S1700 特徴量評価設定情報テーブル生成処理、S1800 特徴量抽出状況表示テーブル生成処理
1 document information extraction system, 110 storage unit, 111 document, 112 initial dictionary, 113
word/related word dictionary, 114 word/related word, 115 document extraction information, 120 feature amount information, 121 feature amount evaluation table, 122 feature amount frequency table, 123 feature amount similarity table, 124 feature amount co-occurrence table, 125 feature quantity extraction source information table 131
display priority calculation table 132 feature amount display priority table 140 parameter setting screen information 141 character decoration definition table 142 mapping target feature amount table 143 feature amount evaluation setting information table 144 feature amount extraction status display table 152 parameter update information, 155 current parameter, 160 document management unit, 161 dictionary management unit, 170 document information extraction unit, 171 word/related word extraction unit, 172 document information presentation unit, 180 parameter setting unit, 181 feature amount information generation unit, 182 Feature value display priority setting unit 183 Parameter setting screen generation unit 184 Parameter setting reception unit 185 Parameter update unit 1000 Parameter setting screen 1100 Before/after update comparison screen S1700 Feature value evaluation setting information table generation process S1800 Features Amount extraction status display table generation processing

Claims (15)

情報処理装置を用いて構成され、
文書群を管理する文書管理部と、
機械学習のモデルを用いて前記文書群の文書から情報を抽出する文書情報抽出部と、
前記モデルのパラメータを構成する複数の特徴量と、前記特徴量の夫々について前記情報を抽出する際の作用の特性を示す情報である作用種別と、を記憶する記憶部と、
前記複数の特徴量のうち評価の対象とする特徴量である評価対象特徴量と、前記評価対象特徴量の抽出元の1つ以上の文章と、前記評価対象特徴量に現在設定されている重みと、を表示しつつ、前記評価対象特徴量の前記作用種別または前記重みの設定を受け付けるパラメータ設定受付部と、
受け付けた前記作用種別または前記重みに基づき前記パラメータを更新するパラメータ更新部と、
を備える、文書情報抽出システム。
configured using an information processing device,
a document management unit that manages a group of documents;
a document information extraction unit that extracts information from the documents of the document group using a machine learning model;
a storage unit that stores a plurality of feature amounts that constitute the parameters of the model, and action types that are information indicating characteristics of actions when the information is extracted for each of the feature amounts;
An evaluation target feature quantity which is a feature quantity to be evaluated among the plurality of feature quantities, one or more sentences from which the evaluation target feature quantity is extracted, and a weight currently set for the evaluation target feature quantity. and a parameter setting reception unit that receives the setting of the action type or the weight of the evaluation target feature quantity while displaying;
a parameter updating unit that updates the parameter based on the received action type or weight;
A document information extraction system.
請求項1に記載の文書情報抽出システムであって、
前記作用種別は、前記特徴量が前記文書群から抽出すべき情報を抽出するように作用することを示す正性、前記特徴量が前記文書群から抽出すべきでない情報を抽出しないように作用することを示す負性、前記特徴量の作用が前記正性および前記負性のいずれにも該当しない中性、のうちの少なくともいずれかを含む、
文書情報抽出システム。
The document information extraction system according to claim 1,
The action type is positive, which indicates that the feature quantity works to extract information that should be extracted from the document group, and that the feature quantity does not extract information that should not be extracted from the document group. including at least one of the negative indicating that the action of the feature amount is neither the positive nor the negative,
Document information extraction system.
請求項1に記載の文書情報抽出システムであって、
前記パラメータ設定受付部は、表示する前記文章の前記評価対象特徴量の部分を強調表示する、
文書情報抽出システム。
The document information extraction system according to claim 1,
The parameter setting reception unit highlights a portion of the text to be displayed that is the evaluation target feature amount.
Document information extraction system.
請求項3に記載の文書情報抽出システムであって、
前記パラメータ設定受付部は、表示する前記文章における前記評価対象特徴量の部分を、前記評価対象特徴量の前記作用種別ごとに区別して強調表示する、
文書情報抽出システム。
The document information extraction system according to claim 3,
The parameter setting reception unit highlights the portion of the evaluation target feature amount in the displayed sentence, distinguishing it by the action type of the evaluation target feature amount.
Document information extraction system.
請求項4に記載の文書情報抽出システムであって、
前記パラメータ設定受付部は、表示する前記文章における前記評価対象特徴量の部分を、前記評価対象特徴量の前記作用種別ごとに異なる文字飾りもしくは異なる色を付すことにより区別して強調表示する、
文書情報抽出システム。
The document information extraction system according to claim 4,
The parameter setting reception unit distinguishes and emphasizes the part of the evaluation target feature quantity in the text to be displayed by attaching a different character decoration or a different color for each action type of the evaluation target feature quantity,
Document information extraction system.
請求項1に記載の文書情報抽出システムであって、
前記パラメータ設定受付部は、前記評価対象特徴量により前記文書から抽出した情報の抽出に作用した他の特徴量を更に表示する、
文書情報抽出システム。
The document information extraction system according to claim 1,
The parameter setting reception unit further displays other feature amounts that affect the extraction of the information extracted from the document by the evaluation target feature amount.
Document information extraction system.
請求項1に記載の文書情報抽出システムであって、
前記パラメータ設定受付部は、前記評価対象特徴量により前記文書から抽出した情報を更に表示する、
文書情報抽出システム。
The document information extraction system according to claim 1,
The parameter setting reception unit further displays information extracted from the document based on the evaluation target feature amount.
Document information extraction system.
請求項1に記載の文書情報抽出システムであって、
前記評価対象特徴量の夫々について、前記文書群における前記評価対象特徴量と前記作
用種別が共通する他の前記特徴量との類似度、前記文書群における前記他の特徴量との共起度、前記評価対象特徴量に現在設定されている重み、および前記評価対象特徴量の前記文書群における出現頻度、のうちの少なくともいずれかに基づき前記評価対象特徴量を表示する優先度である特徴量表示優先度を求める特徴量表示優先度設定部と、
前記特徴量表示優先度に従って前記評価対象特徴量を表示しつつ前記評価対象特徴量の前記作用種別または前記重みの設定を受け付けるパラメータ設定受付部と、
を更に備える、文書情報抽出システム。
The document information extraction system according to claim 1,
For each of the evaluation target feature quantities, the degree of similarity between the evaluation target feature quantity in the document group and the other feature quantity having the action type in common, the degree of co-occurrence with the other feature quantity in the document group, feature quantity display, which is a priority for displaying the evaluation target feature quantity based on at least one of a weight currently set for the evaluation target feature quantity and an appearance frequency of the evaluation target feature quantity in the document group; a feature amount display priority setting unit for obtaining priority;
a parameter setting reception unit that receives setting of the action type or the weight of the evaluation target feature quantity while displaying the evaluation target feature quantity according to the feature quantity display priority;
A document information extraction system, further comprising:
請求項8に記載の文書情報抽出システムであって、
前記作用種別は、前記特徴量が前記文書群から抽出すべき情報を抽出するように作用することを示す正性、前記特徴量が前記文書群から抽出すべきでない情報を抽出しないように作用することを示す負性、前記特徴量の作用が前記正性および前記負性のいずれにも該当しない中性、のうちの少なくともいずれかを含む、
文書情報抽出システム。
The document information extraction system according to claim 8,
The action type is positive, which indicates that the feature quantity works to extract information that should be extracted from the document group, and that the feature quantity does not extract information that should not be extracted from the document group. including at least one of the negative indicating that the action of the feature amount is neither the positive nor the negative,
Document information extraction system.
請求項9に記載の文書情報抽出システムであって、
前記特徴量表示優先度設定部は、前記正性の前記作用種別に分類されている前記評価対象特徴量について、前記文書群における、前記評価対象特徴量と作用種別が共通する他の特徴量との類似度が高く、前記他の特徴量との共起度が高く、現在設定されている重みが小さい程、前記特徴量表示優先度を高く設定する、
文書情報抽出システム。
The document information extraction system according to claim 9,
The feature amount display priority setting unit is configured to set the evaluation target feature amount classified into the positive action type with other feature amounts having the same action type as the evaluation target feature amount in the document group. The higher the similarity of, the higher the degree of co-occurrence with the other feature amount, and the smaller the currently set weight, the higher the feature amount display priority is set.
Document information extraction system.
請求項9に記載の文書情報抽出システムであって、
前記特徴量表示優先度設定部は、前記負性の前記作用種別に分類されている前記評価対象特徴量について、前記文書群における、前記評価対象特徴量と作用種別が共通する他の特徴量との類似度が高く、前記他の特徴量との共起度が高く、現在設定されている重みが大きい程、前記特徴量表示優先度を高く設定する、
文書情報抽出システム。
The document information extraction system according to claim 9,
The feature amount display priority setting unit is configured to set the evaluation target feature amount classified into the negative action type with other feature amounts having the same action type as the evaluation target feature amount in the document group. The higher the similarity of the feature, the higher the co-occurrence with the other feature, and the higher the currently set weight, the higher the feature display priority is set.
Document information extraction system.
請求項9に記載の文書情報抽出システムであって、
前記特徴量表示優先度設定部は、前記中性の前記作用種別に分類されている前記評価対象特徴量について、前記文書群における、前記評価対象特徴量と作用種別が共通する他の特徴量との類似度が高く、前記他の特徴量との共起度が高く、現在設定されている重みが大きい程、前記特徴量表示優先度を高く設定する、
文書情報抽出システム。
The document information extraction system according to claim 9,
The feature amount display priority setting unit is configured to set the evaluation target feature amount classified into the neutral action type with other feature amounts having the same action type as the evaluation target feature amount in the document group. The higher the similarity of the feature, the higher the co-occurrence with the other feature, and the higher the currently set weight, the higher the feature display priority is set.
Document information extraction system.
請求項1に記載の文書情報抽出システムであって、
前記情報は、単語または単語の関連語である、
文書情報抽出システム。
The document information extraction system according to claim 1,
the information is a word or a related word of a word,
Document information extraction system.
情報処理装置が、
文書群を管理するステップ、
機械学習のモデルを用いて前記文書群の文書から情報を抽出するステップ、
前記モデルのパラメータを構成する複数の特徴量と、前記特徴量の夫々について前記情報を抽出する際の作用の特性を示す情報である作用種別と、を記憶するステップ、
前記複数の特徴量のうち評価の対象とする特徴量である評価対象特徴量と、前記評価対象特徴量の抽出元の1つ以上の文章と、前記評価対象特徴量に現在設定されている重みと、を表示しつつ、前記評価対象特徴量の前記作用種別または前記重みの設定を受け付けるステップ、および、
受け付けた前記作用種別または前記重みに基づき前記パラメータを更新するステップ、
を実行する、文書情報抽出方法。
The information processing device
managing a collection of documents;
extracting information from the documents of the set of documents using a machine learning model;
a step of storing a plurality of feature amounts constituting parameters of the model and an effect type, which is information indicating characteristics of an effect when the information is extracted for each of the feature amounts;
An evaluation target feature quantity which is a feature quantity to be evaluated among the plurality of feature quantities, one or more sentences from which the evaluation target feature quantity is extracted, and a weight currently set for the evaluation target feature quantity. and receiving the setting of the action type or the weight of the evaluation target feature quantity while displaying;
updating the parameter based on the received action type or weight;
A document information extraction method that performs
請求項14に記載の文書情報抽出方法であって、
前記情報処理装置が、
前記評価対象特徴量の夫々について、前記文書群における前記評価対象特徴量と前記作用種別が共通する他の前記特徴量との類似度、前記文書群における前記他の特徴量との共起度、前記評価対象特徴量に現在設定されている重み、および前記評価対象特徴量の前記文書群における出現頻度、のうちの少なくともいずれかに基づき前記評価対象特徴量を表示する優先度である特徴量表示優先度を求めるステップ、および、
前記特徴量表示優先度に従って前記評価対象特徴量を表示しつつ前記評価対象特徴量の前記作用種別または前記重みの設定を受け付けるステップ、
を更に実行する、文書情報抽出方法。

The document information extraction method according to claim 14,
The information processing device
For each of the evaluation target feature quantities, the degree of similarity between the evaluation target feature quantity in the document group and the other feature quantity having the action type in common, the degree of co-occurrence with the other feature quantity in the document group, feature quantity display, which is a priority for displaying the evaluation target feature quantity based on at least one of a weight currently set for the evaluation target feature quantity and an appearance frequency of the evaluation target feature quantity in the document group; determining a priority; and
receiving the setting of the action type or the weight of the evaluation target feature quantity while displaying the evaluation target feature quantity according to the feature quantity display priority;
A method for extracting document information, further comprising:

JP2021050108A 2021-03-24 2021-03-24 Document information extraction system and document information extraction method Pending JP2022148430A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021050108A JP2022148430A (en) 2021-03-24 2021-03-24 Document information extraction system and document information extraction method
PCT/JP2021/029973 WO2022201578A1 (en) 2021-03-24 2021-08-17 Document information extraction system and document information extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021050108A JP2022148430A (en) 2021-03-24 2021-03-24 Document information extraction system and document information extraction method

Publications (1)

Publication Number Publication Date
JP2022148430A true JP2022148430A (en) 2022-10-06

Family

ID=83396663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021050108A Pending JP2022148430A (en) 2021-03-24 2021-03-24 Document information extraction system and document information extraction method

Country Status (2)

Country Link
JP (1) JP2022148430A (en)
WO (1) WO2022201578A1 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7189068B2 (en) * 2019-04-05 2022-12-13 株式会社日立製作所 MODEL CREATED SUPPORT METHOD AND MODEL CREATED SUPPORT SYSTEM

Also Published As

Publication number Publication date
WO2022201578A1 (en) 2022-09-29

Similar Documents

Publication Publication Date Title
Neal et al. Surveying stylometry techniques and applications
US10713571B2 (en) Displaying quality of question being asked a question answering system
US9483460B2 (en) Automated formation of specialized dictionaries
CN107038158B (en) Method and apparatus for creating translation corpus, recording medium, and machine translation system
Kirsner et al. Record-based word recognition
US20100082333A1 (en) Lemmatizing, stemming, and query expansion method and system
US10176889B2 (en) Segmenting and interpreting a document, and relocating document fragments to corresponding sections
JP2021518027A (en) A computer-readable storage medium that stores methods, devices, and instructions for matching semantic text data with tags.
US20210209500A1 (en) Building a complementary model for aggregating topics from textual content
US10180935B2 (en) Identifying multiple languages in a content item
Rizvi et al. Optical character recognition system for Nastalique Urdu-like script languages using supervised learning
CN111753082A (en) Text classification method and device based on comment data, equipment and medium
JP2019121139A (en) Summarizing device, summarizing method, and summarizing program
Nasim et al. Cluster analysis of urdu tweets
Scharkow Content analysis, automatic
Liu et al. Extract Product Features in Chinese Web for Opinion Mining.
JPWO2016067396A1 (en) Sentence sorting method and calculator
WO2022201578A1 (en) Document information extraction system and document information extraction method
US11610062B2 (en) Label assignment model generation device and label assignment model generation method
CN115066679B (en) Method and system for extracting self-made terms in professional field
JP2022050011A (en) Information processing device and program
EP4339829A1 (en) Synonym determination system and synonym determination method
US20210406472A1 (en) Named-entity classification apparatus and named-entity classification method
WO2022215433A1 (en) Information representation structure analysis device, and information representation structure analysis method
Ashish et al. Machine reading of biomedical data dictionaries

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230606