JP7281905B2 - Document evaluation device, document evaluation method and program - Google Patents

Document evaluation device, document evaluation method and program Download PDF

Info

Publication number
JP7281905B2
JP7281905B2 JP2019004614A JP2019004614A JP7281905B2 JP 7281905 B2 JP7281905 B2 JP 7281905B2 JP 2019004614 A JP2019004614 A JP 2019004614A JP 2019004614 A JP2019004614 A JP 2019004614A JP 7281905 B2 JP7281905 B2 JP 7281905B2
Authority
JP
Japan
Prior art keywords
answer
grading
relationship
ternary
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019004614A
Other languages
Japanese (ja)
Other versions
JP2020113129A (en
Inventor
利昇 三好
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Benesse Corp
Original Assignee
Benesse Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Benesse Corp filed Critical Benesse Corp
Priority to JP2019004614A priority Critical patent/JP7281905B2/en
Publication of JP2020113129A publication Critical patent/JP2020113129A/en
Application granted granted Critical
Publication of JP7281905B2 publication Critical patent/JP7281905B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、文書評価装置及び文書評価方法に関する。 The present invention relates to a document evaluation device and a document evaluation method.

本技術分野の背景技術として、記述式問題の採点補助と、採点効率化及び自動採点技術が知られている。たとえば、特許文献1には、「コンピュータを用いて、最初に受験者の解答文を文法の規則に従って2つの階層に分類する。次に、第一層を基本文型として文の構成の完成度を検証する。次に第一層と第二層が有効的に連結しているかを検証する。最後に必須の語句の数と制限文字数の条件を採点し、基本文型と補助語を加えた4項目の点数を合計して得点を自動的に計算する。」文章自動採点システムが記載されている。 As background art in this technical field, techniques for assisting scoring of descriptive questions, improving scoring efficiency, and auto-scoring techniques are known. For example, in Patent Document 1, "Using a computer, first classify the test taker's answer sentences into two layers according to grammatical rules. Next, verify whether the first layer and the second layer are effectively connected.Finally, the number of required words and phrases and the condition of the limited number of characters are scored, and there are 4 items including basic sentence patterns and auxiliary words. automatically calculate the score by summing the scores of the sentences.” An automatic sentence scoring system is described.

特開2017-129830号公報JP 2017-129830 A

記述式問題の採点においては、問題ごとに様々な採点の基準があり、その採点基準に沿った採点を行う必要がある。自動採点において、採点基準ごとに、採点済み解答文データを教師データとして準備しておき、機械学習を用いて自動採点装置を構築する方法が考えられる。しかし、個別の採点基準ごとに、教師データを準備するのは、多くのコストがかかる、という問題があった。 In grading descriptive questions, there are various grading standards for each question, and grading must be performed according to the grading standards. In automatic grading, a method of preparing graded answer text data as teacher data for each grading standard and constructing an automatic grading device using machine learning is conceivable. However, there is a problem that preparing training data for each individual scoring standard requires a lot of cost.

また、採点基準ごとに、構文解析結果などの文法に基づく採点ルールを生成し、自動採点を行うルールベースの方法が考えられる。しかし、構文解析結果等に基づくルール生成では、構文解析結果等に関する専門知識が必要となる場合があり、ルールの数が膨大かつ、複雑となる場合がある、など、ルールの生成やメンテナンスが難しくなる、という問題があった。 In addition, a rule-based method is conceivable in which scoring rules are generated based on grammar such as parsing results for each scoring criterion, and automatic scoring is performed. However, rule generation based on parsing results may require expert knowledge of parsing results. There was a problem.

さらに、記述式解答文には、同じ問題に対する解答文であっても、様々な内容のものがあり、自動採点が難しいものがある。自動採点が難しいものは人手で採点するなど、人手での採点と自動採点で効率よく採点を分担するために、自動採点結果だけではなく、その信頼性を判定する必要がある、という問題があった。 Furthermore, even if the answers to the same question are written answers, there are various answers, and automatic grading is difficult. In order to efficiently divide the scoring between manual and automatic scoring, such as manually scoring things that are difficult to automatically score, there is a problem that it is necessary to judge not only the automatic scoring results but also their reliability. rice field.

そこで本発明は、上記問題点に鑑みてなされたもので、採点パタンに基づいた自動採点と、自動採点の信頼性を判定することを目的とする。 SUMMARY OF THE INVENTION Accordingly, the present invention has been made in view of the above problems, and an object of the present invention is to determine the reliability of automatic scoring based on a scoring pattern and automatic scoring.

本発明は、メモリに記憶されたプログラムを実行するプロセッサと、前記プロセッサがプログラムの実行時に使用するデータを格納するメモリを有する計算機で構成される文書評価装置であって、前記プロセッサは、前記プログラムの実行によって以下の機能部として機能するものであって、前記文書評価装置は、入力された採点パタン生成用の解答文から形態素と係り受け関係を解析する構文解析部と、前記解答文から3項関係を抽出する情報抽出部と、3項関係と、構文解析結果と、3項関係の付加情報である時制、モダリティ、及び日時との関係を教師データとして学習した機械学習モデルを用いて、前記構文解析部の解析結果と、前記情報抽出部が抽出した3項関係から当該3項関係の付加情報を推定する情報表現型推定部と、構文解析結果と3項関係の相互の関係との関係を教師データとして学習した機械学習モデルを用いて、前記構文解析部の解析結果から前記情報抽出部が抽出した3項関係の相互の関係を推定する情報間関係推定部と、前記解答文を階層的なクラスタに分類する階層クラスタリング部と、前記クラスタの大きさに基づいて、前記クラスタをソートするクラスタソート部と、読み込んだ採点結果に適合する採点条件を採点パタンとして選択する採点パタン生成部と、を有し、前記階層クラスタリング部は、前記解答文における語句の出現比率と当該語句の重要度を乗じた値を含む特徴行列の類似度によって、前記解答文を階層的なクラスタに分類し、前記採点パタン生成部は、単語または語句間の上位下位関係が予め記録された意味カテゴリ辞書を用いて、前記3項関係の各項に含まれる単語または語句を上位概念に置換して、抽象化し、前記情報抽出部が抽出した3項関係と、前記3項関係の各項の抽象化の程度と、前記情報表現型推定部が解析した前記3項関係の付加情報と、前記情報間関係推定部が推定した前記3項関係の相互の関係を組み合わせた条件のうち、採点結果の一致度が高い条件の解答文を採点パタンとして選択し、前記クラスタソート部のソート結果に基づいて、所定の閾値以上の解答文を含むクラスタを多数派解答文と判定し、前記閾値未満の解答文を含むクラスタを少数派解答文と判定し、前記多数派解答文から生成した採点パタンの信頼度を高く設定し、前記少数派解答文から生成した採点パタンの信頼度を低く設定する。 The present invention is a document evaluation apparatus comprising a processor for executing a program stored in a memory and a computer having a memory for storing data used by the processor when executing the program, wherein the processor is configured to execute the program The document evaluation device functions as the following functional units by executing , and the text evaluation device includes a syntactic analysis unit that analyzes morphemes and dependency relationships from the input answer sentence for generating a scoring pattern, and a syntax analysis unit that analyzes 3 an information extraction unit that extracts a ternary relation; and a machine learning model that learns the relationship between the ternary relation, the syntactic analysis result, and additional information of the ternary relation, such as tense, modality, and date and time, as training data, an information representation type estimating unit for estimating additional information of the ternary relation from the analysis result of the syntactic analysis unit and the ternary relation extracted by the information extracting unit; and a mutual relationship between the syntactic analysis result and the ternary relation. an inter-information relation estimating unit for estimating the mutual relation of the ternary relation extracted by the information extracting unit from the analysis result of the syntactic analysis unit using a machine learning model trained using relationships as teacher data ; A hierarchical clustering unit that classifies into hierarchical clusters, a cluster sorting unit that sorts the clusters based on the size of the clusters, and a grading pattern generation unit that selects grading conditions suitable for the read grading results as grading patterns. and wherein the hierarchical clustering unit classifies the answer sentences into hierarchical clusters according to the similarity of a feature matrix including a value obtained by multiplying the appearance ratio of a word in the answer by the importance of the word. , the grading pattern generation unit replaces the words or phrases included in each term of the ternary relation with a higher concept using a semantic category dictionary in which superordinate and subordinate relations between words or phrases are recorded in advance, and abstracts them. and the ternary relation extracted by the information extracting unit, the degree of abstraction of each term of the ternary relation, the additional information of the ternary relation analyzed by the information representation type estimating unit, and the inter-information relation Among the conditions that combine the mutual relationships of the three-term relationships estimated by the estimation unit, an answer sentence with a high degree of matching of the scoring results is selected as a scoring pattern, and based on the sorting result of the cluster sorting unit, a predetermined A cluster containing an answer sentence equal to or greater than the threshold is determined as a majority answer sentence, a cluster containing an answer sentence less than the threshold is determined as a minority answer sentence, and the reliability of the scoring pattern generated from the majority answer sentence is evaluated. It is set high, and the reliability of the grading pattern generated from the minority answer is set low .

したがって、本発明は、採点基準ごとに、正答と誤答を判定する採点パタンを生成し、採点パタンに基づいた自動採点を行う方法を提供することができる。また、解答文を多数派答案と少数派答案に分類することで、自動採点が容易な解答文(多数派解答文)と自動採点が難しい解答文(少数派解答文)に分類することで、自動採点の信頼性を判定することが可能となる。 Therefore, the present invention can provide a method of generating scoring patterns for judging correct and incorrect answers for each scoring criterion and performing automatic scoring based on the scoring patterns. In addition, by classifying the answers into majority answers and minority answers, by classifying answers into easy automatic scoring (majority answers) and difficult automatic scoring (minority answers), It becomes possible to determine the reliability of automatic scoring.

本発明の実施例1を示し、文書評価装置の構成の一例を示すブロック図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows Example 1 of this invention and shows an example of a structure of a document evaluation apparatus. 本発明の実施例1を示し、文書評価装置で行われる処理の一例を示すフローチャートである。It is a flowchart which shows Example 1 of this invention and shows an example of the process performed by a document evaluation apparatus. 本発明の実施例1を示し、構文解析の一例を示す図である。It is a figure which shows Example 1 of this invention and shows an example of parsing. 本発明の実施例1を示し、構文解析結果の一例を示す図である。It is a figure which shows Example 1 of this invention and shows an example of a parsing result. 本発明の実施例1を示し、情報抽出の一例を示す図である。It is a figure which shows Example 1 of this invention and shows an example of information extraction. 本発明の実施例1を示し、情報抽出から抽象化を行った一例を示す図である。It is a figure which shows Example 1 of this invention and shows an example which abstracted from information extraction. 本発明の実施例1を示し、解答文の階層クラスタリングの結果をソートした後の一例を示す図である。FIG. 10 shows Example 1 of the present invention and shows an example after sorting the results of hierarchical clustering of answer sentences; 本発明の実施例1を示し、ソート後の解答文の一例を示す図である。It is a figure which shows Example 1 of this invention and shows an example of the answer sentence after sorting. 本発明の実施例1を示し、階層クラスタリングのソート前の例を示す図である。It is a figure which shows Example 1 of this invention and shows the example before sorting of hierarchical clustering. 本発明の実施例1を示し、ソート前の解答文の一例を示す図である。It is a figure which shows Example 1 of this invention and shows an example of the answer sentence before sorting. 本発明の実施例1を示し、解答文採点データの一例を示す図である。It is a figure which shows Example 1 of this invention and shows an example of answer text grading data. 本発明の実施例1を示し、採点条件の一例を示す図である。It is a figure which shows Example 1 of this invention and shows an example of scoring conditions. 本発明の実施例1を示し、解答文を特徴ベクトルで表現する例を示す図である。It is a figure which shows Example 1 of this invention and shows the example which expresses an answer sentence by a feature vector. 本発明の実施例1を示し、問題文テーブルの一例を示す図である。It is a figure which shows Example 1 of this invention and shows an example of a question sentence table. 本発明の実施例1を示し、解答文テーブルの一例を示す図である。It is a figure which shows Example 1 of this invention and shows an example of an answer sentence table. 本発明の実施例1を示し、解答文の採点結果テーブルの一例を示す図である。It is a figure which shows Example 1 of this invention and shows an example of the scoring result table of an answer sentence. 本発明の実施例1を示し、意味カテゴリ辞書の上位下位関係の木構造の一例を示す図である。FIG. 10 is a diagram showing Embodiment 1 of the present invention and showing an example of a tree structure of upper-lower order relationships in a semantic category dictionary; 本発明の実施例1を示し、意味カテゴリ辞書の一例を示す図である。FIG. 2 shows Example 1 of the present invention and shows an example of a semantic category dictionary; 本発明の実施例2を示し、文書評価装置で行われる処理の一例を示すフローチャートである。It is a flowchart which shows Example 2 of this invention and shows an example of the process performed by a document evaluation apparatus. 本発明の実施例4を示し、答案データ入力画面の一例を示す図である。It is a figure which shows Example 4 of this invention and shows an example of an answer data input screen. 本発明の実施例4を示し、採点済みの答案データの一例を示す図である。It is a figure which shows Example 4 of this invention and shows an example of graded answer data. 本発明の実施例4を示し、未採点の答案データの一例を示す図である。FIG. 13 is a diagram showing Example 4 of the present invention and showing an example of ungraded answer data. 本発明の実施例4を示し、採点パタン表示画面の一例を示す図である。It is a figure which shows Example 4 of this invention and shows an example of a scoring pattern display screen. 本発明の実施例4を示し、採点パタン編集画面の一例を示す図である。It is a figure which shows Example 4 of this invention and shows an example of a scoring pattern edit screen. 本発明の実施例4を示し、採点画面の一例を示す図である。It is a figure which shows Example 4 of this invention and shows an example of a scoring screen.

以下、添付図面を参照して本発明の実施形態を説明する。 Embodiments of the present invention will be described below with reference to the accompanying drawings.

マークシート式の試験と異なり、記述式試験は、人手による採点が必要となり、多くの採点者が必要になる、採点に要する日数も必要となる、などの課題がある。本実施形態の文書評価装置は、この採点を支援する。 Unlike mark sheet-type tests, written tests require manual grading, which poses problems such as the need for a large number of raters and the number of days required for grading. The document evaluation device of this embodiment supports this scoring.

以下では、英語の試験問題を例に、実施形態の説明を行うが、他言語においても、同様の方法を適用することができる。なお、実際には、大量の解答文を用いて処理を行うが、以下では、各処理の方法を簡単に説明するために、模式的に例を示している。 In the following, the embodiment will be described using English test questions as an example, but the same method can be applied to other languages as well. In practice, processing is performed using a large number of answer sentences, but an example is shown below in order to simply explain each processing method.

図1は、本実施例1の文書評価装置101の構成例を示すブロック図である。本実施例1の文書評価装置101は、例えば、入力装置102、表示装置103、通信装置104、演算装置105、メモリ106、及び補助記憶装置107を含む計算機によって構成される。 FIG. 1 is a block diagram showing a configuration example of the document evaluation apparatus 101 of the first embodiment. The document evaluation apparatus 101 of the first embodiment is composed of a computer including an input device 102, a display device 103, a communication device 104, an arithmetic device 105, a memory 106, and an auxiliary storage device 107, for example.

入力装置102は、ユーザからのコマンド等の入力を受け付ける。例えば、キーボードや、マウスや、タッチパネル等である。入力装置102は、演算装置105が実行するプログラムの制御、及び文書評価装置101に接続された機器の制御のために実行されるコマンド等の入力を受け付ける。 The input device 102 receives inputs such as commands from the user. For example, it is a keyboard, a mouse, a touch panel, or the like. The input device 102 receives inputs such as commands executed for controlling programs executed by the arithmetic device 105 and controlling devices connected to the document evaluation device 101 .

表示装置103は、ディスプレイ等で構成される。通信装置104は、例えば、所定のプロトコルに従って、文書評価装置101による処理内容を外部機器に送信したり、外部機器から情報を受信したりする。 The display device 103 is configured by a display or the like. The communication device 104, for example, according to a predetermined protocol, transmits the processing content of the document evaluation device 101 to the external device and receives information from the external device.

演算装置105は、プロセッサを含み、メモリ106に格納されたプログラムを実行する。メモリ106は、不揮発性の記憶素子であるROM及び不揮発性の記憶素子であるRAMを含む。ROMは、不変のプログラム(例えば、BIOS)などを格納する。RAMは、DRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶素子であり、演算装置105が実行するプログラム及びプログラムの実行時に使用されるデータを一時的に格納する。 Arithmetic device 105 includes a processor and executes a program stored in memory 106 . The memory 106 includes ROM, which is a nonvolatile storage element, and RAM, which is a nonvolatile storage element. The ROM stores immutable programs (eg, BIOS) and the like. RAM is a high-speed and volatile storage element such as DRAM (Dynamic Random Access Memory), and temporarily stores programs executed by the arithmetic unit 105 and data used when the programs are executed.

補助記憶装置107は、例えば、磁気記憶装置(HDD)、フラッシュメモリ(SSD)等の大容量かつ不揮発性の記憶装置であり、演算装置105が実行するプログラム及びプログラムの実行時に使用されるデータを格納する。すなわち、プログラムは、補助記憶装置107から読み出されて、メモリ106にロードされて、演算装置105によって実行される。 The auxiliary storage device 107 is, for example, a large-capacity, non-volatile storage device such as a magnetic storage device (HDD) or flash memory (SSD). Store. That is, the program is read from the auxiliary storage device 107, loaded into the memory 106, and executed by the arithmetic device 105. FIG.

演算装置105が実行するプログラムは、リムーバブルメディア(CD-ROM,フラッシュメモリなど)又はネットワークを介して文書評価装置101に提供され、非一時的記憶媒体である不揮発性の補助記憶装置107に格納される。このため、文書評価装置101は、リムーバブルメディアからデータを読み込むインタフェースを有するとよい。 The program executed by the arithmetic device 105 is provided to the document evaluation device 101 via removable media (CD-ROM, flash memory, etc.) or a network, and stored in the non-volatile auxiliary storage device 107, which is a non-temporary storage medium. be. Therefore, the document evaluation apparatus 101 preferably has an interface for reading data from removable media.

文書評価装置101は、物理的に一つの計算機上で、又は、論理的又は物理的に構成された複数の計算機上で構成される計算機システムであり、同一の計算機上で別個のスレッドで処理してもよく、複数の物理的計算機資源上に構築された仮想計算機上で処理してもよい。 The document evaluation apparatus 101 is a computer system configured on one physical computer, or on a plurality of computers configured logically or physically, and is processed by separate threads on the same computer. Alternatively, it may be processed on a virtual computer constructed on a plurality of physical computer resources.

演算装置105は、採点パタン生成処理部201、採点処理部202として機能する。例えば、演算装置105は、メモリ106にロードされた採点パタン生成処理プログラムにしたがって処理を実行することで、採点パタン生成処理部201として機能し、メモリ106にロードされた採点プログラムにしたがって処理することで、採点処理部202として機能する。演算装置105に含まれる他の部についても同様である。 The computing device 105 functions as a scoring pattern generation processing unit 201 and a scoring processing unit 202 . For example, the arithmetic unit 105 functions as the grading pattern generation processing unit 201 by executing processing according to the grading pattern generation processing program loaded into the memory 106, and performs processing according to the grading program loaded into the memory 106. , and functions as the scoring processing unit 202 . The same applies to other units included in the arithmetic unit 105 .

採点パタン生成処理部201は、解答文とその採点データを用いて、得点をつける基準となる採点パタン215を生成する。また、採点処理部202は、採点パタン生成処理部201によって生成された採点パタン215を用いて、解答文に得点をつける。 The grading pattern generation processing unit 201 generates a grading pattern 215 that serves as a criterion for scoring, using the answer text and its grading data. Also, the grading processing unit 202 uses the grading pattern 215 generated by the grading pattern generation processing unit 201 to score the answer sentence.

補助記憶装置107は、採点パタン生成用解答文203と、解答文採点データ213と、意味カテゴリ辞書214と、採点パタン215と、採点対象解答文217及び採点結果218、を保持する。 The auxiliary storage device 107 holds a grading pattern generating answer text 203 , answer text grading data 213 , a semantic category dictionary 214 , a grading pattern 215 , a grading target answer text 217 and a grading result 218 .

採点パタン生成用解答文203は、問題ごとに、解答文が記録されたデータベースで、採点パタン生成用に用いる問題文テーブル901と解答文テーブル902を含む。図9Aは問題文を格納する問題文テーブル901の一例を示す図である。問題文テーブル901は、問題ID9011と問題文9012が格納されている。 The grading pattern generation answer text 203 is a database in which an answer text is recorded for each question, and includes a question text table 901 and an answer text table 902 used for grading pattern generation. FIG. 9A is a diagram showing an example of a question sentence table 901 that stores question sentences. The question sentence table 901 stores question IDs 9011 and question sentences 9012 .

図9Bは解答文テーブル902の一例を示す図である。解答文テーブル902は、問題文を識別する問題文ID9021と、解答文を識別する解答文ID9022と、解答文9023が格納される。 FIG. 9B is a diagram showing an example of the answer sentence table 902. As shown in FIG. The answer sentence table 902 stores a question sentence ID 9021 for identifying a question sentence, an answer sentence ID 9022 for identifying an answer sentence, and an answer sentence 9023 .

解答文テーブル902の問題文ID9021と、問題文テーブル901の問題文ID9011は対応している。解答文テーブル902の2行目には、問題文IDが「1」、解答文IDが「2」の解答文が格納されている。 The question sentence ID 9021 of the answer sentence table 902 and the question sentence ID 9011 of the question sentence table 901 correspond to each other. In the second row of the answer sentence table 902, an answer sentence with a question ID of "1" and an answer sentence ID of "2" is stored.

なお、図9A、図9Bに示した問題文テーブル901、解答文テーブル902の例では、問題文、解答文、ともに1センテンスから成る例を挙げたが、問題文、解答文は複数文から構成される場合もある。本実施例1では説明を簡単にするために、1センテンスの例で説明するが、複数文の場合も同様の処理を適用する。 In the examples of the question sentence table 901 and the answer sentence table 902 shown in FIGS. 9A and 9B, both the question sentence and the answer sentence consist of one sentence, but the question sentence and the answer sentence consist of multiple sentences. Sometimes it is. In the first embodiment, an example of one sentence will be described for the sake of simplicity, but the same processing is applied to the case of multiple sentences.

解答文採点データ213には、採点パタン生成用解答文203の解答文に対する採点結果が記録されている。これは、人または計算機などにより、予め解答文に対して採点した結果である。 The answer grading data 213 records the grading results for the answer of the grading pattern generation answer 203 . This is the result of grading the answers in advance by a person or a computer.

図9Cは、採点結果テーブル903の一例を示す図である。採点結果テーブル903は、問題文ID9031と、解答文ID9032と、採点基準Aによる採点結果を格納する基準A9033と、採点基準Bによる採点結果を格納する基準A9034をひとつのレコードに含む。解答文の採点には、ひとつの基準を用いてもよいし、複数の基準を用いても良い。 FIG. 9C is a diagram showing an example of the scoring result table 903. As shown in FIG. The grading result table 903 includes a question ID 9031, an answer ID 9032, a criterion A 9033 storing the grading result according to the grading criterion A, and a criterion A 9034 storing the grading result according to the grading criterion B in one record. A single criterion or a plurality of criteria may be used for grading the answers.

図9Cには、各解答文に対して、3列目に基準A9033での採点結果、4列目に基準B9034での採点結果テーブル903が示されている。採点基準には、例えば、時制が正しく用いられている、活用形が正しく用いられている、スペルミスがない、問題文に対する答えとして意味が通っている、冠詞が正しい、などが考えられる。 FIG. 9C shows a scoring result table 903 based on the standard A 9033 in the third column and a scoring result table 903 based on the standard B 9034 in the fourth column for each answer. Scoring criteria include, for example, tenses being used correctly, conjugations being used correctly, no spelling errors, answers making sense to questions, articles being correct, and the like.

また、採点は、採点基準に沿って、数段階で採点してもよい。例えば、図9Cの基準A9033では0点と1点の2段階、基準B9034は0~2点の3段階となっている。例えば、数字が高いほうが、高得点、などとして表現する。 In addition, scoring may be performed in several stages according to the scoring criteria. For example, the reference A 9033 in FIG. 9C has two stages of 0 and 1 points, and the reference B 9034 has three stages of 0 to 2 points. For example, the higher the number, the higher the score.

図1の意味カテゴリ辞書214には、物、組織、人、地名、職業などの実体や概念を表すエンティティ間の上位下位関係が記録されている。図10Aは、意味カテゴリ辞書214の上位下位関係の木構造の一例を示す図である。図10Bは、意味カテゴリ辞書214の一例を示す図である。 In the semantic category dictionary 214 of FIG. 1, hierarchical relationships between entities representing entities and concepts such as objects, organizations, people, place names, and occupations are recorded. FIG. 10A is a diagram showing an example of a tree structure of hierarchical relationships in the semantic category dictionary 214. FIG. FIG. 10B is a diagram showing an example of the semantic category dictionary 214. As shown in FIG.

図10Aのノード1003~1001には、職業(occupation)に関係する概念について、上位下位関係を木構造で示している。これをテーブル化したものが図10Bの意味カテゴリ辞書214となる。このように、概念と、概念同士の上位下位関係をテーブルで記録しておく。 Nodes 1003 to 1001 in FIG. 10A show hierarchical relationships in a tree structure for concepts related to occupation. The semantic category dictionary 214 in FIG. 10B is obtained by tabulating this. In this way, the concepts and the hierarchical relationship between the concepts are recorded in a table.

図1の採点パタン215は、採点の基準を言語処理の観点から、パタン化し、記録したもので、これについては、後に詳しく説明する。 The grading pattern 215 in FIG. 1 is obtained by patterning and recording the grading criteria from the viewpoint of language processing, which will be described later in detail.

図1の採点対象解答文217は、採点対象となる解答文を記録したもので、形式は、図9A、図9Bと同様である。ただし、採点パタン生成用解答文203に記録されている解答文は、採点パタン215を生成する目的に用いるのに対し、採点対象解答文217は、本実施例1の文書評価装置101によって、採点される対象となる解答文を記録したものである。 The grading target answer text 217 in FIG. 1 is a record of the grading target answer text, and the format is the same as in FIGS. 9A and 9B. However, while the answer text recorded in the grading pattern generation answer text 203 is used for the purpose of generating the grading pattern 215, the grading target answer text 217 is graded by the document evaluation apparatus 101 of the first embodiment. It is a record of the answer sentences to be tested.

採点結果218は、採点対象解答文217の解答文に対する採点の結果を記録したもので、形式は、図9Cと同様である。ただし、本実施例1の文書評価装置101を用いて採点された結果である。 The grading result 218 records the grading result for the answer text of the grading target answer text 217, and has the same format as in FIG. 9C. However, these are the results of scoring using the document evaluation apparatus 101 of the first embodiment.

なお、本実施例1において、文書評価装置101が使用する情報は、データ構造に依存せず、テーブル、リストなど、どのようなデータ構造で表現されていてもよい。 In the first embodiment, the information used by the document evaluation apparatus 101 may be represented by any data structure such as a table or list without depending on the data structure.

なお、文書評価装置101は、入力装置102、表示装置103及び通信装置104のうち、入力と出力の手段を備える装置を含んでいれば良い。文書評価装置101が入力装置102を含んでいない場合、例えば、通信装置104が外部機器からコマンド等の入力を受け付ける。文書評価装置101が表示装置103を含んでいない場合、例えば、通信装置104が、文書評価装置101が生成した処理結果(表示画面の情報)を外部機器に送信する。 Note that the document evaluation apparatus 101 may include any of the input device 102, the display device 103, and the communication device 104 that have input and output means. If the document evaluation apparatus 101 does not include the input device 102, for example, the communication device 104 receives inputs such as commands from an external device. When the document evaluation device 101 does not include the display device 103, for example, the communication device 104 transmits the processing result (display screen information) generated by the document evaluation device 101 to the external device.

各処理部は、メモリ106又は補助記憶装置107を介して、他の処理部への入出力を実行してもよい。例えば、採点パタン生成処理201に含まれるモジュールAは、処理結果を別のモジュールBに渡す場合、一旦、モジュールAの処理結果をメモリ106又は補助記憶装置107に格納し、モジュールBは、メモリ106又は補助記憶装置107に格納されている当該出力結果を入力として取得してもよい。 Each processing unit may perform input/output to other processing units via the memory 106 or the auxiliary storage device 107 . For example, when the module A included in the scoring pattern generation process 201 passes the processing result to another module B, the processing result of the module A is temporarily stored in the memory 106 or the auxiliary storage device 107, and the module B stores the processing result in the memory 106. Alternatively, the output result stored in the auxiliary storage device 107 may be obtained as an input.

図2は、本実施例1における文書評価装置101が実施する処理の一例を示すフローチャートである。文書評価装置101が実行する処理は、大きく分けて、採点パタン生成処理201、及び採点処理202の2つの部分に分けられる。 FIG. 2 is a flow chart showing an example of processing performed by the document evaluation apparatus 101 according to the first embodiment. The processing executed by the document evaluation apparatus 101 is roughly divided into two parts, grading pattern generation processing 201 and grading processing 202 .

以下では、問題文が図9Aに示す問題文ID9011が「1」の問題文9012に対する採点問題を想定して説明する。複数の問題文がある場合には、問題文ごとに同様の処理をすればよい。 In the following description, it is assumed that a grading question for a question sentence 9012 whose question sentence ID 9011 is "1" shown in FIG. 9A is assumed. If there are multiple question sentences, the same process should be performed for each question sentence.

まず、採点パタン生成処理201で行われる処理の一例について説明する。基礎解析204では、構文解析205、情報抽出206により、採点パタン生成用解答文203の解答文に対して構文解析処理と、情報抽出処理を適用する。以下、構文解析205、情報抽出206の処理について説明する。 First, an example of processing performed in the scoring pattern generation processing 201 will be described. In basic analysis 204 , syntax analysis 205 and information extraction 206 apply syntax analysis processing and information extraction processing to the answer sentence of answer sentence 203 for grading pattern generation. The processing of syntax analysis 205 and information extraction 206 will be described below.

構文解析205では、採点パタン生成用解答文203に含まれる、各解答文の各文について、形態素解析と、係り受け解析などの構文解析を適用する。なお、形態素解析と、係り受け解析については公知または周知の技術を適用すれば良いので、本実施例では詳述しない。 The syntactic analysis 205 applies syntactic analysis such as morphological analysis and dependency analysis to each sentence of each answer sentence included in the answer sentence 203 for generating a marking pattern. Note that the morphological analysis and dependency analysis may be performed using known or well-known techniques, and will not be described in detail in this embodiment.

図3Aは、解答文9023が“I wanted to become a very kind nurse.”という文の場合、形態素解析、係り受け解析の結果の例を示している。図3Bは、構文解析結果301の一例を示す図である。 FIG. 3A shows an example of the results of morphological analysis and dependency analysis when the answer sentence 9023 is the sentence "I wanted to become a very kind nurse." FIG. 3B is a diagram showing an example of the syntax analysis result 301. As shown in FIG.

構文解析結果301は、解答文9023内の各形態素を識別する番号を格納するID3011と、各形態素の表層表現を格納するトークン3012と、各形態素の品詞(記号はPenn TreebankのPOSタグの定義などを参照)3013と、係り受け先のトークンのIDを指す係り受け先3014と、係り受け関係の種類を示す係り受け型3015と、各トークンの解答文9023内での文字の位置を示す位置3016と、をひとつのレコードに含む。 The syntactic analysis result 301 includes an ID 3011 that stores a number identifying each morpheme in the answer sentence 9023, a token 3012 that stores the surface expression of each morpheme, and a part of speech of each morpheme (the symbol is the POS tag definition of Penn Treebank, etc.). 3013, a dependency receiver 3014 indicating the ID of the token of the dependency receiver, a dependency type 3015 indicating the type of dependency relationship, and a position 3016 indicating the character position in the answer sentence 9023 of each token and are included in one record.

本実施例1では、係り受け型3015を、Stanford Core NLPの型定義の方法に従って例を示した。位置は、例えば、解答文9023の先頭からバイト単位でのトークンの始点、終点位置などを用いると良い。なお、“it”や“they”などの指示語については、指示語が指す実体を分析する照応解析などを行ってもよい。 In the first embodiment, an example of the dependency type 3015 is shown according to the method of type definition of Stanford Core NLP. For the position, for example, it is preferable to use the start point and end point positions of the token in units of bytes from the beginning of the answer sentence 9023 . Note that anaphora analysis, etc., may be performed to analyze the entity pointed to by the referent, such as "it" and "they".

情報抽出206では、採点パタン生成用解答文203に含まれる、各解答文9023の各文から、3項関係の情報を抽出する。 The information extraction 206 extracts the information of the ternary relation from each sentence of each answer sentence 9023 included in the answer sentence 203 for grading pattern generation.

図3Cは、情報抽出の一例を示す図である。図示の例では、情報抽出206が解答文302=“I wanted to become a very kind nurse.”から、“I”, “become”, “very kind nurse”の3つの要素から成る3項関係303を抽出している。この3項関係303は、例えば、最初の項(“I”)と最後の項(“very kind nurse”)が概念などのエンティティを表す項で、真ん中の項(“become”)がその2つのエンティティ間の関係を表す。そして、情報抽出206は、例えば、2つのエンティティと関係から成る3つの項を3項関係として抽出する。 FIG. 3C is a diagram illustrating an example of information extraction. In the illustrated example, the information extraction 206 extracts a ternary relation 303 consisting of three elements "I", "become", and "very kind nurse" from the answer sentence 302="I wanted to become a very kind nurse." are extracting. In this ternary relation 303, for example, the first term (“I”) and the last term (“very kind nurse”) are terms representing entities such as concepts, and the middle term (“become”) is Represents relationships between entities. Information extraction 206 then extracts, for example, three terms consisting of two entities and relations as a ternary relation.

また、位置303は、解答文302内での各項に対応する文頭からの文字の位置を示しており、例えば、図3Cに示すようなバイト単位の位置を用いたデータ形式で表現する。なお、各項の表現は、必ずしも、元の文内の単語で表現する必要はなく、エンティティまたは関係を表す別の記号によって表現してもよい。 A position 303 indicates the position of a character from the beginning of the sentence corresponding to each item in the answer sentence 302. For example, the position is expressed in a data format using byte-unit positions as shown in FIG. 3C. It should be noted that the expression of each term does not necessarily have to be expressed by the words in the original sentence, but may be expressed by another symbol representing the entity or relationship.

例えば、“very kind nurse”は、これを抽象化して、“medical personnel”で表現してもよい。この場合、この例文からは、(I, become, medical personnel)という情報が抽出されたことになる。なお、この3項関係303には、例えば、上記の例のように第一項目が主語、第二項目が述語、第三項目が目的語、補語、などとなるケースが多いが、2つのエンティティ間の関係を表すものであればよい。 For example, "very kind nurse" may be abstracted and expressed as "medical personnel". In this case, the information (I, become, medical personnel) is extracted from this example sentence. In this ternary relation 303, for example, as in the above example, there are many cases where the first item is the subject, the second item is the predicate, and the third item is the object and complement. Anything that expresses the relationship between

基礎解析204の情報抽出206は、例えば、解答文302内のエンティティを認識して抽出する識別器と、エンティティ間の関係を認識する識別器を、機械学習によって構築し、用いても良い。この場合には、予め、学習用の教師データを生成しておく必要がある。また、構文解析の結果を用いて、3項関係303を抽出するルールなどを生成する方法を用いることもできる。また、OpenIE などの公知または周知の技術を適用してもよい。 For the information extraction 206 of the basic analysis 204, for example, a classifier that recognizes and extracts entities in the answer text 302 and a classifier that recognizes relationships between entities may be constructed and used by machine learning. In this case, it is necessary to generate teacher data for learning in advance. Alternatively, a method of generating a rule for extracting the ternary relation 303 using the result of syntactic analysis may be used. Alternatively, a publicly known or well-known technology such as OpenIE may be applied.

また、情報抽出206では、ひとつの解答文302から複数の3項関係を抽出する場合もある。例えば、解答文302が“I wanted to become a very kind nurse when I was little.”の場合には、(I, become, very kind nurse), (I, was, little)の2つの3項関係を抽出する、などの場合がある。なお、3項関係に“it”, “ they” などの指示語が含まれる場合には、照応解析により、これらが示す実体に置換しておくとよい。 Also, in the information extraction 206, a plurality of ternary relations may be extracted from one answer sentence 302 in some cases. For example, if the answer sentence 302 is "I wanted to become a very kind nurse when I was little." There are cases such as extracting. If the ternary relation includes demonstrative terms such as "it" and "they", it is recommended to replace them with the entities indicated by them through anaphora analysis.

上記の基礎解析204の結果は、メモリ106、補助記憶装置107などに格納しておく。次に、基礎解析204の結果を用いた高次解析207について説明する。高次解析207には、情報表現型推定208と、情報間関係推定209の2つの処理を含む。 The results of the basic analysis 204 are stored in the memory 106, the auxiliary storage device 107, or the like. Next, high-order analysis 207 using the results of basic analysis 204 will be described. The high-order analysis 207 includes two processes of information phenotype estimation 208 and information relationship estimation 209 .

情報表現型推定208では、構文解析205と情報抽出206の結果を用いて、情報抽出206で抽出された3項関係303の時制と、モダリティ、日時などの表現型(3項関係に対する付加情報)を解析する。 In information phenotype estimation 208, the results of syntactic analysis 205 and information extraction 206 are used to determine the tense of the ternary relation 303 extracted in information extraction 206 and the phenotype (additional information for the ternary relation) such as modality and date/time. to parse

図4は、情報抽出から抽象化の一例を示す図である。図示の例では、解答文401から情報抽出206によって抽出された3項関係(情報抽出結果402)と、さらに高次解析207の情報表現型推定208で情報表現型推定結果403(付加情報)として時制を解析した例を示している。なお、図中情報抽出206で抽出する3項関係(情報抽出結果402)の箇所を太字で示した。 FIG. 4 is a diagram showing an example of abstraction from information extraction. In the illustrated example, the ternary relation (information extraction result 402) extracted from the answer sentence 401 by the information extraction 206, and the information phenotype estimation result 403 (additional information) by the information phenotype estimation 208 of the higher-level analysis 207. An example of analyzing the tense is shown. Note that the three-term relationship (information extraction result 402) extracted by the information extraction 206 in the figure is shown in bold.

次に、図3Aの構文解析結果301を参照すると、3項関係の2項目(述語などエンティティ間の関係を示す箇所)の“become”が“wanted”を係り受け型“xcomp”で修飾していて、“wanted”は図3Aより品詞が過去形を現すVBDであることが特定される。 Next, referring to the parsing result 301 of FIG. 3A, the two items of the ternary relation (the part indicating the relation between entities such as predicate) "become" modifies "wanted" with the dependency type "xcomp". Therefore, "wanted" is identified as a VBD whose part of speech expresses the past tense from FIG. 3A.

これより、(I, become, very kind nurse)という3項関係(図3の303)が、過去形で表現されているということが特定される。このように、高次解析207の情報表現型推定208では構文解析結果301を用いることにより、情報抽出206で抽出された3項関係(303)の時制、モダリティ、日時などを推定することができる。この推定方法は、3項関係と品詞、係り受け関係、係り受け型などに基づくルールとして、または、機械学習により、予め定めておく。 From this, it is specified that the ternary relation (I, become, very kind nurse) (303 in FIG. 3) is expressed in the past tense. In this way, by using the syntactic analysis result 301 in the information phenotype estimation 208 of the high-level analysis 207, it is possible to estimate the tense, modality, date and time, etc. of the ternary relation (303) extracted in the information extraction 206. . This estimation method is determined in advance as a rule based on a ternary relation and a part of speech, a dependency relation, a dependency type, or the like, or by machine learning.

このような3項関係に対する付加情報の別の例として、例えば、“I went to the park with him”であれば、3項関係(I, went to, the park)が抽出され、構文解析により、3項関係が“with him”という条件で行われた、などの情報を解析することができる。また、“I went to the park yesterday”などであれば、(I, went to, the park)が“yesterday”の出来事であることを解析することができる。 As another example of additional information for such a ternary relation, for example, if it is "I went to the park with him", the ternary relation (I, went to, the park) is extracted and parsed as follows: It is possible to analyze information such as whether the ternary relation was performed under the condition of "with him". Also, if it is "I went to the park yesterday", it can be analyzed that (I, went to, the park) is an event of "yesterday".

以上のように、高次解析207の情報表現型推定208では3項関係と品詞、係り受け関係、係り受け型に基づいて、必要な付加情報を推定するルールや、機械学習方法などを予め設定しておく。 As described above, in the information phenotype estimation 208 of the high-level analysis 207, rules for estimating necessary additional information and machine learning methods are set in advance based on the ternary relation, part of speech, dependency relation, and dependency type. Keep

次に、高次解析207の情報間関係推定209では、情報抽出206で抽出した3項関係の相互の関係を推定する。例えば、“I wanted to become a very kind nurse when I was little.”で、2つの3項関係(I, become, very kind nurse)と(I, was, little)が抽出されたとする。このとき、構文解析の結果より、2つの3項関係がwhenで結ばれていることが特定される。このような3項関係間の関係を構文解析結果に基づくルールや機械学習により、予め定めておく。 Next, in inter-information relationship estimation 209 of high-order analysis 207, mutual relationships among the three-term relationships extracted in information extraction 206 are estimated. For example, assume that two ternary relations (I, become, very kind nurse) and (I, was, little) are extracted from "I wanted to become a very kind nurse when I was little." At this time, it is specified from the syntactic analysis result that the two ternary relations are connected by when. Relations between such ternary relations are determined in advance by rules based on syntactic analysis results or by machine learning.

情報表現型推定208で推定された情報表現型推定結果により、解答文302(I, become, very kind nurse)は過去形で表現されていることが判定され、情報間関係推定209は、その時が(I, was, little)であることを推定する。以上の例のように、情報間関係推定209では、3項関係の間の予め定義された関係をルールや機械学習などに基づいて推定する。これらの基礎解析204、高次解析207の結果は、採点パタン生成212で用いられる。 Based on the information phenotype estimation result estimated in the information phenotype estimation 208, it is determined that the answer 302 (I, become, very kind nurse) is expressed in the past tense, and the inter-information relationship estimation 209 determines that the time is Assume that (I, was, little). As in the above example, the inter-information relationship estimation 209 estimates a predefined relationship between ternary relationships based on rules, machine learning, or the like. The results of these basic analysis 204 and high-order analysis 207 are used in scoring pattern generation 212 .

次に、階層クラスタリング210について説明する。ここでは、解答文の意味や文法的特徴など、解答文の特徴に基づいて、解答を階層的に分類する。そのために、まず、採点パタン生成用解答文203の各解答文を特徴ベクトルとして表現する。 Next, hierarchical clustering 210 will be described. Here, the answers are hierarchically classified based on the characteristics of the answer sentences, such as the meaning and grammatical characteristics of the answer sentences. For this purpose, first, each answer sentence of the answer sentences for grading pattern generation 203 is expressed as a feature vector.

特徴ベクトルを利用するための方法として、例えば、TF-IDFを用いることができる。図8は、解答文を特徴ベクトルで表現する例を示す図である。まず、階層クラスタリング210は、採点パタン生成用解答文203の解答文全体から、単語やフレーズなどの語句を抽出する。 For example, TF-IDF can be used as a method for using feature vectors. FIG. 8 is a diagram showing an example of expressing an answer using a feature vector. First, the hierarchical clustering 210 extracts phrases such as words and phrases from the entire answer sentences of the scoring pattern generation answer sentences 203 .

ここで、階層クラスタリング210では、“a”,“the”など、頻出する単語や語句で、解答文を特徴づけるために有用でないものについては、予めリストを生成しておき、処理の対象から削除する。次に、階層クラスタリング210は、処理の対象の解答文の中で、各々の単語や語句が占める割合を計算し、図8に示すように頻度行列801として算出する。 Here, in the hierarchical clustering 210, frequently appearing words and phrases such as "a" and "the" that are not useful for characterizing the answer sentence are generated in advance and deleted from the target of processing. do. Next, the hierarchical clustering 210 calculates the ratio of each word or phrase in the answer sentences to be processed, and calculates a frequency matrix 801 as shown in FIG.

頻度行列801は、解答文毎に出現比率を格納するフィールドと、語句重要度802のフィールドをひとつのエントリに含み、各エントリは各解答文から抽出した語句(または単語l)を示す。例えば、頻度行列801の1列目は、解答文1に、語句2、語句3が0.2の割合で、語句5が0.6の割合で出現することを示している。 The frequency matrix 801 includes a field for storing the appearance ratio for each answer sentence and a field for word importance 802 in one entry, and each entry indicates a word/phrase (or word l) extracted from each answer sentence. For example, the first column of the frequency matrix 801 indicates that in the answer sentence 1, the words 2 and 3 appear at a rate of 0.2, and the word 5 appears at a rate of 0.6.

さらに、階層クラスタリング210は、各々の語句重要度を計算し、語句重要度802に格納する。図示の例では、出現頻度が小さい語句ほど、解答文を特徴づける重要度が高いとみなし、(全解答文の数)/(当該語句が出現する解答文の数)の対数で表現している。 In addition, hierarchical clustering 210 computes and stores each term importance in term importance 802 . In the illustrated example, a word with a lower appearance frequency is considered to have a higher degree of importance in characterizing the answer sentence, and is expressed as a logarithm of (number of all answer sentences)/(number of answer sentences in which the word/phrase appears). .

例えば、図示の頻度行列801で全解答文の数を5とすると、語句1は、解答文2と解答文4の2つの解答文に出現しているため、語句重要度802はlog(5/2)となる。また、別の方法の例として、問題文に対する解答文として、解答文302のように、職業を示す単語や語句が現われやすい、などが予め分かっている場合には、職業を示す単語や語句の重要度を大きくする、などの方法をとってもよい。これにより、解答文を問題文に対する内容に基づいて特徴づけることができる。 For example, if the number of all answer sentences in the illustrated frequency matrix 801 is 5, word 1 appears in two answer sentences, answer sentence 2 and answer sentence 4, so the word importance 802 is log(5/ 2). As an example of another method, when it is known in advance that words and phrases indicating occupations are likely to appear in answers to question sentences, as in answer sentences 302, the words and phrases indicating occupations can be used. A method such as increasing the importance may be adopted. As a result, the answer text can be characterized based on the contents of the question text.

次に、階層クラスタリング210は、頻度行列801の各列に、対応する語句重要度802を掛けることで、図示のような特徴行列803を生成する。特徴行列803の各列が、解答文1~解答文5を特徴づける特徴ベクトルとなる。例えば、特徴行列803の第一列には、解答文1の特徴ベクトルが示されている。 Hierarchical clustering 210 then multiplies each column of frequency matrix 801 by the corresponding term importance 802 to produce feature matrix 803 as shown. Each column of feature matrix 803 is a feature vector that characterizes answer sentences 1-5. For example, the first column of feature matrix 803 indicates the feature vector of answer sentence 1 .

階層クラスタリング210は、特徴行列803の特徴ベクトルに基づいて、階層的な類型化(クラスタリング)を行う、階層的なクラスタリングには、公知または周知の技術を適用すればよい。階層クラスタリング210は、上記の処理によって、解答文を特徴ベクトルに基づく類似性に基づいて、階層的にクラスタリングすることができる。 Hierarchical clustering 210 performs hierarchical categorization (clustering) based on the feature vectors of the feature matrix 803. For hierarchical clustering, a publicly known or well-known technique may be applied. Hierarchical clustering 210 can hierarchically cluster the answer sentences based on the similarity based on the feature vector by the above process.

次に、図2に示すクラスタソート211では、階層クラスタリング210により類型化された解答文について、各クラスタに所属する解答文数に基づいて、クラスタをソートする。 Next, in cluster sorting 211 shown in FIG. 2, the clusters are sorted based on the number of answer sentences belonging to each cluster for the answer sentences categorized by the hierarchical clustering 210 .

図5Aは、クラスタソートの出力の一例を示す図である。図5Aでは、図6AのクラスタC1~C10に対するクラスタソート211の出力構造の例を示す。なお、実際には、大量の解答文群を用いるが、ここでは処理の内容を簡単に説明するために、少数の解答文群で模式的に例示している。 FIG. 5A is a diagram showing an example of the output of cluster sorting. FIG. 5A shows an example of the output structure of cluster sort 211 for clusters C1-C10 of FIG. 6A. Although a large number of answer sentence groups are used in practice, a small number of answer sentence groups are schematically illustrated here in order to simply explain the content of the processing.

図5Aでは、解答文群501の階層構造を木構造で示しており、左の枝から右の枝に向かって、クラスタが細分化される。末端のクラスタに所属する解答文を点線の矩形で囲っている。図5Aでは、説明のため、末端のクラスタにC1~C10の識別子が付与されている。また、その上位クラスタについても、例えば、クラスタC2とクラスタC3を合わせた上位階層のクラスタには、C23という識別子が付与されている。 FIG. 5A shows the hierarchical structure of the answer sentence group 501 in a tree structure, and clusters are subdivided from the left branch to the right branch. The answer sentences belonging to the terminal clusters are surrounded by dotted-line rectangles. In FIG. 5A, the terminal clusters are given identifiers C1 to C10 for the sake of explanation. As for the upper clusters, for example, an identifier of C23 is assigned to a cluster in the upper hierarchy combining the clusters C2 and C3.

図5Aの上側のクラスタは、所属する解答文の数が多く、下側のクラスタほど解答文の数が少ない傾向となるように、ソートされている。図5Aの例では、クラスタC1~C2は解答文を3個含み、クラスタC3~C6は解答文を2個含み、クラスタC7~C10は解答文を1個含んでいる。 Clusters on the upper side of FIG. 5A are sorted so that the number of answer sentences belonging to them tends to be large, and the number of answer sentences tends to be smaller for clusters on the lower side. In the example of FIG. 5A, clusters C1-C2 contain three answer sentences, clusters C3-C6 contain two answer sentences, and clusters C7-C10 contain one answer sentence.

なお、階層構造によっては、必ずしも上側(クラスタCXのXの値が小さい側)にあるクラスタが下側(クラスタCXのXの値が大きい側)にあるクラスタより大きいとは限らない。ソート方法の例については、後に説明する。 Depending on the hierarchical structure, the cluster on the upper side (on the side where the X value of cluster CX is small) is not necessarily larger than the cluster on the lower side (on the side where the value of X of cluster CX is large). Examples of sorting methods are described later.

このようなソートを行うことによって、多数派クラスタ(例えば、C1~C7)には、多数派の解答が多くなり、少数派クラスタ(例えば、C8~C10)には、少数派や、個性的な解答が多くなる。なお、多数派クラスタと、少数派クラスタを区別する場合には、その判定は、クラスタに含まれる要素(解答文)の数に基づく所定の規則によって定める良い。例えば、多数派クラスタ内に所定の閾値以上の割合の解答文数が含まれるように、上側のクラスタから順に多数派クラスタと定める。例えば、閾値が15/18の場合には、クラスタC1~C10に所属する全解答文数18に対して、クラスタC1~C7までで解答文数15となり、閾値以上となるため、クラスタC1~C7が多数派クラスタ、クラスタC8~C10が少数派クラスタとなる。答案を多数派答案と少数派答案に分類する場合には、各答案が多数派クラスタに所属するか、少数派クラスタに所属するか、によって、判定する。 By performing such sorting, majority clusters (for example, C1 to C7) have many majority answers, and minority clusters (for example, C8 to C10) have minority answers and individual answers. more answers. When distinguishing between a majority cluster and a minority cluster, the determination may be determined by a predetermined rule based on the number of elements (answer sentences) included in the cluster. For example, the majority cluster is determined in order from the upper cluster so that the number of answer sentences at a ratio equal to or greater than a predetermined threshold is included in the majority cluster. For example, when the threshold is 15/18, the total number of answer sentences belonging to clusters C1 to C10 is 18, and the number of answer sentences in clusters C1 to C7 is 15, which is greater than or equal to the threshold. is the majority cluster, and clusters C8 to C10 are the minority clusters. When classifying answers into majority answers and minority answers, each answer is judged by whether it belongs to the majority cluster or the minority cluster.

上側(多数派の解答)のクラスタのほうが、パタン化しやすく、採点パタンを生成しやすい。そのため、多数派の解答のクラスタに所属する解答文に対する自動採点の信頼度は高く、自動採点が容易となる傾向がある。一方で、下側(少数派の解答)のクラスタはパタン化しにくい個性的な解答が多く、自動採点の信頼度は低い。また、下側のクラスタには、個性的な解答のほかに、スペル誤りや文法誤りを含む解答などが表れる頻度が大きい。 The upper (majority answer) cluster is easier to pattern and generate scoring patterns. Therefore, the reliability of automatic scoring for answer sentences belonging to the majority answer cluster is high, and automatic scoring tends to be easy. On the other hand, the lower cluster (minority answers) has many unique answers that are difficult to pattern, and the reliability of automatic scoring is low. In addition, in the lower cluster, in addition to unique answers, answers with spelling errors and grammatical errors frequently appear.

上記のようなソートを行うことにより、上側のクラスタから採点パタンを抽出できる、多数派解答と個性的解答を分けられる、自動採点の信頼度を推定できる、などの効果がある。信頼度は、上側(多数派の解答)のクラスタに所属する解答文のほうが、下側(少数派の解答)のクラスタに所属する解答文より、大きくなるように設定する。 By performing the sorting as described above, it is possible to extract scoring patterns from the upper cluster, separate majority answers from unique answers, and estimate the reliability of automatic scoring. The reliability is set so that the answer text belonging to the upper (majority answer) cluster is larger than the answer text belonging to the lower (minority answer) cluster.

例えば、ある解答文の信頼度は、その解答文が所属するクラスタよりも下側のクラスタに所属する解答文数の割合により定めてもよい。クラスタソート211では、例えば、図5のクラスタC3に所属する解答文の信頼度は、C3よりも下側のクラスタ(C4~C10)に所属する解答文数が10で、クラスタC1~C10に所属する全解答文数が18であるため、10/18とする。 For example, the reliability of an answer sentence may be determined by the ratio of the number of answer sentences belonging to clusters below the cluster to which the answer sentence belongs. In the cluster sort 211, for example, the reliability of answer sentences belonging to cluster C3 in FIG. Since the total number of answer sentences is 18, it is set to 10/18.

このように、クラスタソート211が解答文のクラスタCに信頼度を設定することにより、信頼度が高い解答文は自動採点が容易で、信頼度が低い解答文は自動採点が難しい傾向となる。つまり、信頼度が高い解答文のほうが、自動採点の正確性が高いと期待できる。一方、信頼度が低い解答文は、文法誤りやスペル誤りを含む、複雑な内容や難しい語句を用いている、少数派なので本実施例による採点パタン生成が難しい、などの傾向があるため、自動採点の正確性が低くなる傾向がある。 In this way, when the cluster sort 211 sets the reliability to the cluster C of the answer sentences, the answer sentences with high reliability tend to be automatically scored easily, and the answer sentences with low reliability tend to be difficult to automatically score. In other words, it can be expected that an answer sentence with a high degree of reliability is highly accurate in automatic scoring. On the other hand, answers with low reliability tend to include grammatical and spelling errors, use complex content and difficult phrases, and are in the minority, making it difficult to generate marking patterns according to this embodiment. Scoring accuracy tends to be low.

採点には、高度な正確性が求められる場合がある。しかし、どのような記述式解答文でも精度良く自動採点するのは難しい。そこで、例えば、自動採点が難しい解答文については、自動採点の対象外とし、人手による入念な採点を実施する、などの自動採点と人手による採点を効率よく分担する運用が必要となる。そのために、自動採点が容易な解答文と、自動採点が難しい解答文と、に分別することが課題となる。 Scoring may require a high degree of accuracy. However, it is difficult to automatically grade any descriptive answer with high accuracy. Therefore, for example, answer texts that are difficult to automatically score must be excluded from automatic scoring, and careful manual scoring will be required to efficiently share automatic scoring and manual scoring. For this reason, it is a task to classify the answer sentences that are easy to score automatically and the answer sentences that are difficult to score automatically.

図5Bは、上側のクラスタに所属する解答文から順番に表示した例である。すなわち、C1に所属する解答文、C2に所属する解答文、C3に所属する解答文、という順番で表示している。このような表示方法により、類似した解答文が連続して現われる、多数派の回答から少数派の回答の順に解答文が現われる、などの効果により、人手による採点結果の確認や採点が効率的になる。 FIG. 5B is an example in which the answer sentences belonging to the upper cluster are displayed in order. That is, the answer texts belonging to C1, the answer texts belonging to C2, and the answer texts belonging to C3 are displayed in this order. With this display method, similar answer sentences appear in succession, and answer sentences appear in order from the majority answer to the minority answer. Become.

本実施例1では上記の方法により、解答文を多数派答案と少数派答案に分類することで、自動採点が容易な解答文(多数派解答文)と自動採点が難しい解答文(少数派解答文)に分類することで、自動採点の信頼性を判定できる、という効果がある。 In the present embodiment 1, by classifying the answer texts into the majority answer and the minority answer by the above method, the answer sentences that are easy to automatically score (majority answer sentences) and the answer sentences that are difficult to automatically score (minority answer sentences) (sentence) has the effect of being able to determine the reliability of automatic scoring.

次に、クラスタソート211で実施するソートの方法の例を示す。図6Aは、ソートを行う前の結果(階層クラスタリング210の出力)の例を示す図である。また、図6Bは、ソート前の解答文610の一例を示す図である。 Next, an example of the sorting method performed by the cluster sorting 211 is shown. FIG. 6A is a diagram showing an example of the result (output of hierarchical clustering 210) before sorting. FIG. 6B is a diagram showing an example of answer sentences 610 before sorting.

図6Aのクラスタをソートする例を挙げる。まず、クラスタソート211は、末端のクラスタ(C1、C2、…、C10)で、最も大きなクラスタを検索する。図6Aの例では、クラスタC1とC2が検索される。このように最大のクラスタが2つ存在する場合には、そのクラスタの親クラスタが上位にあるものを優先する。 Take an example of sorting the clusters of FIG. 6A. First, the cluster sort 211 searches for the largest cluster among the terminal clusters (C1, C2, . . . , C10). In the example of FIG. 6A, clusters C1 and C2 are searched. When there are two maximum clusters in this way, priority is given to the cluster whose parent cluster is higher.

親クラスタは、C1の場合には、図6Aの矢印602で示す位置(つまり、C1、C2、C3より成るクラスタ)、C2の場合には、図6Aの矢印603で示す位置(つまり、C2、C3より成るクラスタ)である。 The parent cluster is located at the position indicated by arrow 602 in FIG. C3).

なお、この矢印の位置は、クラスタ間の距離を表す。すなわち、矢印603の位置(図6Aに示す末端から矢印位置までの長さ604)は、クラスタC2とクラスタC3の間の距離を表している。矢印の位置が左側にあるものを、上位と判定する。 The position of this arrow represents the distance between clusters. That is, the position of arrow 603 (length 604 from the end to the arrow position shown in FIG. 6A) represents the distance between cluster C2 and cluster C3. If the position of the arrow is on the left side, it is determined to be the upper rank.

以上により、クラスタC1が最も上側となる。次に、クラスタソート211は、クラスタC1の親クラスタである矢印602のC1以外の子クラスタである矢印603のクラスタ(C2、C3)についても同様の方法でソートする。 As a result, the cluster C1 is the uppermost. Next, the cluster sort 211 sorts clusters (C2, C3) of arrow 603, which are child clusters other than C1 of arrow 602, which is the parent cluster of cluster C1, in a similar manner.

これらのソートが終わると、クラスタソート211は、矢印602のクラスタの親クラスタ(矢印605)について、その子クラスタである矢印606についても、同様の処理を行う。これによって、図5Aに示したようなクラスタのソート結果が得られる。 After these sorts are completed, the cluster sort 211 performs the same processing on the parent cluster (arrow 605) of the cluster of arrow 602 and on the child cluster of arrow 606 as well. This yields a cluster sorting result as shown in FIG. 5A.

次に、採点パタン生成212では、基礎解析204と、高次解析207と、クラスタソート211と、解答文採点データ213と、意味カテゴリ辞書214を用いて、採点パタン215を生成する。 Next, in grading pattern generation 212 , a grading pattern 215 is generated using basic analysis 204 , high-order analysis 207 , cluster sorting 211 , answer sentence grading data 213 , and semantic category dictionary 214 .

採点パタン生成212での処理では、必要に応じて、3項関係の各項に含まれる単語や語句について意味カテゴリ辞書214により上位概念に置き換える処理を行う。以下、採点パタン生成212が3項関係の各項を上位概念に置き換える処理を抽象化と呼ぶことにする。 In the processing in the scoring pattern generation 212, the semantic category dictionary 214 replaces the words and phrases included in each term of the ternary relation with a higher-level concept as necessary. Hereinafter, the process by which the scoring pattern generation 212 replaces each term of a ternary relation with a superordinate concept is called abstraction.

なお、以下の説明では、“astronaut”、“president”、“pianist”、“nurse”、“scientist”、“doctor”の上位概念が“occupation”で、“become”の上位概念が“be”という抽象化の定義が意味カテゴリ辞書214に設定されている例を示す。 In the explanation below, the superordinate concept of "astronaut", "president", "pianist", "nurse", "scientist", and "doctor" is "occupation", and the superordinate concept of "become" is "be". An example in which the definition of abstraction is set in the semantic category dictionary 214 is shown.

3項関係の各項の上位下位関係は、後に説明する意味カテゴリ辞書214で定義される。図4の例では、採点パタン生成212は、受け付けた3項関係(情報抽出結果402)と情報表現型推定結果403と意味カテゴリ辞書214から、3項関係の2項目の“become”を“be”に抽象化し、3項目の“very kind nurse” を“occupation”に抽象化した例(抽象化結果404)例を示す。 The superordinate/subordinate relation of each term of the ternary relation is defined in the semantic category dictionary 214 described later. In the example of FIG. 4, the scoring pattern generation 212 converts the two items of the ternary relation "become" to "be ”, and the three items “very kind nurse” are abstracted to “occupation” (abstraction result 404).

この例(抽象化結果404)の“very kind nurse”が“occupation”に抽象化されているように、3項関係の項目が形容詞などにより修飾された場合でも、概念の上位下位関係が保持される場合には、同様に抽象化する。この抽象化の定義は予め、構文解析などを用いたルールにより定めておく。 As "very kind nurse" in this example (abstraction result 404) is abstracted to "occupation", even if the item of the ternary relation is modified by an adjective or the like, the superordinate-lower relation of the concept is maintained. are abstracted in the same way. The definition of this abstraction is determined in advance by rules using syntax analysis or the like.

採点パタン生成212では、採点パタン生成用解答文203から解答文を選択し、その解答文に対して、情報抽出206により抽出された3項関係(情報抽出結果402)と、各項の抽象化結果404と、情報表現型推定208による3項関係の付加情報(情報表現型推定結果403)と、情報間関係推定209による3項関係間の関係、を組み合わせた様々な条件の中から、得点の有無を判別できるパタンを採点パタンとして、検索する。本実施例1では、様々な抽象化、様々な付加情報、様々な3項関係間の関係を変化させながら、採点パタンを検索する。 In the grading pattern generation 212, an answer sentence is selected from the answer sentences 203 for grading pattern generation. Score A pattern that can determine the presence or absence of is searched as a scoring pattern. In the first embodiment, a scoring pattern is retrieved while changing various abstractions, various additional information, and various relations among ternary relations.

図4と図7A、図7Bを用いて、この例を説明する。図7Aは、解答文採点データ213の一例を示す図である。図7Bは、採点条件の一例を示す図である。 This example will be described with reference to FIGS. 4 and 7A and 7B. FIG. 7A is a diagram showing an example of the answer grading data 213. As shown in FIG. FIG. 7B is a diagram showing an example of scoring conditions.

図7Aの解答文採点データ213は、予め設定された情報であり、解答文の識別子を格納する番号2131と、解答文を格納する解答文2132と、解答文2132の採点結果を格納する採点2133と、条件Aを採点基準とした採点結果を格納する条件A2134と、条件Bを採点基準とした採点結果を格納する条件B2134と、条件Cを採点基準とした採点結果を格納する条件C2135と、条件Aを採点基準とした採点結果を格納する条件D2135と、をひとつのレコードに含む。 The answer text grading data 213 in FIG. 7A is information set in advance, and includes a number 2131 storing an identifier of the answer text, an answer text 2132 storing the answer text, and a score 2133 storing the grading result of the answer text 2132. , a condition A 2134 for storing the grading results with the condition A as the grading standard, a condition B 2134 for storing the grading results with the condition B as the grading standard, and a condition C 2135 for storing the grading results with the condition C as the grading standard; and a condition D2135 for storing the scoring results with the condition A as the scoring standard are included in one record.

採点2133に「1」が格納されている解答文2132が正答の解答文を示し、採点2133に「0」が格納されている解答文2132は不正解(誤答)を示す。 An answer sentence 2132 in which "1" is stored in the score 2133 indicates a correct answer, and an answer sentence 2132 in which "0" is stored in the score 2133 indicates an incorrect answer (wrong answer).

まず、採点パタンを生成するために、採点パタン生成212は、解答文採点データ213から正解となっている解答文をひとつ選択する。ここでは、採点パタン生成212が番号2131=「1」の“I wanted to become a very kind nurse.”を選択した例について説明する。 First, in order to generate a grading pattern, the grading pattern generator 212 selects one correct answer sentence from the answer sentence grading data 213 . Here, an example in which the scoring pattern generation 212 selects "I wanted to become a very kind nurse." with number 2131="1" will be described.

まず、この解答文からの情報抽出206の結果は、図4の3項関係(情報抽出結果402)の太字部分で示された(I、become、very kind nurse)となる。さらに、情報表現型推定208により、図4の情報表現型推定結果403に示すように、この3項関係が過去形で表されることが特定される。 First, the result of information extraction 206 from this answer is (I, become, very kind nurse) shown in bold in the ternary relation (information extraction result 402) in FIG. Further, the informational phenotype estimation 208 identifies that this ternary relationship is expressed in the past tense, as shown in the informational phenotype estimation result 403 of FIG.

なお、以下の説明において、解答文採点データ213で付与された採点結果は、図7Aの採点2133の列に示されているとする。 In the following description, it is assumed that the graded results given in the answer graded data 213 are shown in the graded 2133 column in FIG. 7A.

複数の採点基準が存在する場合には、採点基準ごとに同様の処理をすればよい。 If there are a plurality of scoring criteria, similar processing may be performed for each scoring criteria.

図7Bの条件A(2134)は、3項関係の第3項の箇所を“occupation”に抽象化している。条件Aは、文から抽出された3項関係の第3項を抽象化したとき、(I、become、occupation)のパタンが得られることを採点条件とする。この条件Aに合致する解答は、図7Aの条件A2134の列に示すように、番号1、番号2の解答文が正解であり、番号4、番号6、番号7の解答文は条件を満たさないため、0点となる。 Condition A (2134) in FIG. 7B abstracts the third term of the ternary relation to “occupation”. Condition A is a scoring condition that the pattern (I, become, occupation) is obtained when the third term of the ternary relation extracted from the sentence is abstracted. As shown in the column of condition A 2134 in FIG. 7A, the answers that match this condition A are the correct answer sentences of numbers 1 and 2, and the answer sentences of numbers 4, 6, and 7 do not satisfy the condition. Therefore, the score is 0.

図7Bの条件Bは、3項関係の第2項の箇所と第3項の箇所を、それぞれ“be”、“occupation”に抽象化している。条件Bは、解答文から抽出された3項関係の第3項を抽象化したとき、(I、be、occupation)のパタンが得られることを採点条件とする。この条件Bに合致する解答は、図7Aの条件B2135の列に示すように、番号1~番号7までの全ての解答文が正解であり、番号3、番号5の解答文も条件を満たすため、1点(正解)となる。 Condition B in FIG. 7B abstracts the second and third terms of the ternary relation to "be" and "occupation", respectively. Condition B is a scoring condition that the pattern (I, be, occupation) is obtained when the third term of the ternary relation extracted from the answer is abstracted. As shown in the column of condition B 2135 in FIG. 7A, the answer that matches this condition B is that all the answer sentences from number 1 to number 7 are correct, and the answer sentences of number 3 and number 5 also meet the conditions. , 1 point (correct answer).

図7Bの条件Cは、3項関係の第2項の箇所と第3項の箇所を、それぞれ“be”、“occupation”に抽象化しているのは、上記条件Bと同様である。さらに、条件Cでは、情報表現型推定208の結果(時制の推定結果)を用いて、3項関係が過去形で表現されている、という時制の条件が加えられる。この条件Cに合致する解答は、図7Aの条件C2136の列に示すように、番号3、番号5を除く解答文が正解であり、解答文採点データ213の列と一致する。 Condition C in FIG. 7B is similar to Condition B above in that the second and third terms of the ternary relation are abstracted to "be" and "occupation", respectively. Furthermore, in condition C, the result of the information phenotype estimation 208 (estimation result of tense) is used to add a tense condition that the ternary relation is expressed in the past tense. As shown in the column of condition C 2136 in FIG. 7A, the answers that match the condition C are correct except for the numbers 3 and 5, and match the column of the answer grading data 213 .

図7の条件Dは、第3項を“occupation”よりもさらに上位の“entity”にまで抽象化している。3項関係の第2項は条件Cと同様に“be”に抽象化されている。これも条件Cと同様に、解答文採点データ213の列と一致する。 Condition D in FIG. 7 abstracts the third term to "entity" which is higher than "occupation". The second term of the ternary relation is abstracted to "be" like condition C. Similar to condition C, this also matches the column of the answer grading data 213 .

以上のように、採点パタン生成212は、情報抽出206により抽出された3項関係と、各項の抽象化とその抽象化の程度と、情報表現型推定208による3項関係の付加情報と、情報間関係推定209による3項関係間の関係、を組み合わせた様々な条件を変えながら、解答文採点データ213で与えられた採点(図7Aの採点の列)との一致度が高い条件を探索し、採点パタン215とする。 As described above, the scoring pattern generation 212 includes the ternary relation extracted by the information extraction 206, the abstraction of each term and the degree of abstraction, the additional information of the ternary relation by the information representation type estimation 208, While changing various conditions that combine relationships between three-term relationships by information relationship estimation 209, searching for conditions that have a high degree of agreement with the scores given in the answer sentence scoring data 213 (scoring column in FIG. 7A) and a scoring pattern 215 is obtained.

これは、図7A、図7Bの場合には、条件Cと条件Dとなる。なお、複数の条件が得られる場合には、そのいずれかの条件を予め定めた規則により選択してもよい。その規則の例として、より条件が厳しい(当該条件に当てはまる解答文の範囲が狭い)採点パタンを選択するとよい。この場合、条件Cと条件Dを比べると条件Cのほうが厳しいため、条件Cを選択するとよい。例えば、“I wanted to be a bird.”は、条件Dには合致するが、条件Cには合致しない。 This is condition C and condition D in the case of FIGS. 7A and 7B. In addition, when a plurality of conditions are obtained, one of the conditions may be selected according to a predetermined rule. As an example of the rule, it is preferable to select a grading pattern with stricter conditions (a narrower range of answer sentences that meet the conditions). In this case, if condition C and condition D are compared, condition C is stricter, so condition C should be selected. For example, "I wanted to be a bird." matches condition D, but does not match condition C.

なお、本実施例1の探索では、番号2131が「1」の解答文をもとに、条件を検索しているため、どの条件であっても、番号=「1」の解答文は、必ず、1点がつくことになる。 In addition, in the search of the first embodiment, the conditions are searched based on the answer with the number 2131 of "1". , will receive 1 point.

以上のように、図7A、図7Bの例では、条件Cが採点パタン215として選択される。なお、上記では、採点パタン生成212では、解答文採点データ213の採点との一致度が高い条件を探索する、としたが、この一致度の計算方法には様々な方法が考えられる。 As described above, condition C is selected as the scoring pattern 215 in the examples of FIGS. 7A and 7B. In the above description, the grading pattern generation 212 searches for conditions with a high degree of matching with the grading of the answer grading data 213, but various methods are conceivable for calculating the degree of matching.

この一致度については、過剰に得点を与えないような条件を探索するように設定するのがよい。例えば、解答文採点データ213の採点で0点であるにも関わらず、採点パタンに一致して、1点と採点されてしまうような事例が少なく、尚且つ、解答文採点データ213の採点で1点の解答文がなるべく多く、採点パタンに一致するような条件を探索できるように設定する。 The degree of matching should preferably be set so as to search for conditions that do not give excessive points. For example, there are few cases in which the answer grading data 213 is scored 0, but the grading pattern matches the grading pattern and is graded as 1. The conditions are set so that as many answers with 1 point as possible match the grading pattern.

このように設定すると、解答文採点データ213の採点で1点であるにも関わらず、採点パタンに合致しない解答文が生じる。例えば、図7Aの例で、条件A2134しか探索できなかったとすると、番号2131=「4」、番号2131=「6」、番号2131=「7」の解答文は、解答文採点データ213の採点で1点であるにも関わらず、条件A2134の採点パタンには合致しない。その場合には、採点パタン生成212は、採点パタンに合致しない正解の解答文2132を選択し、さらに採点パタンを付加する。 With this setting, although the score of the answer sentence scoring data 213 is 1, there will be answer sentences that do not match the scoring pattern. For example, in the example of FIG. 7A, if only the condition A2134 could be searched, the answer sentences with number 2131="4", number 2131="6", and number 2131="7" are scored in the answer score data 213. Despite being 1 point, it does not match the scoring pattern of condition A2134. In that case, the grading pattern generator 212 selects the correct answer sentence 2132 that does not match the grading pattern, and adds the grading pattern.

例えば、採点パタン生成212は、番号2131=「4」の解答文を検索し、さらに、番号2131=「4」に基づいて、なるべく過剰採点が起きず、かつ、多くの正答の解答文2132に合致する採点パタンを検索する。なお、採点パタン生成212が選択した解答文2132で、過剰採点が起きる、または、十分に多くの正答解答文にマッチする条件が得られない、などの場合には、別の解答文を選択するとよい。 For example, the grading pattern generation 212 searches for the answer sentence with the number 2131 = "4", and based on the number 2131 = "4", the answer sentence 2132 with as many correct answers as possible without excessive grading. Search for matching scoring patterns. If the answer text 2132 selected by the grading pattern generation 212 is over-graded, or if a condition that matches a sufficiently large number of correct answer texts cannot be obtained, another answer text can be selected. good.

本実施例1のように採点パタン215を生成することにより、誤答の解答文を正解と誤判定する割合を抑えられる、という効果がある。なお、条件検索の元になる解答文は、クラスタソート211の結果の上側(図5Aの上側)の正答解答文から優先して選択すると良い。 By generating the grading pattern 215 as in the first embodiment, there is an effect that it is possible to suppress the rate of erroneously determining that an incorrect answer is correct. It is preferable to preferentially select correct answer sentences on the upper side of the result of cluster sorting 211 (upper side in FIG. 5A) as the answer sentences to be the basis of the conditional search.

これは、クラスタソート結果の上側の解答文のほうが多数派の解答文であり、多数派の解答文のほうが、多くの正答解答文にマッチする採点パタンが得られやすいからである。これにより、採点パタンの検索の処理時間を小さくできる、過剰採点が少なく多数の正解の解答文にマッチする質の高い採点パタンが得られる、という効果がある。 This is because the answer sentences on the upper side of the cluster sorting result are the answer sentences of the majority, and the answer sentences of the majority are more likely to have scoring patterns that match many correct answer sentences. As a result, it is possible to reduce the processing time for retrieving scoring patterns, and obtain high-quality scoring patterns that match a large number of correct answer sentences with little over-scoring.

また、このような情報抽出206と意味カテゴリ辞書214などを用いた採点パタンに基づく採点により、文法的な誤りではなく、解答文の意味に基づいた採点を行うことができる、という効果がある。さらに、様々な採点基準(観点)に沿った採点を行うことができる、という効果がある。 Also, by scoring based on the scoring pattern using the information extraction 206 and the semantic category dictionary 214, etc., there is an effect that scoring can be performed based on the meaning of the answer rather than on grammatical errors. Furthermore, there is an effect that scoring can be performed according to various scoring criteria (viewpoints).

このように、解答文の選択と、条件の探索を繰り返すことにより、過剰採点が少なく、かつ、多くの正答解答文にマッチするパタンを集めることができる。これを採点パタンとして、採点パタン215に保存する。採点パタンは複数になる場合が多い。 In this way, by repeating answer sentence selection and condition search, it is possible to collect patterns that match many correct answer sentences with little overmarking. This is saved in the scoring pattern 215 as a scoring pattern. There are many scoring patterns.

なお、図7A、図7Bの例では、得点は0点、1点の2段階であったが、3段階以上の場合は、必要に応じて、各得点の採点パタンを集める方法をとる、などの方法により、同様の処理ができる。 In the example of FIGS. 7A and 7B, the score is in two stages of 0 point and 1 point, but in the case of three stages or more, a method of collecting scoring patterns for each score is taken as necessary. Similar processing can be performed by the method of

なお、採点パタン215には、採点パタンの信頼度も保存しておく。信頼度は、採点パタンの元となった解答文が多数派の解答文(図5Aの上側のクラスタに所属する解答文)であるほど、高くなるように与える。さらに、過剰採点が少なく、多くの正答解答文にマッチするほど、信頼度が高くなるように設定してもよい。多数派の解答文は、採点パタンによる採点の正確さが高くなるため、このように信頼度を付与することにより、採点パタンを用いた採点結果の信頼性も評価できる。 The scoring pattern 215 also stores the reliability of the scoring pattern. The higher the reliability, the more the answer on which the grading pattern is based is the majority (the answer belongs to the upper cluster in FIG. 5A). Furthermore, the reliability may be set to be higher as the number of overmarks is less and the number of correct answer sentences matched is higher. The accuracy of grading based on the grading pattern is high for the majority answer, and thus the reliability of the grading result using the grading pattern can be evaluated by assigning the reliability in this way.

なお、上記では、正答の解答文にマッチする採点パタン215の生成について説明を行ったが、誤答の解答文にマッチする採点パタンを生成してもよい。 In the above, the generation of the grading pattern 215 that matches the correct answer text has been described, but a grading pattern that matches the incorrect answer text may be generated.

本実施例1のような方法で、採点パタン215を生成することにより、問題ごとに意味に基づく採点基準に沿って、採点パタン215を生成することができる。また、採点パタン215は、図4の抽象化結果404に示すように、構文解析結果等に関する専門知識がなくとも、理解しやすい。 By generating the grading pattern 215 by the method of the first embodiment, the grading pattern 215 can be generated according to the grading criteria based on the meaning of each question. In addition, as shown in the abstraction result 404 of FIG. 4, the scoring pattern 215 is easy to understand even without specialized knowledge of parsing results and the like.

また、本実施例1では採点パタン生成212が、クラスタソート211の結果から多数派解答を中心に採点パタンを自動的に検索して採点パタン215を生成するため、採点済み教師データ(解答文採点データ213)が比較的少なくとも採点パタン215を生成することができる。また、基礎解析204と、高次解析207の解析結果、意味カテゴリ辞書214に基づく条件の組み合わせにより採点パタンを検索するため、採点のルールが膨大または複雑になりにくい。 In addition, in the first embodiment, the grading pattern generation 212 automatically searches for a grading pattern centering on the majority answer from the result of the cluster sorting 211 and generates the grading pattern 215. Data 213) is relatively at least capable of generating scoring patterns 215; In addition, since the scoring pattern is searched by combining the analysis results of the basic analysis 204, the analysis results of the high-order analysis 207, and the conditions based on the semantic category dictionary 214, the scoring rules are unlikely to become large or complicated.

なお、採点パタン生成用解答文203は、採点されていない解答文が含まれていても良いので、採点対象解答文217は、採点パタン生成用解答文203に含まれていても良い。 Note that the grading pattern generation answer text 203 may include an ungraded answer text, so the grading target answer text 217 may be included in the grading pattern generation answer text 203 .

採点処理202では、生成された採点パタン215を用いて、採点対象解答文217を採点する。以下では、採点処理202で行われる処理の一例について説明する。 In the grading process 202 , the generated grading pattern 215 is used to grade the grading target answer sentence 217 . An example of the processing performed in the scoring processing 202 will be described below.

採点216では、採点対象解答文217の各解答文について、採点パタン215に合致する解答文には、予め設定された得点を付与する。例えば、図7Bの例の条件Cのパタンが採点パタン215であるとする。このとき、採点対象解答文217が“I wanted to be a pianist.”の場合には、採点パタン215に合致するため1点を付与する。 In the grading 216 , a preset score is given to an answer sentence that matches the grading pattern 215 for each answer sentence of the answer sentences 217 to be graded. For example, assume that the pattern of condition C in the example of FIG. 7B is the scoring pattern 215 . At this time, if the graded answer sentence 217 is "I wanted to be a pianist."

また、採点対象解答文217が“I wanted to be a bird.”の場合には、“bird”が条件Cの“occupation”ではないので、採点パタン215に合致せず、0点となる。また、採点パタン215に付与された信頼度に基づいて、採点の信頼度も付与する。なお、採点結果に対する信頼度付与の別の方法として、採点対象解答文217も、階層クラスタリング210、クラスタソート211と同様に、クラスタリングを行い、上側のクラスタ(より多数派のクラスタ)に属する解答文に対して高い信頼度を付与し、解答文に付与された信頼度に基づいて、採点の信頼度を付与する方法を用いても良い。また、採点パタン215に付与された信頼度と、解答文に付与された信頼度の両方に基づいて、採点の信頼度を付与してもよい。 Also, when the graded answer sentence 217 is "I wanted to be a bird.", "bird" is not "occupation" of the condition C, so it does not match the scoring pattern 215 and is scored 0 points. Also, based on the reliability assigned to the scoring pattern 215, the reliability of scoring is assigned. As another method of giving reliability to the scoring result, the answer sentences to be graded 217 are also clustered in the same way as the hierarchical clustering 210 and the cluster sorting 211, and the answer sentences belonging to the upper cluster (larger cluster) are clustered. It is also possible to use a method of assigning a high reliability to the answer and assigning a reliability of grading based on the reliability assigned to the answer. Also, the reliability of grading may be assigned based on both the reliability assigned to the grading pattern 215 and the reliability assigned to the answer.

正答の採点パタン215と誤答の採点パタン215の両方がある場合には、ルールの適用順序と最終判定規則を定めておく。例えば、正答の3つの採点パタンA、B、C、がある場合、採点パタンA、B、Cの順に適用し、いずれかで正答と判定された場合には、パタンの適用を終え、最終判定を正答と判定する、などとする。 When there are both a correct answer scoring pattern 215 and an incorrect answer scoring pattern 215, the application order of the rules and the final judgment rule are determined. For example, if there are three grading patterns A, B, and C for correct answers, the grading patterns A, B, and C are applied in that order. is determined as the correct answer, and so on.

また、いずれの採点パタン215にも合致しない解答文については、未採点として、後に人手により採点を行う、などとする。 Answers that do not match any of the scoring patterns 215 are regarded as ungraded, and are manually graded later.

記述式問題の採点において、本実施例1による文書評価装置101を用いることで、解答文の一部を自動で採点し、残りを人手で採点することにより、採点を効率化することができる。例えば、全ての解答文を文書評価装置101で自動採点し、採点結果の信頼度が一定の閾値以下のものについて、人手で採点することにより、全てを人手で採点する場合と比較して効率化することができる。 In scoring descriptive questions, by using the document evaluation apparatus 101 according to the first embodiment, a part of the answer is automatically scored, and the rest is manually scored, so that the efficiency of scoring can be improved. For example, all answers are automatically graded by the document evaluation device 101, and those whose reliability of the scoring result is below a certain threshold are manually graded, thereby improving efficiency compared to manually grading everything. can do.

また、記述式問題の採点においては、採点結果の一貫性や正確性を担保するために、複数の採点者により、採点を行う場合がある。例えば、2人の採点者により採点を行い、2人の採点者による採点が一致した場合には、その採点結果を採用し、一致しない場合には、3人目の採点者が2人の採点結果を考慮した上で、最終的な採点を行う、などの運用をする。 In addition, in scoring descriptive questions, multiple graders may grade in order to ensure the consistency and accuracy of the scoring results. For example, two graders grade, and if the two graders agree, the graded result is adopted, and if they do not agree, the third grader After considering the above, the final scoring will be done.

このとき、本実施例1の文書評価装置101による採点を実施し、採点結果のうち、信頼度が高いものについては、最初の人手による2人の採点者の採点のうち、1人分を自動採点結果に置き換えることにより、採点を効率化することができる。 At this time, grading is performed by the document evaluation apparatus 101 of the first embodiment, and among the grading results, those with high reliability are automatically graded by one of the first two graders. Grading can be made more efficient by replacing with the grading result.

本実施例1により、信頼度に基づいて、自動採点と人手による採点との分担を効率的に行うことができる。また、採点パタン215に合致するかどうかで、採点を行うため、採点パタン215を参照することにより、自動採点による採点結果に対する理由が分かりやすい。 According to the first embodiment, automatic scoring and manual scoring can be efficiently shared based on reliability. In addition, since scoring is performed depending on whether or not the scoring pattern 215 is matched, it is easy to understand the reason for the scoring result by the automatic scoring by referring to the scoring pattern 215 .

以上により採点された結果は、信頼度とともに、採点結果218に保存される。 The results graded as described above are stored in the graded result 218 together with the reliability.

以上、本実施例1によれば、採点基準ごとに、正答と誤答を判定する採点パタン215を自動的に生成し、採点パタン215に基づいた自動採点を行う方法を提供することができる。また、解答文を多数派答案と少数派答案に分類することで、自動採点が容易な解答文(多数派解答文)と自動採点が難しい解答文(少数派解答文)に分類することで、自動採点の信頼性を判定することが可能となる。また、少数派解答文を人手で採点することで、自動採点と人手による採点を効率よく運用することが可能となる。 As described above, according to the first embodiment, it is possible to provide a method of automatically generating the scoring pattern 215 for determining correct and incorrect answers for each scoring criterion and performing automatic scoring based on the scoring pattern 215 . In addition, by classifying the answers into majority answers and minority answers, by classifying answers into easy automatic scoring (majority answers) and difficult automatic scoring (minority answers), It becomes possible to determine the reliability of automatic scoring. In addition, by manually grading minority answer sentences, it is possible to efficiently operate automatic grading and manual grading.

図11は、本実施例における文書評価装置101が実施する処理の一例を示すフローチャートである。図2に示した実施例1との違いは、階層クラスタリング1101において、基礎解析204と、高次解析207を実行した結果を用いている点である。 FIG. 11 is a flow chart showing an example of processing performed by the document evaluation apparatus 101 in this embodiment. The difference from Example 1 shown in FIG. 2 is that the hierarchical clustering 1101 uses the results of executing the basic analysis 204 and the high-order analysis 207 .

実施例1では、解答文の階層クラスタリング210において、採点パタン生成用解答文203を単語や語句の出現頻度で特徴づける例を、図8を用いて説明した。実施例1では、“a”、“the”など、単語や語句のカウントとして除外するもののリストを生成しておき、それ以外の単語や語句について、図8のような特徴行列803を用いて階層クラスタリングを行った。 In the first embodiment, in the hierarchical clustering 210 of answer sentences, an example of characterizing the answer sentences 203 for grading pattern generation by the frequency of occurrence of words and phrases has been described with reference to FIG. In the first embodiment, a list of words and phrases such as "a" and "the" to be excluded from the count is generated. performed clustering.

本実施例2では、情報抽出206、および、情報表現型推定208に関係する単語や語句についてのみ、カウントの対象とする。 In the second embodiment, only words and phrases related to information extraction 206 and information phenotypic estimation 208 are counted.

実施例1の場合で、カウントの除外リストが“a”、“the”であったと仮定し、図4の解答文401から単語や語句をカウントする際、例えば、“I”、“wanted(またはwant)”、“to”、“become”、“very”、“kind、“nurse”の7つの単語がカウント対象となる。 In the case of Example 1, assuming that the count exclusion list is "a" and "the", when counting words and phrases from the answer sentence 401 in FIG. want)”, “to”, “become”, “very”, “kind”, and “nurse” are counted.

これに対して、本実施例2では、情報抽出結果402に関係する単語、“I”、“become”、“very”、“kind”、“nurse”および、情報表現型推定結果403に関係する単語、“wanted(またはwant)”、の合計6単語がカウント対象となる。なお、情報抽出結果402の5単語のみを用いても良い。 On the other hand, in the second embodiment, the words "I", "become", "very", "kind", and "nurse" related to the information extraction result 402 and the information phenotype estimation result 403 A total of 6 words, the word "wanted" (or want), are counted. Note that only the five words of the information extraction result 402 may be used.

このように、図8に示した特徴行列803のような特徴行列を生成する際に、解答文401から特徴としてカウントする単語や語句を、情報抽出結果402や情報表現型推定結果403などに関係するものに絞ることで、後の処理に関係しない単語や語句を特徴としてカウントするのを除外することができる。 In this way, when generating a feature matrix such as the feature matrix 803 shown in FIG. By narrowing down the features, it is possible to exclude words and phrases that are not related to subsequent processing from being counted as features.

例えば、図4の例では、“to”が除外される。このような処理を行うことにより、より、採点パタンに適合した階層クラスタリング結果を得ることができ、精度のよい自動採点結果や信頼度が得られると期待できる。 For example, in the example of FIG. 4, "to" is excluded. By performing such processing, it is possible to obtain hierarchical clustering results that are more suitable for the scoring pattern, and it is expected that highly accurate automatic scoring results and reliability will be obtained.

また、情報抽出結果402や情報表現型推定結果403に関係するもののみをカウントするという方法だけでなく、実施例1と同様に、除外リスト以外の単語や語句は全てカウントするが、情報抽出結果402や情報表現型推定結果403だけ、予め定められた割合で、図8に示す語句重要度802の値を大きくする、という方法をとってもよい。 In addition to the method of counting only those related to the information extraction result 402 and the information phenotype estimation result 403, as in the first embodiment, all words and phrases other than the exclusion list are counted, but the information extraction result 402 and the information phenotype estimation result 403 may be increased by a predetermined ratio in the value of the word importance level 802 shown in FIG.

以上のように、特徴量の算出対象となる単語や語句を、情報抽出結果402や情報表現型推定結果403などから絞り込むことで、自動採点結果や信頼度の向上を図ることができる。 As described above, by narrowing down the words and phrases for which the feature amount is to be calculated from the information extraction result 402 and the information phenotype estimation result 403, automatic scoring results and reliability can be improved.

採点基準には、軽微なスペルミスは減点の対象としない場合がある。そのような場合に、スペルミスが異なる単語や語句として扱われるため、前記実施例1では、スペルミスごとに採点パタン215が生成される。また、様々なスペルミスをカバーするために、多くの解答文が必要となる場合がある。 Minor spelling errors may not be deducted in the scoring criteria. In such a case, spelling errors are treated as different words or phrases, so in the first embodiment, a scoring pattern 215 is generated for each spelling error. Also, many answer sentences may be required to cover various spelling errors.

これに対して、本実施例3では、予め、採点パタン生成用解答文203、解答文採点データ213、採点対象解答文217に含まれるスペルミスを修正しておく。例えば、頻出するスペルミスのリストを生成しておき、リストにしたがって、スペルミスを修正する。例えば、“doctor”を“docter”と誤る事例などが考えられる。この場合、文書評価装置101では採点対象解答文217等の“docter”を全て、“doctor”に置き換える。 In contrast, in the third embodiment, spelling errors included in the grading pattern generation answer text 203, the answer text grading data 213, and the grading target answer text 217 are corrected in advance. For example, a list of frequently occurring spelling errors is generated and the spelling errors are corrected according to the list. For example, there are cases where "doctor" is mistaken for "docter". In this case, the document evaluation apparatus 101 replaces all "docter" in the grading target answer sentences 217 and the like with "doctor".

また、文書評価装置101では採点パタン215に関係のない文法誤りを予め修正しておいてもよい。例えば、正確には、現在形で解答すべき問題に対して、時制は採点の対象外とする場合には、過去形など、別の時制で表現されたものを、現在形に修正しておくようにしてもよい。 Also, the document evaluation apparatus 101 may correct grammatical errors unrelated to the marking pattern 215 in advance. For example, to be precise, if tenses should not be scored for a question that should be answered in the present tense, correct past tense or other tense expressions to present tense. You may do so.

本実施例4では、文書評価装置101のユーザインタフェースの例を示す。図12Aは、答案データ入力画面1201の一例を示す図である。答案データ入力画面1201は、表示装置103に出力される。図12Bは、採点済みの答案データの一例を示す図である。図12Cは、未採点の答案データの一例を示す図である。 The fourth embodiment shows an example of the user interface of the document evaluation apparatus 101. FIG. FIG. 12A is a diagram showing an example of an answer data input screen 1201. FIG. An answer data input screen 1201 is output to the display device 103 . FIG. 12B is a diagram showing an example of graded answer data. FIG. 12C is a diagram showing an example of ungraded answer data.

答案データ入力画面1201では、問題文IDフィールド121には、問題文を識別するためのIDを入力する。問題文フィールド122には、問題文を入力する。ファイルフィールド123には、データが入ったファイル名を指定する。ファイルは、例えば、図12Bに示す採点済みの答案データ1202や、図12Cに示す未採点の答案データ1203のようなファイルである。 In the answer data input screen 1201, an ID for identifying the question is entered in the question ID field 121. FIG. A question text is entered in the question text field 122 . File field 123 specifies the name of the file containing the data. The files are, for example, graded answer data 1202 shown in FIG. 12B and ungraded answer data 1203 shown in FIG. 12C.

入力装置102の操作によって答案データ入力画面1201で保存ボタン124を押すと文書評価装置101は、問題文ID121が合致するデータについて、採点済みの答案データ1202や、未採点の答案データ1203が、データベース(図示省略)に保存される。 When the save button 124 is pressed on the answer data input screen 1201 by operating the input device 102, the document evaluation device 101 saves the graded answer data 1202 and the ungraded answer data 1203 for the data matching the question ID 121 to the database. (not shown).

例えば、採点済み答案データ1202と未採点の答案データ1203は、採点パタン生成用解答文203、採点済み答案データ1202は解答文採点データ213、未採点の答案データ1203は、採点対象データとして、採点対象解答文217に保存される。また、問題文も、各データベースに保存しておく。例えば、前記実施例1の図9A~図9Cに示すようなデータ形式となる。データが入力されると、文書評価装置101の採点パタン生成処理201により、採点パタン215が生成される。 For example, graded answer data 1202 and ungraded answer data 1203 are used as grading pattern generating answer sentences 203, graded answer data 1202 are graded answer data 213, and ungraded answer data 1203 are graded data. It is saved in the target answer sentence 217 . In addition, question sentences are also stored in each database. For example, the data format is as shown in FIGS. 9A to 9C of the first embodiment. When data is input, a marking pattern 215 is generated by the marking pattern generation processing 201 of the document evaluation apparatus 101 .

図13は、文書評価装置101で生成された採点パタン表示画面1301の例を示す図である。採点パタン表示画面1301は、文書評価装置101のユーザが、生成された採点パタン215の編集をするためのメンテナンス用の確認画面である。 FIG. 13 is a diagram showing an example of a grading pattern display screen 1301 generated by the document evaluation apparatus 101. As shown in FIG. A grading pattern display screen 1301 is a confirmation screen for maintenance for the user of the document evaluation apparatus 101 to edit the generated grading pattern 215 .

採点パタン表示画面1301の問題文ID131に問題文IDを入力すると、問題文132に該当する問題文が表示される。採点済み解答文のうち、採点パタンが適用された解答文の数と、その採点パタンによる自動採点の精度(信頼度)が領域1302に表示されている。この例では、採点済み解答文800のうち、450に採点パタン215が適用され、そのうち4/5(80%)が正しく採点できたことを示している。これにより、採点パタン215全体の質を確認することができる。 When the question ID is entered in the question ID 131 of the grading pattern display screen 1301, the question corresponding to the question 132 is displayed. Area 1302 displays the number of graded answer sentences to which a grading pattern has been applied and the accuracy (reliability) of automatic grading based on the grading pattern. In this example, the scoring pattern 215 was applied to 450 out of 800 graded answer sentences, and 4/5 (80%) of them were graded correctly. Thereby, the quality of the entire scoring pattern 215 can be confirmed.

領域1302の下方には、採点パタン一覧133が表示される。採点パタン一覧133は、項番1303と、採点パタン1304と、カバー数1305と、精度(信頼度)1306をひとつのレコードに含む。 A grading pattern list 133 is displayed below the area 1302 . The scoring pattern list 133 includes an item number 1303, a scoring pattern 1304, a cover count 1305, and an accuracy (reliability) 1306 in one record.

項番1303の列は、採点パタンの番号を連番で示したものである。採点パタン1304の列は、採点パタン215に関する簡単な説明が表示される。この説明文の生成方法は、後の図14の説明で詳しく述べる。カバー数1305の列は、採点済み解答文のうち、採点パタンが適用された解答文の数である。精度1306の列は、当該採点パタンが適用された解答文のうち、正しく採点されたものの割合を精度で示す。 The column of the item number 1303 indicates the serial number of the marking pattern. A column of grading pattern 1304 displays a brief description of grading pattern 215 . A method of generating this explanation will be described in detail later in the description of FIG. A column of the number of covers 1305 indicates the number of answer sentences to which the grading pattern is applied, among the graded answer sentences. A column of accuracy 1306 indicates, by accuracy, the percentage of correctly graded answer texts to which the grading pattern is applied.

ページ指定1307は、採点パタンの数が多い場合に、数ページに分割して表示した際、ページを移動するためのボタンである。なお、カバー数や、精度は、採点基準ごとに示す必要があるが、本採点パタン表示画面1301では、煩雑さを避けるため、省略した。また、本採点パタン表示画面1301に、各採点パタンを有効または無効化したり、削除したりする機能を追加するとよい。精度の低い採点パタンやカバー数の少ない採点パタンを無効化/削除することにより、自動採点による採点の質を向上させることができる。 A page designation 1307 is a button for moving pages when the number of marking patterns is large and the display is divided into several pages. Although the number of covers and accuracy must be indicated for each scoring standard, they are omitted in the present scoring pattern display screen 1301 to avoid complication. Further, it is preferable to add a function to enable/disable or delete each grading pattern to the main grading pattern display screen 1301 . By invalidating/deleting scoring patterns with low accuracy or scoring patterns with a small number of covers, the quality of scoring by automatic scoring can be improved.

次に、個々の採点パタンの生成、編集画面について説明する。図13の項番1303を押下することにより、当該採点パタンの編集画面に遷移してもよいし、新たに採点パタンを生成するために、画面遷移するボタンを採点パタン表示画面1301の画面に追加しておいてもよい。 Next, generation and editing screens for individual marking patterns will be described. By pressing the item number 1303 in FIG. 13, the editing screen of the grading pattern may be displayed, and a button for screen transition is added to the grading pattern display screen 1301 in order to generate a new grading pattern. You can keep it.

図14は、採点パタン編集画面の一例を示す図である。採点パタン編集画面1401上部の領域1402には、選択された採点パタンのカバー数と、精度が表示される。説明文1403には、当該採点パタンの説明文が表示される。これは、文書評価装置101のユーザが採点パタンの追加や編集時に生成しても良いし、テンプレートにより自動で生成してもよい。自動で生成する場合には、例えば、図示のように、パタン1404の3項関係と、チェックされた時制をそのまま記載する、などの方法をとることができる。 FIG. 14 is a diagram showing an example of a scoring pattern editing screen. An area 1402 in the upper part of the grading pattern edit screen 1401 displays the number of covers and accuracy of the selected grading pattern. An explanation 1403 displays an explanation of the scoring pattern. This may be generated by the user of the document evaluation apparatus 101 when adding or editing a scoring pattern, or may be automatically generated by a template. In the case of automatic generation, for example, as shown in the figure, it is possible to adopt a method such as describing the ternary relation of the pattern 1404 and the checked tense as they are.

パタン1404には、情報抽出206で抽出された3項関係が表示され、時制1405には、情報表現型推定208で推定された3項関係の時制が表示される。この例では、過去形が該当している。この例は、図4で示した抽象化結果404のような採点パタンの例である。 The pattern 1404 displays the ternary relation extracted in the information extraction 206 , and the tense 1405 displays the tense of the ternary relation estimated in the information phenotypic estimation 208 . In this example, the past tense applies. This example is an example of a scoring pattern like the abstraction result 404 shown in FIG.

なお、採点パタン編集画面1401では、時制1405のみの単純な場合を示したが、情報表現型推定208や情報間関係推定209で解析対象として予め定められた型を、必要に応じて表示してもよい。また、複数の情報抽出による3項関係が採点パタン215に関係する場合には、複数の3項関係をパタン1404に表示することができる。採点パタン215の編集に必要な分だけ項目を増やしてもよい。これにより、文書評価装置101のユーザが採点パタンを細かく編集し、自動採点の質を向上させることができる。 Although the scoring pattern editing screen 1401 shows a simple case of only the tense 1405, a pattern predetermined as an analysis object in the information phenotype estimation 208 and the inter-information relationship estimation 209 can be displayed as necessary. good too. Also, multiple ternary relationships can be displayed in pattern 1404 if multiple information extraction ternary relationships are associated with scoring pattern 215 . The number of items may be increased as needed for editing the scoring pattern 215 . As a result, the user of the document evaluation apparatus 101 can finely edit the grading pattern and improve the quality of automatic grading.

図15は、採点画面1501の一例を示す図である。問題文ID131と、問題文132については、図13に示した採点パタン表示画面1301と同様である。図15の表151には、未採点データの自動採点結果を示す。 FIG. 15 is a diagram showing an example of a scoring screen 1501. As shown in FIG. Question sentence ID 131 and question sentence 132 are the same as those on the grading pattern display screen 1301 shown in FIG. Table 151 in FIG. 15 shows the results of automatic scoring of ungraded data.

表151の解答文ID1502の列には、各解答文のIDが格納される。解答文1503の列には、解答文が格納される。採点基準X1504の列には採点基準Xによる採点結果が表示される。この採点結果は、自動採点の結果、または、ユーザが入力または編集した結果である。未採点の場合には、例えば、空欄にする、などとする。適用パタン1505の列には、適用された採点パタンの項番1303が表示される。適用パタン1505を押下すると、当該パタンの採点パタン編集画面(図14)に遷移してもよい。 The column of answer ID 1502 in table 151 stores the ID of each answer. The column of answer sentences 1503 stores answer sentences. The grading result based on the grading standard X is displayed in the column of the grading standard X 1504 . This scoring result is the result of automatic scoring or the result input or edited by the user. If the item is not graded, it is left blank, for example. In the applied pattern column 1505, item numbers 1303 of applied scoring patterns are displayed. When an applied pattern 1505 is pressed, a transition to the grading pattern edit screen (FIG. 14) of the pattern may be made.

表151の下方には、ページ指定1506が表示される。ページ指定1506は前記図13のページ指定1307と同様であり、解答文の数が多い場合に、数ページに分割して表示した際に、ページを切り替えるためのボタンである。 A page designation 1506 is displayed below the table 151 . A page designation 1506 is the same as the page designation 1307 in FIG. 13, and is a button for switching pages when the number of answer sentences is divided into several pages and displayed.

この採点画面1501を用いて、人手により、自動採点結果を確認または修正したり、自動採点により、未採点の解答文を採点する。なお、ひとつの解答文を採点した際に、同じ、または、類似した解答文も同時に採点する、などの機能を有しておいても良い。例えば、図15の解答文ID1502の解答文について、ユーザにより採点結果が入力または編集された場合に、同じ“I wanted to be a doctor” という別の解答文IDをもつ解答文があった場合に、その解答文にも同様の採点結果を自動的に付与する。 Using this grading screen 1501, the automatic grading result is manually confirmed or corrected, and the ungraded answer is graded by the automatic grading. It should be noted that a function such as grading the same or similar answer sentences at the same time when grading one answer sentence may be provided. For example, when the user inputs or edits the grading results for the answer with the answer ID 1502 in FIG. , the same grading result is automatically assigned to the answer.

これにより、採点を効率化できる。なお、この採点画面1501において、解答文ID1502の順に解答文1503を表示するのではなく、階層クラスタリングの結果(図5)の順に解答文を示しても良い。このように表示の順番をソートすることにより、多数派解答から少数派解答の順に解答文1503が現われ、類似の解答文が連続して現われる、などの効果により、人手による確認や採点が効率的になる。 This makes scoring more efficient. In this grading screen 1501, instead of displaying the answer sentences 1503 in the order of the answer sentence ID 1502, the answer sentences may be displayed in the order of the hierarchical clustering results (FIG. 5). By sorting the display order in this way, the answer sentences 1503 appear in order from the majority answer to the minority answer, and similar answer sentences appear in succession. become.

<まとめ>
なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に記載したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加、削除、又は置換のいずれもが、単独で、又は組み合わせても適用可能である。
<Summary>
In addition, the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the above embodiments are described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the described configurations. In addition, it is possible to replace part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. In addition, addition, deletion, or replacement of other configurations for a part of the configuration of each embodiment can be applied singly or in combination.

また、上記の各構成、機能、処理部、及び処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、及び機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。 Further, each of the above configurations, functions, processing units, processing means, and the like may be realized by hardware, for example, by designing them in an integrated circuit. Further, each of the above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function. Information such as programs, tables, and files that implement each function can be stored in recording devices such as memories, hard disks, SSDs (Solid State Drives), or recording media such as IC cards, SD cards, and DVDs.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, the control lines and information lines indicate those considered necessary for explanation, and not all control lines and information lines are necessarily indicated on the product. In practice, it may be considered that almost all configurations are interconnected.

101 文書評価装置
105 演算装置
106 メモリ
107 補助記憶装置
201 採点パタン生成処理
202 採点処理
203 採点パタン生成用解答文
204 基礎解析
207 高次解析
210 階層クラスタリング
211 クラスタソート
212 採点パタン生成
213 解答文採点データ
214 意味カテゴリ辞書
215 採点パタン
217 採点対象解答文
218 採点結果
101 Document evaluation device 105 Arithmetic device 106 Memory 107 Auxiliary storage device 201 Scoring pattern generation processing 202 Scoring processing 203 Answer text for grading pattern generation 204 Basic analysis 207 Higher order analysis 210 Hierarchical clustering 211 Cluster sorting 212 Scoring pattern generation 213 Answer text grading data 214 semantic category dictionary 215 grading pattern 217 grading target answer text 218 grading result

Claims (11)

メモリに記憶されたプログラムを実行するプロセッサと、前記プロセッサがプログラムの実行時に使用するデータを格納するメモリを有する計算機で構成される文書評価装置であって、
前記プロセッサは、前記プログラムの実行によって以下の機能部として機能するものであって、
前記文書評価装置は、
入力された採点パタン生成用の解答文から形態素と係り受け関係を解析する構文解析部と、
前記解答文から3項関係を抽出する情報抽出部と、
3項関係と、構文解析結果と、3項関係の付加情報である時制、モダリティ、及び日時との関係を教師データとして学習した機械学習モデルを用いて、前記構文解析部の解析結果と、前記情報抽出部が抽出した3項関係から当該3項関係の付加情報を推定する情報表現型推定部と、
構文解析結果と3項関係の相互の関係との関係を教師データとして学習した機械学習モデルを用いて、前記構文解析部の解析結果から前記情報抽出部が抽出した3項関係の相互の関係を推定する情報間関係推定部と、
前記解答文を階層的なクラスタに分類する階層クラスタリング部と、
前記クラスタの大きさに基づいて、前記クラスタをソートするクラスタソート部と、
読み込んだ採点結果に適合する採点条件を採点パタンとして選択する採点パタン生成部と、を有し、
前記階層クラスタリング部は、前記解答文における語句の出現比率と当該語句の重要度を乗じた値を含む特徴行列の類似度によって、前記解答文を階層的なクラスタに分類し、
前記採点パタン生成部は、
単語または語句間の上位下位関係が予め記録された意味カテゴリ辞書を用いて、前記3項関係の各項に含まれる単語または語句を上位概念に置換して、抽象化し、
前記情報抽出部が抽出した3項関係と、前記3項関係の各項の抽象化の程度と、前記情報表現型推定部が解析した前記3項関係の付加情報と、前記情報間関係推定部が推定した前記3項関係の相互の関係を組み合わせた条件のうち、採点結果の一致度が高い条件の解答文を採点パタンとして選択し、
前記クラスタソート部のソート結果に基づいて、所定の閾値以上の解答文を含むクラスタを多数派解答文と判定し、前記閾値未満の解答文を含むクラスタを少数派解答文と判定し、
前記多数派解答文から生成した採点パタンの信頼度を高く設定し、前記少数派解答文から生成した採点パタンの信頼度を低く設定することを特徴とする文書評価装置。
A document evaluation apparatus comprising a processor for executing a program stored in a memory and a computer having a memory for storing data used by the processor when executing the program,
The processor functions as the following functional units by executing the program,
The document evaluation device
a syntactic analysis unit that analyzes morphemes and dependency relationships from an input answer text for generating a scoring pattern;
an information extraction unit that extracts a ternary relation from the answer text;
Using a machine learning model that has learned the relationship between the ternary relation, the syntactic analysis result, and the additional information of the ternary relation, such as tense, modality, and date and time, as training data, the analysis result of the syntactic analysis unit and the an information phenotype estimation unit that estimates additional information of the ternary relationship from the ternary relationship extracted by the information extraction unit;
Using a machine learning model that learns the relationship between the syntactic analysis result and the mutual relationship of the ternary relationship as teacher data, the mutual relationship of the ternary relationship extracted by the information extraction unit from the analysis result of the syntactic analysis unit an inter-information relationship estimating unit for estimating;
a hierarchical clustering unit that classifies the answer sentences into hierarchical clusters;
a cluster sorting unit that sorts the clusters based on the size of the clusters;
a grading pattern generation unit that selects a grading condition suitable for the read grading result as a grading pattern ;
The hierarchical clustering unit classifies the answer sentences into hierarchical clusters according to the similarity of a feature matrix including a value obtained by multiplying the appearance ratio of a word in the answer by the importance of the word,
The scoring pattern generation unit
abstracting by replacing the words or phrases included in each term of the ternary relation with a higher concept using a semantic category dictionary in which superordinate and subordinate relationships between words or phrases are recorded in advance;
The ternary relation extracted by the information extracting unit, the degree of abstraction of each term of the ternary relation, the additional information of the ternary relation analyzed by the information phenotype estimating unit, and the inter-information relation estimating unit Among the conditions that combine the mutual relationships of the three-term relationships estimated by, select the answer sentence of the condition with a high degree of matching of the scoring results as a scoring pattern,
Based on the sorting result of the cluster sorting unit, determining a cluster containing an answer sentence equal to or greater than a predetermined threshold as a majority answer sentence, and determining a cluster containing an answer sentence less than the threshold as a minority answer sentence,
A document evaluation apparatus, wherein the reliability of the marking pattern generated from the majority answer is set high, and the reliability of the marking pattern generated from the minority answer is set low.
請求項1に記載の文書評価装置であって、
採点対象解答文を読み込んで、前記採点パタンに基づいて採点結果を生成する採点部をさらに有することを特徴とする文書評価装置。
The document evaluation device according to claim 1,
A document evaluation apparatus, further comprising a grading unit that reads a grading target answer text and generates a grading result based on the grading pattern.
請求項1に記載の文書評価装置であって、
前記情報抽出部は、前記意味カテゴリ辞書を用いて、前記解答文内の単語または語句を検出し、2つの単語または語句間の関係を表す単語または語句から前記解答文内の2つの単語または語句間の関係を推定し、前記2つの単語または語句と前記関係を表す単語または語句から成る3つの項を前記3項関係として抽出することを特徴とする文書評価装置。
The document evaluation device according to claim 1,
The information extracting unit uses the semantic category dictionary to detect words or phrases in the answer text, and extracts two words or phrases in the answer text from words or phrases that express the relationship between the two words or phrases. 3. A document evaluation apparatus , which estimates a relationship between documents, and extracts three terms consisting of the two words or phrases and a word or phrase representing the relationship as the ternary relationship.
請求項1に記載の文書評価装置であって、 The document evaluation device according to claim 1,
前記採点パタン生成部は、採点パタンと信頼度を表示する画面データを出力することを特徴とする文書評価装置。 The document evaluation apparatus, wherein the grading pattern generation unit outputs screen data displaying the grading pattern and reliability.
メモリに記憶されたプログラムを実行するプロセッサと、前記プロセッサがプログラムの実行時に使用するデータを格納するメモリを有する計算機が、解答文を採点する文書評価方法であって、 A document evaluation method in which a processor that executes a program stored in a memory and a computer that has a memory that stores data used by the processor when executing the program scores answer texts,
前記計算機が、入力された採点パタン生成用の解答文から形態素と係り受け関係を解析する第1のステップと、 a first step in which the calculator analyzes morphemes and dependency relationships from the input answer text for generating scoring patterns;
前記計算機が、前記解答文から3項関係を抽出する第2のステップと、 a second step in which the calculator extracts a ternary relation from the answer text;
前記計算機が、3項関係と、構文解析結果と、3項関係の付加情報である時制、モダリティ、及び日時との関係を教師データとして学習した機械学習モデルを用いて、前記形態素と係り受け関係の解析結果と、前記抽出された3項関係から当該3項関係の付加情報を推定する第3のステップと、 The computer uses a machine learning model that has learned the relationship between the ternary relation, the syntactic analysis result, and the tense, modality, and date and time, which are additional information of the ternary relation, as teacher data, to determine the morpheme and the dependency relation. and a third step of estimating additional information of the ternary relation from the extracted ternary relation;
前記計算機が、構文解析結果と3項関係の相互の関係との関係を教師データとして学習した機械学習モデルを用いて、前記第1のステップにおける解析結果から前記抽出された3項関係の相互の関係を推定する第4のステップと、 The computer uses a machine learning model that has learned the relationship between the syntactic analysis result and the mutual relationship of the ternary relationship as teacher data, and the mutual relationship of the ternary relationship extracted from the analysis result in the first step. a fourth step of estimating relationships;
前記計算機が、前記解答文を階層的なクラスタに分類する第5のステップと、 a fifth step in which the calculator classifies the answer sentences into hierarchical clusters;
前記計算機が、前記クラスタの大きさに基づいて、前記クラスタをソートする第6のステップと、 a sixth step in which the calculator sorts the clusters based on the size of the clusters;
前記計算機が、読み込んだ採点結果に適合する採点条件を採点パタンとして選択する第7のステップと、 a seventh step in which the calculator selects, as a grading pattern, a grading condition that matches the read grading result;
を含み、including
前記第5のステップでは、 In the fifth step,
前記計算機が、前記解答文における語句の出現比率と当該語句の重要度を乗じた値を含む特徴行列の類似度によって、前記解答文を階層的なクラスタに分類し、 The computer classifies the answer sentences into hierarchical clusters according to the similarity of a feature matrix containing a value obtained by multiplying the appearance ratio of a word in the answer by the importance of the word,
前記第7のステップでは、 In the seventh step,
前記計算機が、単語または語句間の上位下位関係が予め記録された意味カテゴリ辞書を用いて、前記3項関係の各項に含まれる単語または語句を上位概念に置換して、抽象化し、 the computer abstracts by replacing the words or phrases included in each term of the ternary relation with a higher concept using a semantic category dictionary in which superordinate and subordinate relationships between words or phrases are recorded in advance;
前記計算機が、前記第2のステップで抽出された3項関係と、前記3項関係の各項の抽象化の程度と、前記第3のステップで解析された前記3項関係の付加情報と、前記第2のステップで推定された前記3項関係の相互の関係を組み合わせた条件のうち、採点結果の一致度が高い条件の解答文を採点パタンとして選択し、 The computer provides the ternary relation extracted in the second step, the degree of abstraction of each term of the ternary relation, and the additional information of the ternary relation analyzed in the third step, Selecting, as a grading pattern, an answer sentence under a condition with a high degree of matching of the grading results from among the conditions combining the mutual relationships of the ternary relationships estimated in the second step,
前記計算機が、前記第6のステップにおけるソート結果に基づいて、所定の閾値以上の解答文を含むクラスタを多数派解答文と判定し、前記閾値未満の解答文を含むクラスタを少数派解答文と判定し、 The calculator determines clusters containing answer sentences equal to or greater than a predetermined threshold as majority answer sentences, and clusters containing answer sentences below the threshold as minority answer sentences, based on the sorting result in the sixth step. judge,
前記計算機が、前記多数派解答文から生成した採点パタンの信頼度を高く設定し、前記少数派解答文から生成した採点パタンの信頼度を低く設定することを特徴とする文書評価方法。 The document evaluation method, wherein the computer sets a high degree of reliability for the marking pattern generated from the majority answer sentences and sets a low reliability for the marking pattern generated from the minority answer sentences.
請求項5に記載の文書評価方法であって、 The document evaluation method according to claim 5,
前記計算機が、採点対象解答文を読み込んで、前記採点パタンに基づいて採点結果を生成する第8のステップを、をさらに含むことを特徴とする文書評価方法。 The document evaluation method, further comprising: an eighth step in which the computer reads the answer sentences to be graded and generates a graded result based on the grading pattern.
請求項5に記載の文書評価方法であって、 The document evaluation method according to claim 5,
前記第2のステップでは、 In the second step,
前記計算機が、前記意味カテゴリ辞書を用いて、前記解答文内の単語または語句を検出し、2つの単語または語句間の関係を表す単語または語句から前記解答文内の2つの単語または語句間の関係を推定し、前記2つの単語または語句と前記関係を表す単語または語句から成る3つの項を前記3項関係として抽出することを特徴とする文書評価方法。 The calculator uses the semantic category dictionary to detect words or phrases in the answer sentence, and from words or phrases that express the relationship between two words or phrases to the relationship between the two words or phrases in the answer sentence. A document evaluation method, wherein a relationship is estimated, and three terms consisting of the two words or phrases and a word or phrase representing the relationship are extracted as the ternary relationship.
請求項5に記載の文書評価方法であって、 The document evaluation method according to claim 5,
前記第7のステップでは、 In the seventh step,
前記計算機が、採点パタンと信頼度を表示する画面データを出力することを特徴とする文書評価方法。 A document evaluation method, wherein the computer outputs screen data displaying the scoring pattern and reliability.
メモリに記憶されたプログラムを実行するプロセッサと、前記プロセッサがプログラムの実行時に使用するデータを格納するメモリを有する計算機で、解答文を採点させるためのプログラムであって、 A computer having a processor that executes a program stored in a memory and a memory that stores data used by the processor when executing the program, and a program for scoring answer texts,
入力された採点パタン生成用の解答文から形態素と係り受け関係を解析する第1のステップと、 a first step of analyzing morphemes and dependency relationships from an input answer text for generating a scoring pattern;
前記解答文から3項関係を抽出する第2のステップと、 a second step of extracting a ternary relation from the answer text;
3項関係と、構文解析結果と、3項関係の付加情報である時制、モダリティ、及び日時との関係を教師データとして学習した機械学習モデルを用いて、前記形態素と係り受け関係の解析結果と、前記抽出された3項関係から当該3項関係の付加情報を推定する第3のステップと、 Using a machine learning model that has learned the relationship between the ternary relation, the syntactic analysis result, and the tense, modality, and date and time that are additional information of the ternary relation as teacher data, the analysis result of the morpheme and the dependency relation and the , a third step of estimating additional information of the ternary relation from the extracted ternary relation;
構文解析結果と3項関係の相互の関係との関係を教師データとして学習した機械学習モデルを用いて、前記第1のステップにおける解析結果から前記抽出された3項関係の相互の関係を推定する第4のステップと、 Estimate the mutual relationship of the ternary relations extracted from the analysis result in the first step using a machine learning model that has learned the relationship between the syntactic analysis result and the mutual relationship of the ternary relations as teacher data. a fourth step;
前記解答文を階層的なクラスタに分類する第5のステップと、 a fifth step of classifying the answer sentences into hierarchical clusters;
前記クラスタの大きさに基づいて、前記クラスタをソートする第6のステップと、 a sixth step of sorting the clusters based on the size of the clusters;
読み込んだ採点結果に適合する採点条件を採点パタンとして選択する第7のステップと、 a seventh step of selecting, as a grading pattern, grading conditions that match the read grading results;
を前記計算機に実行させるためのプログラムであって、A program for causing the computer to execute
前記第5のステップでは、 In the fifth step,
前記解答文における語句の出現比率と当該語句の重要度を乗じた値を含む特徴行列の類似度によって、前記解答文を階層的なクラスタに分類し、 classifying the answer sentences into hierarchical clusters according to the similarity of a feature matrix containing a value obtained by multiplying the appearance ratio of a word in the answer by the importance of the word;
前記第7のステップでは、 In the seventh step,
単語または語句間の上位下位関係が予め記録された意味カテゴリ辞書を用いて、前記3項関係の各項に含まれる単語または語句を上位概念に置換して、抽象化し、 abstracting by replacing the words or phrases included in each term of the ternary relation with a higher concept using a semantic category dictionary in which superordinate and subordinate relationships between words or phrases are recorded in advance;
前記第2のステップで抽出された3項関係と、前記3項関係の各項の抽象化の程度と、前記第3のステップで解析された前記3項関係の付加情報と、前記第2のステップで推定された前記3項関係の相互の関係を組み合わせた条件のうち、採点結果の一致度が高い条件の解答文を採点パタンとして選択し、 The ternary relation extracted in the second step, the degree of abstraction of each term of the ternary relation, the additional information of the ternary relation analyzed in the third step, and the second Selecting, as a grading pattern, an answer sentence under a condition with a high degree of matching of the grading results from among the conditions in which the mutual relationships of the three-term relationships estimated in the step are combined,
前記第6のステップにおけるソート結果に基づいて、所定の閾値以上の解答文を含むクラスタを多数派解答文と判定し、前記閾値未満の解答文を含むクラスタを少数派解答文と判定し、 Based on the sorting result in the sixth step, determining a cluster containing answer texts equal to or greater than a predetermined threshold as majority answer texts, and determining a cluster containing answer texts less than the threshold as minority answer texts,
前記多数派解答文から生成した採点パタンの信頼度を高く設定し、前記少数派解答文から生成した採点パタンの信頼度を低く設定するプログラム。 A program for setting the reliability of a marking pattern generated from the majority answer sentences to a high level and setting the reliability of a marking pattern generated from the minority answer sentences to a low level.
請求項9に記載のプログラムであって、 The program according to claim 9,
採点対象解答文を読み込んで、前記採点パタンに基づいて採点結果を生成する第8のステップを、をさらに含むことを特徴とするプログラム。 The program, further comprising: an eighth step of reading a grading target answer text and generating a grading result based on the grading pattern.
請求項9に記載のプログラムであって、 The program according to claim 9,
前記第2のステップでは、 In the second step,
前記意味カテゴリ辞書を用いて、前記解答文内の単語または語句を検出し、2つの単語または語句間の関係を表す単語または語句から前記解答文内の2つの単語または語句間の関係を推定し、前記2つの単語または語句と前記関係を表す単語または語句から成る3つの項を前記3項関係として抽出することを特徴とするプログラム。 Using the semantic category dictionary, detect words or phrases in the answer sentence, and estimate the relationship between the two words or phrases in the answer sentence from the words or phrases representing the relationship between the two words or phrases. , a program for extracting, as the ternary relation, three terms composed of the two words or phrases and a word or phrase representing the relationship.
JP2019004614A 2019-01-15 2019-01-15 Document evaluation device, document evaluation method and program Active JP7281905B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019004614A JP7281905B2 (en) 2019-01-15 2019-01-15 Document evaluation device, document evaluation method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019004614A JP7281905B2 (en) 2019-01-15 2019-01-15 Document evaluation device, document evaluation method and program

Publications (2)

Publication Number Publication Date
JP2020113129A JP2020113129A (en) 2020-07-27
JP7281905B2 true JP7281905B2 (en) 2023-05-26

Family

ID=71667087

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019004614A Active JP7281905B2 (en) 2019-01-15 2019-01-15 Document evaluation device, document evaluation method and program

Country Status (1)

Country Link
JP (1) JP7281905B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020166539A1 (en) * 2019-02-15 2020-08-20 日本電気株式会社 Grading support device, grading support system, grading support method, and program recording medium
US20220392367A1 (en) * 2020-06-30 2022-12-08 Casio Computer Co., Ltd. Answer evaluation method, recording medium and information processing apparatus
JP7310853B2 (en) * 2020-06-30 2023-07-19 カシオ計算機株式会社 Answer evaluation method, program, program distribution server, and information processing device
JP7387101B2 (en) * 2021-12-09 2023-11-28 株式会社ナスピア Text answer question automatic scoring system and its method
WO2024116974A1 (en) * 2022-11-30 2024-06-06 東京エレクトロン株式会社 Computer program, answer assessment method, answer assessment device, trained model generation method, and trained model generation device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056634A (en) 1999-08-20 2001-02-27 Toshiba Corp Automatic marking system
JP2002140465A (en) 2000-08-21 2002-05-17 Fujitsu Ltd Natural sentence processor and natural sentence processing program
JP2017167413A (en) 2016-03-17 2017-09-21 独立行政法人大学入試センター Marking auxiliary system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001056634A (en) 1999-08-20 2001-02-27 Toshiba Corp Automatic marking system
JP2002140465A (en) 2000-08-21 2002-05-17 Fujitsu Ltd Natural sentence processor and natural sentence processing program
JP2017167413A (en) 2016-03-17 2017-09-21 独立行政法人大学入試センター Marking auxiliary system

Also Published As

Publication number Publication date
JP2020113129A (en) 2020-07-27

Similar Documents

Publication Publication Date Title
JP7281905B2 (en) Document evaluation device, document evaluation method and program
Gambhir et al. Recent automatic text summarization techniques: a survey
Malheiro et al. Emotionally-relevant features for classification and regression of music lyrics
US8484245B2 (en) Large scale unsupervised hierarchical document categorization using ontological guidance
CN113435179B (en) Composition review method, device, equipment and storage medium
RU2686000C1 (en) Retrieval of information objects using a combination of classifiers analyzing local and non-local signs
US20110144978A1 (en) System and method for advancement of vocabulary skills and for identifying subject matter of a document
US20190317986A1 (en) Annotated text data expanding method, annotated text data expanding computer-readable storage medium, annotated text data expanding device, and text classification model training method
JP2011118526A (en) Device for extraction of word semantic relation
JP2004110161A (en) Text sentence comparing device
CN113254593B (en) Text abstract generation method and device, computer equipment and storage medium
Siklósi Using embedding models for lexical categorization in morphologically rich languages
JP2007047974A (en) Information extraction device and information extraction method
JP3847273B2 (en) Word classification device, word classification method, and word classification program
Ruma et al. A deep learning classification model for Persian Hafez poetry based on the poet’s era
JP2006309347A (en) Method, system, and program for extracting keyword from object document
JPWO2016067396A1 (en) Sentence sorting method and calculator
Saeed et al. An abstractive summarization technique with variable length keywords as per document diversity
JP7227705B2 (en) Natural language processing device, search device, natural language processing method, search method and program
Kyjánek Harmonisation of language resources for word-formation of multiple languages
JP5254888B2 (en) Language resource information generating apparatus, method, program, and recording medium
WO2019087593A1 (en) Document retrieval device and method
JP3943005B2 (en) Information retrieval program
Colton Text classification using Python
CN110008307B (en) Method and device for identifying deformed entity based on rules and statistical learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221122

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221122

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20221209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20221212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230425

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230516

R150 Certificate of patent or registration of utility model

Ref document number: 7281905

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150