JP2022032319A - Created sentence evaluation device - Google Patents

Created sentence evaluation device Download PDF

Info

Publication number
JP2022032319A
JP2022032319A JP2020135965A JP2020135965A JP2022032319A JP 2022032319 A JP2022032319 A JP 2022032319A JP 2020135965 A JP2020135965 A JP 2020135965A JP 2020135965 A JP2020135965 A JP 2020135965A JP 2022032319 A JP2022032319 A JP 2022032319A
Authority
JP
Japan
Prior art keywords
word
sentence
evaluation
unit
created
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020135965A
Other languages
Japanese (ja)
Inventor
保静 松岡
Hosei Matsuoka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2020135965A priority Critical patent/JP2022032319A/en
Publication of JP2022032319A publication Critical patent/JP2022032319A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

To provide a created sentence evaluation device capable of evaluating a created sentence created in a predetermined language.SOLUTION: There is provided a created sentence evaluation device that uses a neural network part of an encoder decoder model where an encoder part inputs a sentence of a first language, and a decoder part outputs word candidates of a sentence of a second language corresponding to the sentence of the first language and a likelihood of the word candidates one after another in a predetermined word order different from a word order from a starting word to an ending word of the sentence. The decoder part comprises: a decoder input part which inputs words of the created sentence created in the second language one after another in the predetermined word order; an evaluation part which evaluates the words of the created sentence on the basis of the word candidates of the second language and the likelihood of the word candidates that the decoder part outputs on the basis of input by the decoder input part; and an output part which performs output based on the evaluation by the evaluation part.SELECTED DRAWING: Figure 1

Description

本開示の一側面は、第1言語の文章をユーザが第2言語に翻訳して作成した文章について評価を行う作成文章評価装置に関する。 One aspect of the present disclosure relates to a created sentence evaluation device that evaluates a sentence created by a user translating a sentence in a first language into a second language.

従来、エンコーダ及びデコーダから構成されるエンコーダデコーダモデルのニューラルネットワークを利用した機械翻訳であるニューラル機械翻訳(Neural Machine Translation)が知られている。エンコーダデコーダモデルのニューラルネットワークにおいて、エンコーダは第1言語(例えば日本語)の文章を入力し、デコーダは当該第1言語の文章に対応した第2言語(例えば英語)の文章を翻訳結果として出力する。 Conventionally, neural machine translation (Neural Machine Translation), which is a machine translation using a neural network of an encoder-decoder model composed of an encoder and a decoder, is known. In the neural network of the encoder decoder model, the encoder inputs sentences in the first language (for example, Japanese), and the decoder outputs the sentences in the second language (for example, English) corresponding to the sentences in the first language as translation results. ..

例えば下記特許文献1では、ニューラルネットワークで構成されたエンコーダ及びデコーダを含む自動通訳装置が開示されている。 For example, Patent Document 1 below discloses an automatic interpreter including an encoder and a decoder configured by a neural network.

特開2018-5218号公報Japanese Unexamined Patent Publication No. 2018-5218

上記自動通訳装置は、ユーザが入力した第1言語の文章「江南駅までどのように行きますか?」に対して、翻訳結果である第2言語の文章「How do I get to Gangnam?」を出力する。しかしながら上記自動通訳装置では、例えば、上記第1言語の文章に対してユーザが自分で翻訳して作成した第2言語の文章について、翻訳の適切さ等を評価することはできない。 The above automatic interpreter will input the second language sentence "How do I get to Gangnam?", Which is the translation result, in response to the first language sentence "How do you get to Gangnam Station?" Entered by the user. Output. However, with the automatic interpreter, for example, it is not possible to evaluate the appropriateness of translation of a second language sentence created by the user by translating the first language sentence by himself / herself.

そこで、所定の言語で作成された作成文章を評価することが望まれている。 Therefore, it is desired to evaluate the created sentences created in a predetermined language.

本開示の一側面に係る作成文章評価装置は、エンコーダが第1言語の文章を入力し、デコーダが当該第1言語の文章に対応する第2言語の文章の単語候補及び当該単語候補の尤度を、文章の最初の単語から最後の単語へ順に向かう単語順とは異なる所定の単語順で順次出力する、エンコーダデコーダモデルのリカレントニューラルネットワークを利用する作成文章評価装置であって、デコーダに、第2言語で作成された作成文章の単語を所定の単語順で順次入力するデコーダ入力部と、作成文章の単語を、デコーダ入力部による入力に基づいてデコーダが出力する第2言語の単語候補及び当該単語候補の尤度に基づいて評価する評価部と、評価部による評価に基づく出力を行う出力部と、を備える。 In the created sentence evaluation device according to one aspect of the present disclosure, the encoder inputs a sentence in the first language, and the decoder determines the word candidate of the sentence in the second language corresponding to the sentence in the first language and the likelihood of the word candidate. Is a created sentence evaluation device using a recurrent neural network of an encoder decoder model that sequentially outputs in a predetermined word order different from the word order from the first word to the last word of the sentence. A decoder input unit that sequentially inputs the words of the created sentence created in two languages in a predetermined word order, a second language word candidate that the decoder outputs the words of the created sentence based on the input by the decoder input unit, and the relevant word. It includes an evaluation unit that evaluates based on the likelihood of word candidates, and an output unit that outputs based on the evaluation by the evaluation unit.

このような側面においては、第2言語で作成された作成文章の単語を評価することができる。すなわち、所定の言語で作成された作成文章を評価することができる。 In this aspect, words in written sentences created in a second language can be evaluated. That is, it is possible to evaluate a created sentence created in a predetermined language.

本開示の一側面によれば、所定の言語で作成された作成文章を評価することができる。 According to one aspect of the present disclosure, it is possible to evaluate a written sentence written in a predetermined language.

第1実施形態に係る作成文章評価装置の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the created sentence evaluation apparatus which concerns on 1st Embodiment. 翻訳及び評価の実施例(その1)を示す図である。It is a figure which shows the Example of translation and evaluation (the 1). 翻訳及び評価の実施例(その2)を示す図である。It is a figure which shows the example (No. 2) of translation and evaluation. 第1実施形態に係る作成文章評価装置が実行する処理の一部の一例を示すフローチャートである。It is a flowchart which shows an example of a part of the processing executed by the created sentence evaluation apparatus which concerns on 1st Embodiment. インタフェースの一例を示す図である。It is a figure which shows an example of an interface. 第2実施形態に係る作成文章評価装置の機能構成の一例を示す図である。It is a figure which shows an example of the functional structure of the created sentence evaluation apparatus which concerns on 2nd Embodiment. 第1実施形態及び第2実施形態に係る作成文章評価装置で用いられるコンピュータのハードウェア構成の一例を示す図である。It is a figure which shows an example of the hardware composition of the computer used in the created sentence evaluation apparatus which concerns on 1st Embodiment and 2nd Embodiment.

以下、図面を参照しながら本開示での実施形態を詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。また、以下の説明における本開示での実施形態(第1実施形態及び第2実施形態を含む)は、本発明の具体例であり、特に本発明を限定する旨の記載がない限り、これらの実施形態に限定されないものとする。 Hereinafter, embodiments in the present disclosure will be described in detail with reference to the drawings. In the description of the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted. Further, the embodiments (including the first embodiment and the second embodiment) in the present disclosure in the following description are specific examples of the present invention, and unless otherwise stated to limit the present invention, these embodiments are described. It is not limited to the embodiment.

[第1実施形態]
図1は、第1実施形態に係る作成文章評価装置1の機能構成(機能ブロック)の一例を示す図である。図1に示す通り、作成文章評価装置1は、ニューラルネットワーク部10、対訳コーパス格納部11、問題文章準備部12、エンコーダ入力部13、出力部14(出力部)、作成文章入力部15、デコーダ入力部16(デコーダ入力部)及び評価部17(評価部)を含んで構成される。また、ニューラルネットワーク部10は、エンコーダ部100及びデコーダ部101を含んで構成される。
[First Embodiment]
FIG. 1 is a diagram showing an example of a functional configuration (functional block) of the created text evaluation device 1 according to the first embodiment. As shown in FIG. 1, the created sentence evaluation device 1 includes a neural network unit 10, a bilingual corpus storage unit 11, a problem sentence preparation unit 12, an encoder input unit 13, an output unit 14 (output unit), a created sentence input unit 15, and a decoder. It includes an input unit 16 (decoder input unit) and an evaluation unit 17 (evaluation unit). Further, the neural network unit 10 includes an encoder unit 100 and a decoder unit 101.

作成文章評価装置1は、第1言語の文章を第2言語に翻訳して作成した文章である作成文章について評価を行うコンピュータ装置である。第1言語は、例えば日本語であるが、他のいかなる言語であってもよい。第2言語は、第1言語とは異なる言語であり、例えば英語であるが、他のいかなる言語であってもよい。第1言語と第2言語とは異なる地方の方言(例えば日本における標準語と関西弁)であってもよい。言語は、自然言語に限らず、人工言語及び形式言語(コンピュータのプログラム言語)等であってもよい。作成文章は、作成文章評価装置1のユーザ等の人が作成することを意図しているが、人以外が作成した文章であってもよい。評価とは、作成文章の翻訳としての適切さ(良し悪し、適合度)等を決定することを示す。 The created sentence evaluation device 1 is a computer device that evaluates a created sentence, which is a sentence created by translating a sentence in a first language into a second language. The first language is, for example, Japanese, but may be any other language. The second language is a language different from the first language, for example English, but may be any other language. The first language and the second language may be different local dialects (for example, standard language and Kansai dialect in Japan). The language is not limited to a natural language, but may be an artificial language, a formal language (computer programming language), or the like. The created text is intended to be created by a person such as a user of the created text evaluation device 1, but may be a text created by someone other than the person. The evaluation indicates that the appropriateness (good or bad, goodness of fit) as a translation of the created sentence is determined.

作成文章評価装置1の各機能ブロックは、作成文章評価装置1内にて機能することを想定しているが、これに限るものではない。例えば、作成文章評価装置1の機能ブロックの一部は、作成文章評価装置1とは異なるコンピュータ装置であって、作成文章評価装置1とネットワーク接続されたコンピュータ装置内において、作成文章評価装置1と情報を適宜送受信しつつ機能してもよい。また、作成文章評価装置1の一部の機能ブロックは無くてもよいし、複数の機能ブロックを一つの機能ブロックに統合してもよいし、一つの機能ブロックを複数の機能ブロックに分解してもよい。 Each functional block of the created sentence evaluation device 1 is assumed to function in the created sentence evaluation device 1, but is not limited to this. For example, a part of the functional block of the created sentence evaluation device 1 is a computer device different from the created sentence evaluation device 1, and in the computer device connected to the created sentence evaluation device 1 via the network, the created sentence evaluation device 1 and the created sentence evaluation device 1 It may function while transmitting and receiving information as appropriate. Further, some functional blocks of the created sentence evaluation device 1 may be omitted, a plurality of functional blocks may be integrated into one functional block, or one functional block may be decomposed into a plurality of functional blocks. May be good.

以下、図1に示す作成文章評価装置1の各機能ブロックについて説明する。 Hereinafter, each functional block of the created sentence evaluation device 1 shown in FIG. 1 will be described.

ニューラルネットワーク部10は、エンコーダ部100及びデコーダ部101から構成される、エンコーダデコーダモデル(別名:encoder-decoder翻訳モデル、Sequence to Sequence Model)のリカレントニューラルネットワーク(Recurrent Neural Network、RNN)である。ニューラルネットワーク部10は、例えば、LSTM(Long Short Term Memory)と呼ばれるリカレントニューラルネットワークである。ニューラルネットワーク部10は、ニューラル機械翻訳を行う。なお、ニューラルネットワーク部10は、作成文章評価装置1内ではなく、作成文章評価装置1とネットワークを介して互いにアクセス可能な他の装置内にあってもよい。 The neural network unit 10 is a recurrent neural network (RNN) of an encoder decoder model (also known as an encoder-decoder translation model, Sequence to Sequence Model) composed of an encoder unit 100 and a decoder unit 101. The neural network unit 10 is, for example, a recurrent neural network called LSTM (Long Short Term Memory). The neural network unit 10 performs neural machine translation. The neural network unit 10 may not be in the created sentence evaluation device 1 but in another device that can access each other via the created sentence evaluation device 1 and the network.

エンコーダ部100は、第1言語の文章を入力し、中間層(隠れ層)のベクトルを出力する。より具体的には、エンコーダ部100は、第1言語の文章を形態素解析等により単語に分割し、各単語に対応する単語ID(Word ID)を単語ベクトル(入力層のベクトル)に変換した上で、文章の最初の単語から最後の単語まで順に順次入力し、それまでの入力内容に基づく中間層のベクトルを順次出力する(ニューラルネットワークの計算を行う)。エンコーダ部100は、文章の終わりを示す「<EOS>」を入力した時点で、エンコーダ部100からデコーダ部101に、それまでの入力内容に基づく中間層のベクトルを出力する(渡す)。エンコーダ部100は概念的に、第1言語の文章を意味解析し、意味表現を抽出していると言える。 The encoder unit 100 inputs a sentence in the first language and outputs a vector of an intermediate layer (hidden layer). More specifically, the encoder unit 100 divides a sentence in the first language into words by morphological analysis or the like, converts a word ID (Word ID) corresponding to each word into a word vector (vector of an input layer), and then converts it into words. Then, input sequentially from the first word to the last word of the sentence, and sequentially output the vector of the intermediate layer based on the input contents so far (calculate the neural network). When the encoder unit 100 inputs "<EOS>" indicating the end of the sentence, the encoder unit 100 outputs (passes) the vector of the intermediate layer based on the input contents up to that point to the decoder unit 101. It can be said that the encoder unit 100 conceptually analyzes the meaning of a sentence in the first language and extracts the semantic expression.

デコーダ部101は、エンコーダ部100から出力された中間層のベクトルを入力し、中間層のベクトルに基づいて、又は、中間層のベクトル及びデコーダ部101に入力される第2言語の単語に基づいて、出力層のベクトルを順次計算し、出力する。出力層のベクトルは、例えば、第2言語の単語候補と当該単語候補の尤度との組のリストを示す情報である。当該リストの一例として『(単語候補「I」及びその尤度「0.7」,単語候補「We」及びその尤度「0.2」,単語候補「You」及びその尤度「0.1」)』等が挙げられる。 The decoder unit 101 inputs the vector of the intermediate layer output from the encoder unit 100 and is based on the vector of the intermediate layer, or is based on the vector of the intermediate layer and the word of the second language input to the decoder unit 101. , The vector of the output layer is calculated sequentially and output. The vector of the output layer is, for example, information indicating a list of a set of a word candidate of a second language and the likelihood of the word candidate. As an example of the list, "(word candidate" I "and its likelihood" 0.7 ", word candidate" We "and its likelihood" 0.2 ", word candidate" You "and its likelihood" 0.1 " ")" And the like.

ここで、一般的なエンコーダデコーダモデルのリカレントニューラルネットワークにおいてニューラル機械翻訳を行う際のデコーダ(以下、「一般的デコーダ」と記す)の処理について説明する。一般的デコーダは、まず、エンコーダから出力された中間層のベクトルを入力すると、入力された中間層のベクトルに基づいて、最終的に出力する第2言語の文章のうち1語目(最初の単語)に対応する出力層のベクトルを出力する。一般的デコーダは、以降、N語目(Nは1以上の整数)の出力層のベクトルが示す単語候補のうち尤度が最大の単語を抽出し、抽出した単語を自デコーダ(当該一般的デコーダ)に入力し、入力した単語とN語目の出力層のベクトルの出力を行う際に用いた中間層のベクトルとに基づいて、(N+1)語目の出力層のベクトルを出力する、という処理を、第2言語の文章の最後の単語まで反復する。一般的デコーダは概念的に、エンコーダが抽出した意味表現から、(第1言語とは異なる第2言語の)文章を生成している、と言える。 Here, the processing of the decoder (hereinafter referred to as “general decoder”) when performing neural machine translation in the recurrent neural network of the general encoder decoder model will be described. In a general decoder, first, when the vector of the intermediate layer output from the encoder is input, the first word (first word) of the second language sentence finally output based on the input vector of the intermediate layer. ) Corresponds to the output layer vector. After that, the general decoder extracts the word with the highest likelihood from the word candidates indicated by the vector of the output layer of the Nth word (N is an integer of 1 or more), and uses the extracted word as its own decoder (the general decoder). ), And the vector of the output layer of the (N + 1) word is output based on the input word and the vector of the intermediate layer used when outputting the vector of the output layer of the Nth word. Is repeated until the last word of the sentence in the second language. It can be said that a general decoder conceptually generates a sentence (in a second language different from the first language) from a semantic expression extracted by the encoder.

一方、デコーダ部101は、一般的デコーダとは異なり、第1言語の文章に対応する第2言語の文章の単語候補及び当該単語候補の尤度を、文章の最初の単語から最後の単語へ順に向かう単語順(一般的デコーダが採用している順)とは異なる所定の単語順で順次出力する。所定の単語順は、文章の最後の単語から最初の単語へ順に向かう単語順(逆順)であってもよい。具体的には、文章がM語(Mは1以上の整数)で構成されている場合にM語目、(M-1)語目、(M-2)語目、…、3語目、2語目、1語目の順である。その他にも、所定の単語順は、ランダム順であってもよいし、1語目、M語目、2語目、(M-1)語目、3語目、(M-2)語目、4語目、…、と徐々に文章の真ん中の単語に向かう順でもよいし、その他の任意の順でもよい。本開示での実施形態では、所定の単語順は、上述の逆順とするが、これに限るものではなく、任意の順に適宜読み替えてもよい。 On the other hand, unlike a general decoder, the decoder unit 101 sets the word candidates of the second language sentence corresponding to the sentence of the first language and the likelihood of the word candidates in order from the first word to the last word of the sentence. It outputs sequentially in a predetermined word order different from the word order (the order adopted by a general decoder). The predetermined word order may be a word order (reverse order) from the last word of the sentence to the first word. Specifically, when the sentence is composed of M words (M is an integer of 1 or more), the Mth word, the (M-1)th word, the (M-2)th word, ..., the third word, The order is the second word and the first word. In addition, the predetermined word order may be a random order, the first word, the M word, the second word, the (M-1) word, the third word, and the (M-2) word. The order may be gradually toward the middle word of the sentence, such as the fourth word, ..., Or any other order. In the embodiment of the present disclosure, the predetermined word order is the reverse order described above, but the order is not limited to this, and may be appropriately read in any order.

上記の通り、作成文章評価装置1は、エンコーダ部100が第1言語の文章を入力し、デコーダ部101が当該第1言語の文章に対応する第2言語の文章の単語候補及び当該単語候補の尤度を、逆順(文章の最初の単語から最後の単語へ順に向かう単語順とは異なる所定の単語順)で順次出力する、エンコーダデコーダモデルのニューラルネットワーク部10を利用する。なお、デコーダ部101のその他の機能については後述する。 As described above, in the created sentence evaluation device 1, the encoder unit 100 inputs the sentence in the first language, and the decoder unit 101 is the word candidate of the sentence in the second language corresponding to the sentence in the first language and the word candidate of the word candidate. The neural network unit 10 of the encoder / decoder model that sequentially outputs the likelihood in the reverse order (a predetermined word order different from the word order from the first word to the last word in the sentence) is used. Other functions of the decoder unit 101 will be described later.

対訳コーパス格納部11は、第1言語と第2言語との対訳コーパスを格納する。対訳コーパスとは、機械翻訳の学習データとして利用するために構築された、異なる言語の文章と文章とが対訳の形でまとめられたコーパス(文章のデータベース)である。対訳コーパス格納部11は、第1言語の(任意の)文章と、当該第1言語の文章に対応する(当該第1言語の文章を翻訳した)第2言語の文章を逆順にした文章との組から構成される対訳コーパスである逆順対訳コーパスを格納する。例えば、当該組の一例として、第1言語(日本語)の文章「私はAIが好きです。」と第2言語(英語)の逆順の文章「. AI like I」(逆順ではない通常の文章は「I like AI .」)との組が挙げられる。ニューラルネットワーク部10は、逆順対訳コーパス(第1言語の文章と、当該第1言語の文章に対応する第2言語の文章を逆順にした文章との組のコーパス)に基づいて学習されてもよい。学習は、作成文章評価装置1の管理者の指示に基づいて行われてもよいし、定期的(例えば1週間に1回)に行われてもよい。 The bilingual corpus storage unit 11 stores the bilingual corpus between the first language and the second language. A bilingual corpus is a corpus (sentence database) in which sentences in different languages are summarized in the form of bilingual translations, which is constructed for use as learning data for machine translation. The bilingual corpus storage unit 11 has a sentence in the first language (arbitrary) and a sentence in the second language corresponding to the sentence in the first language (translated from the sentence in the first language) in reverse order. Stores a reverse translation corpus, which is a translation corpus composed of pairs. For example, as an example of the group, the sentence "I like AI" in the first language (Japanese) and the sentence ".AI like I" in the reverse order of the second language (English) (normal sentence that is not in reverse order). Can be paired with "I like AI."). The neural network unit 10 may be learned based on a reverse-order bilingual corpus (a corpus of a sentence in a first language and a sentence in a second language corresponding to the sentence in the first language in reverse order). .. The learning may be performed based on the instruction of the administrator of the created sentence evaluation device 1, or may be performed regularly (for example, once a week).

問題文章準備部12は、ユーザに問題文として提示する第1言語の文章である問題文章を準備する。より具体的には、問題文章準備部12は、対訳コーパス格納部11によって格納された逆順対訳コーパスに含まれる第1言語の文章を抽出する。抽出する第1言語の文章は、ランダムであってもよいし、所定の手順に従ったものでもよい。問題文章準備部12は、対訳コーパス格納部11によって格納された逆順対訳コーパスからではなく、異なる手段又は異なる装置等から問題文章を取得してもよい。問題文章準備部12は、準備した問題文章をエンコーダ入力部13及び出力部14に出力する。 The question sentence preparation unit 12 prepares a question sentence, which is a sentence in the first language to be presented to the user as a question sentence. More specifically, the question sentence preparation unit 12 extracts sentences in the first language included in the reverse-order bilingual corpus stored by the bilingual corpus storage unit 11. The sentences in the first language to be extracted may be random or may follow a predetermined procedure. The question sentence preparation unit 12 may acquire the question sentence from a different means, a different device, or the like, not from the reverse translation corpus stored by the bilingual corpus storage unit 11. The question sentence preparation unit 12 outputs the prepared question sentence to the encoder input unit 13 and the output unit 14.

エンコーダ入力部13は、問題文章準備部12から出力された問題文章をエンコーダ部100に入力する。 The encoder input unit 13 inputs the problem text output from the problem text preparation unit 12 to the encoder unit 100.

出力部14は、問題文章準備部12から出力された問題文章を出力する。より具体的には、出力部14は、後述の出力装置1006(例えば画面)を介して、問題文章をユーザに表示する。出力部14のその他の機能については後述する。 The output unit 14 outputs the question sentence output from the question sentence preparation unit 12. More specifically, the output unit 14 displays the problem text to the user via the output device 1006 (for example, a screen) described later. Other functions of the output unit 14 will be described later.

作成文章入力部15は、第2言語で作成された作成文章を入力する。より具体的には、作成文章入力部15は、出力部14によって問題文章がユーザに表示された後、表示された問題文章をユーザが第2言語に翻訳して作成した作成文章を、後述の入力装置1005(例えばキーボード)を介して入力する。つまり、作成文章は、エンコーダ部100に入力される第1言語の文章をユーザが第2言語に翻訳して作成した文章であってもよい。本開示の実施形態では、作成文章はユーザによって作成されたものを想定するが、ユーザ以外の人や装置によって作成されたものであってもよい。作成文章入力部15は、作成文章をデコーダ入力部16及び評価部17に出力する。 The created text input unit 15 inputs a created text created in a second language. More specifically, the created sentence input unit 15 describes the created sentence created by the user translating the displayed problem sentence into a second language after the problem sentence is displayed to the user by the output unit 14. Input is performed via the input device 1005 (for example, a keyboard). That is, the created sentence may be a sentence created by the user translating the sentence in the first language input to the encoder unit 100 into the second language. In the embodiment of the present disclosure, it is assumed that the created text is created by the user, but it may be created by a person or device other than the user. The created text input unit 15 outputs the created text to the decoder input unit 16 and the evaluation unit 17.

デコーダ入力部16は、デコーダ部101に、作成文章の単語を逆順で順次入力する。より具体的には、デコーダ入力部16は、作成文章入力部15から出力された作成文章を、形態素解析等により単語に分割し、各単語に対応する単語IDを単語ベクトル(入力層のベクトル)に変換した上で逆順に順次(作成文章の最後の単語から最初の単語まで順に)デコーダ部101に入力する。 The decoder input unit 16 sequentially inputs the words of the created sentence into the decoder unit 101 in the reverse order. More specifically, the decoder input unit 16 divides the created sentence output from the created sentence input unit 15 into words by morphological analysis or the like, and the word ID corresponding to each word is a word vector (vector of the input layer). After converting to, it is input to the decoder unit 101 in reverse order (from the last word to the first word in the created sentence).

ここで、デコーダ入力部16は、デコーダ部101に、当該デコーダ部101が(逆順で)順次出力する単語候補の替わりに、上述の通り作成文章の単語を逆順で順次入力する。つまり、一般的デコーダは、当該一般的デコーダから出力された単語(最大の尤度の単語候補)を当該一般的デコーダの次の入力とするが、作成文章評価装置1のデコーダ部101は、作成文章の単語を当該デコーダ部101の入力とする。 Here, the decoder input unit 16 sequentially inputs the words of the created sentence into the decoder unit 101 in the reverse order as described above, instead of the word candidates that the decoder unit 101 sequentially outputs (in the reverse order). That is, the general decoder uses the word output from the general decoder (word candidate with the maximum likelihood) as the next input of the general decoder, but the decoder unit 101 of the creation sentence evaluation device 1 creates. The word of the sentence is used as the input of the decoder unit 101.

デコーダ入力部16の入力に基づくデコーダ部101の処理について具体的に説明する。デコーダ部101は、まず、エンコーダ部100から出力された中間層のベクトルを入力すると、入力された中間層のベクトルに基づいて、最終的に出力する第2言語の文章のうち最後の単語に対応する出力層のベクトルを出力する。デコーダ部101は、以降、デコーダ入力部16によって入力された作成文章のP語目(Pは2以上の整数)の単語を当該デコーダ部101に入力し、入力した単語と前回の出力層のベクトルの出力を行う際に用いた中間層のベクトルとに基づいて、作成文章の(P-1)語目に対応する出力層のベクトルを出力する、という処理を、作成文章の最初の単語(1語目)まで反復する。 The processing of the decoder unit 101 based on the input of the decoder input unit 16 will be specifically described. First, when the vector of the intermediate layer output from the encoder unit 100 is input, the decoder unit 101 corresponds to the last word in the second language sentence finally output based on the input vector of the intermediate layer. Output the vector of the output layer. After that, the decoder unit 101 inputs the word of the Pth word (P is an integer of 2 or more) of the created sentence input by the decoder input unit 16 into the decoder unit 101, and the input word and the vector of the previous output layer. Based on the vector of the intermediate layer used when outputting, the process of outputting the vector of the output layer corresponding to the (P-1) word of the created sentence is performed by the first word (1) of the created sentence. Repeat until the word).

なお、エンコーダ入力部13が問題文章をエンコーダ部100に入力すると、エンコーダ部100が計算を行い、中間層のベクトルをデコーダ部101に出力し、デコーダ部101が入力された中間層のベクトルに基づいて、最終的に出力する第2言語の文章のうち最後の単語に対応する出力層のベクトルを出力するが、以降の処理は、デコーダ入力部16からの作成文章の単語の(逆順の)順次入力があるまで保留する。 When the encoder input unit 13 inputs the problem text to the encoder unit 100, the encoder unit 100 performs a calculation, outputs the vector of the intermediate layer to the decoder unit 101, and the decoder unit 101 is based on the input vector of the intermediate layer. Then, the vector of the output layer corresponding to the last word in the sentence of the second language to be finally output is output, but the subsequent processing is the sequential (reverse order) of the words of the created sentence from the decoder input unit 16. Hold until there is input.

評価部17は、作成文章の単語を、デコーダ入力部16による入力に基づいてデコーダ部101が出力する第2言語の単語候補及び当該単語候補の尤度に基づいて評価(スコア化、点数化)し、評価結果を出力部14に出力する。評価部17は、デコーダ入力部16によって入力された作成文章の単語である入力単語に対してデコーダ部101が出力する第2言語の単語候補及び当該単語候補の尤度に基づいて、作成文章における入力単語の逆順での次の単語を評価してもよい。 The evaluation unit 17 evaluates the words in the created sentence based on the word candidates of the second language output by the decoder unit 101 based on the input by the decoder input unit 16 and the likelihood of the word candidates (scoring, scoring). Then, the evaluation result is output to the output unit 14. The evaluation unit 17 in the created sentence is based on the word candidate of the second language output by the decoder unit 101 and the likelihood of the word candidate for the input word which is the word of the created sentence input by the decoder input unit 16. You may evaluate the next word in the reverse order of the input word.

より具体的には、まず、評価部17は、デコーダ入力部16によって入力された作成文章のP語目の単語(入力単語)に対してデコーダ部101が出力する第2言語の単語候補及び当該単語候補の尤度を取得する。次に、評価部17は、作成文章入力部15から出力された当該作成文章におけるP語目の単語の逆順での次の単語である(P-1)語目の単語を取得する。次に、評価部17は、取得した単語候補及び当該単語候補の尤度のうち、(P-1)語目の単語と同一の単語候補に紐付く尤度を、(P-1)語目の単語の尤度として取得する。次に、評価部17は、取得した単語候補及び当該単語候補の尤度のうち、最大の尤度(翻訳として最も適切な単語候補の尤度)を取得する。次に、評価部17は、取得した(P-1)語目の単語の尤度を取得した最大の尤度で除算した値(尤度比率)を、作成文章の(P-1)語目の評価値として算出する。次に、評価部17は、算出した評価値を出力部14に出力する。なお、評価値の算出は、上述の除算に限るものではなく、例えば、(P-1)語目の単語の尤度と最大の尤度(又は、取得した単語候補及び当該単語候補の尤度のうち、所定の基準によって取得された尤度)との比較に基づくいかなる算出であってもよいし、尤度に基づくその他の算出であってもよい。 More specifically, first, the evaluation unit 17 outputs a second language word candidate and the word candidate of the second language output by the decoder unit 101 with respect to the P-th word (input word) of the created sentence input by the decoder input unit 16. Get the likelihood of a word candidate. Next, the evaluation unit 17 acquires the word (P-1) of the next word in the reverse order of the word of the P word in the created sentence output from the created sentence input unit 15. Next, the evaluation unit 17 determines the likelihood of associating the acquired word candidate and the likelihood of the word candidate with the same word candidate as the word of the (P-1) th word in the (P-1) th word. Get as the likelihood of the word. Next, the evaluation unit 17 acquires the maximum likelihood (the likelihood of the most appropriate word candidate for translation) among the acquired word candidates and the likelihood of the word candidate. Next, the evaluation unit 17 divides the likelihood of the acquired (P-1) word by the acquired maximum likelihood (likelihood ratio) into the (P-1) word of the created sentence. Calculated as the evaluation value of. Next, the evaluation unit 17 outputs the calculated evaluation value to the output unit 14. The calculation of the evaluation value is not limited to the above-mentioned division, and for example, the likelihood of the word (P-1) and the maximum likelihood (or the obtained word candidate and the likelihood of the word candidate). Of these, any calculation may be made based on the comparison with the likelihood obtained according to a predetermined standard, or any other calculation based on the likelihood may be used.

評価部17は、作成文章の各単語の評価値に基づく当該作成文章(全体)の評価値を算出し、出力部14に出力してもよい。例えば、評価部17は、作成文章の各単語の評価値を平均した平均評価値を、当該作成文章の評価値として算出する。 The evaluation unit 17 may calculate the evaluation value of the created sentence (whole) based on the evaluation value of each word of the created sentence and output it to the output unit 14. For example, the evaluation unit 17 calculates an average evaluation value obtained by averaging the evaluation values of each word of the created sentence as the evaluation value of the created sentence.

評価部17は、取得した単語候補及び当該単語候補の尤度の一部、又は全てを出力部14に出力してもよい。例えば、評価部17は、取得した単語候補及び当該単語候補の尤度のうち、尤度が所定の基準よりも大きい単語候補、又は、尤度が最大の単語候補を出力部14に出力する。 The evaluation unit 17 may output the acquired word candidate and a part or all of the likelihood of the word candidate to the output unit 14. For example, the evaluation unit 17 outputs, among the acquired word candidates and the likelihoods of the word candidates, a word candidate having a likelihood higher than a predetermined reference or a word candidate having the maximum likelihood to the output unit 14.

出力部14は、評価部17による評価に基づく出力を行う。より具体的には、出力部14は、評価部17から出力された評価結果に基づく出力を行う。出力部14は、評価部17から出力された作成文章の単語の評価値(スコア)を(単語ごとに)表示してもよい。出力部14は、評価部17から出力された作成文章(全体)の評価値(総合スコア)を表示してもよい。出力部14は、評価部17から出力された作成文章の単語の評価値に基づいた当該単語の表示を行ってもよい。例えば、出力部14は、評価値が所定の基準よりも低い単語については当該単語の色や大きさ等を変えて表示する。出力部14は、作成文章の単語に対する別候補(単語ごとの最適単語)として、評価部17から出力された、尤度が所定の基準よりも大きい単語候補、又は、尤度が最大の単語候補を表示してもよい。出力部14は、上述の表示方法を一つ以上組み合わせて表示してもよい。例えば、出力部14は、評価値が所定の基準よりも低い単語について、別候補として尤度が最大の単語候補をあわせて表示してもよい。出力部14は、対訳コーパス格納部11によって格納された逆順対訳コーパスを参照することで、問題文章に対する模範解答を取得し、表示してもよい。なお、出力部14は、出力に必要な各種情報を、他の機能ブロックから適宜取得するものとする。また、出力部14の機能の一部は、評価部17に組み込まれていてもよい。すなわち、評価部17は、評価を行うと共に、評価結果を直接出力してもよい。 The output unit 14 outputs based on the evaluation by the evaluation unit 17. More specifically, the output unit 14 outputs based on the evaluation result output from the evaluation unit 17. The output unit 14 may display the evaluation value (score) of the word of the created sentence output from the evaluation unit 17 (for each word). The output unit 14 may display the evaluation value (total score) of the created sentence (overall) output from the evaluation unit 17. The output unit 14 may display the word based on the evaluation value of the word in the created sentence output from the evaluation unit 17. For example, the output unit 14 displays a word whose evaluation value is lower than a predetermined reference by changing the color, size, or the like of the word. The output unit 14 is a word candidate whose likelihood is larger than a predetermined standard or a word candidate whose likelihood is the maximum, which is output from the evaluation unit 17 as another candidate (optimal word for each word) for the word in the created sentence. May be displayed. The output unit 14 may display a combination of one or more of the above display methods. For example, the output unit 14 may also display a word candidate having the maximum likelihood as another candidate for a word whose evaluation value is lower than a predetermined criterion. The output unit 14 may acquire and display a model answer to the question sentence by referring to the reverse translation corpus stored by the bilingual corpus storage unit 11. In addition, the output unit 14 shall appropriately acquire various information necessary for output from other functional blocks. Further, a part of the functions of the output unit 14 may be incorporated in the evaluation unit 17. That is, the evaluation unit 17 may perform evaluation and directly output the evaluation result.

図2及び図3は、作成文章評価装置1における翻訳及び評価の実施例を示す図である。なお、図2及び図3に示すニューラルネットワーク部10の一例は、本来1つの図で示すべきものであるが、大きさの関係上、ニューラルネットワーク部10の一例の約左半分を図2に示し、ニューラルネットワーク部10の一例の約右半分を図3に示している。 2 and 3 are diagrams showing examples of translation and evaluation in the created sentence evaluation device 1. The example of the neural network unit 10 shown in FIGS. 2 and 3 should be shown in one figure, but due to the size, about the left half of the example of the neural network unit 10 is shown in FIG. , About the right half of an example of the neural network unit 10 is shown in FIG.

図2及び図3に示す実施例では、問題文章「私はAIが好きです。」をユーザに提示し、ユーザが作成文章「My favorite is AI.」を作成した場合の採点(評価)例を示す。なお、問題文章「私はAIが好きです。」に対する模範解答は「I like AI.」である。図2に示す通り、まず、問題文章「私はAIが好きです。」を単語に分割すると、「私」、「は」、「AI」、「が」、「好き」、「です」、「。」になる。これら単語を(最初の単語から最後の単語へ向かって)順番にエンコーダ部100に入力する。単語「。」の後には、文章の終わりを示す「<EOS>」記号を入力する。「<EOS>」記号を入力すると、ニューラルネットワーク部10は、デコーダ部101から単語候補及び当該単語候補の尤度を出力し始める(出力層をSoftmax関数等で尤度計算するものとする)。 In the examples shown in FIGS. 2 and 3, an example of scoring (evaluation) when the question sentence "I like AI" is presented to the user and the user creates the created sentence "My favorite is AI." show. The model answer to the question sentence "I like AI." Is "I like AI.". As shown in Fig. 2, first, if the question sentence "I like AI" is divided into words, "I", "ha", "AI", "ga", "like", "is", "is", " ."become. These words are input to the encoder unit 100 in order (from the first word to the last word). After the word ".", Enter the "<EOS>" symbol indicating the end of the sentence. When the "<EOS>" symbol is input, the neural network unit 10 starts to output the word candidate and the likelihood of the word candidate from the decoder unit 101 (the output layer is calculated with the Softmax function or the like).

続いて図3に示す通り、最初に出力される単語候補は、尤度が一番高い「.」になる。ユーザが作成した作成文章の最後の単語も「.」なので、同じ尤度であるため(同じ尤度同士の除算により)点数は「1.00」となる。次に、ユーザが作成した(最後の)単語「.」をデコーダ部101の入力として入力する(ユーザが作成した作成文章は単語ごとにデコーダ部101に逆順で順次入力される)。すると、デコーダ部101によって出力される単語候補は、尤度が一番高い「AI」になる。ユーザが作成した作成文章の最後から2番目の単語も「AI」なので、同じ尤度であるため点数は「1.00」となる。次に、ユーザが作成した(最後から2番目の)単語「AI」をデコーダ部101の入力として入力する。すると、デコーダ部101の出力は、「like」が最も尤度が高く、尤度「0.75」とでる。しかし、ユーザが作成した(逆順で「AI」の次の)単語は「is」であり、この単語は尤度が「0.15」であった。したがって、「is」の尤度を「like」の尤度で割って、「0.20」が「is」の点数(評価値)となる。次に、デコーダ部101の入力としては「like」ではなく、「is」を入れる。すると、デコーダ部101の出力は、最も尤度が高い「favorite」がでてくる。ユーザが作成した(最後から3番目の)単語も「favorite」であるため、点数は「1.0」となる。このように逆順で順次単語ごとに点数を計算していく。 Subsequently, as shown in FIG. 3, the word candidate output first is ".", Which has the highest likelihood. Since the last word of the created sentence created by the user is also ".", The score is "1.00" because the likelihoods are the same (by division between the same likelihoods). Next, the (last) word "." Created by the user is input as an input of the decoder unit 101 (the created sentence created by the user is sequentially input to the decoder unit 101 for each word in reverse order). Then, the word candidate output by the decoder unit 101 becomes "AI" having the highest likelihood. Since the penultimate word of the created sentence created by the user is also "AI", the score is "1.00" because the likelihood is the same. Next, the user-created (second to last) word "AI" is input as input to the decoder unit 101. Then, as for the output of the decoder unit 101, "like" has the highest likelihood, and the likelihood is "0.75". However, the user-created word (in reverse order, following "AI") was "is", which had a likelihood of "0.15". Therefore, the likelihood of "is" is divided by the likelihood of "like", and "0.20" is the score (evaluation value) of "is". Next, "is" is input instead of "like" as the input of the decoder unit 101. Then, the output of the decoder unit 101 has the highest likelihood of "favorite". Since the user-created (third from the last) word is also "favorite", the score is "1.0". In this way, the score is calculated for each word in reverse order.

図4は、作成文章評価装置1が実行する処理(作成文章評価方法)の一部の一例を示すフローチャートである。まず、エンコーダ入力部13により、問題文章(の単語)がエンコーダ部100の入力層に入力される(ステップS1)。次に、エンコーダ部100により、次の入力単語が「<EOS>」であるか否かが判定され(ステップS2)、次の入力単語が「<EOS>」でないと判定された場合(S2:NO)、次の入力単語についてS1の処理に戻る。一方、次の入力単語が「<EOS>」であると判定された場合(S2:YES)、続いて、デコーダ部101により、出力層からSoftmaxで解答文章(最終的に出力する第2言語の文章)の単語(候補単語)の尤度が算出される(ステップS3)。次に、評価部17により、作成文章の単語と尤度とが比較され、尤度比率が単語スコアとして計算される(ステップS4)。次に、デコーダ部101により、作成文章の逆順での次の単語が無いかあるかが判定され(ステップS5)、次の単語があると判定された場合(S5:NO)、デコーダ入力部16により、作成文章の単語がデコーダ部101の次の入力として入力され(ステップS6)、S3の処理に戻る。一方、次の単語が無いと判定された場合(S5:YES)、評価部17により、各単語の単語スコアが平均され、文章(作成文章)として総合スコアが計算される(ステップS7)。次に、出力部14により、各単語ごとの単語スコアと、作成文章の総合スコアとが出力される(ステップS8)。 FIG. 4 is a flowchart showing an example of a part of the process (created sentence evaluation method) executed by the created sentence evaluation device 1. First, the encoder input unit 13 inputs the problem sentence (word) to the input layer of the encoder unit 100 (step S1). Next, when the encoder unit 100 determines whether or not the next input word is "<EOS>" (step S2), and determines that the next input word is not "<EOS>" (S2 :). NO), the process returns to S1 for the next input word. On the other hand, when it is determined that the next input word is "<EOS>" (S2: YES), the decoder unit 101 subsequently outputs the answer sentence (finally output second language) from the output layer with Softmax. The likelihood of the word (candidate word) of the sentence) is calculated (step S3). Next, the evaluation unit 17 compares the words in the created sentence with the likelihood, and the likelihood ratio is calculated as a word score (step S4). Next, the decoder unit 101 determines whether or not there is the next word in the reverse order of the created sentence (step S5), and if it is determined that there is the next word (S5: NO), the decoder input unit 16 Then, the word of the created sentence is input as the next input of the decoder unit 101 (step S6), and the process returns to the process of S3. On the other hand, when it is determined that there is no next word (S5: YES), the evaluation unit 17 averages the word scores of each word and calculates the total score as a sentence (created sentence) (step S7). Next, the output unit 14 outputs the word score for each word and the total score of the created sentence (step S8).

図5は、作成文章評価装置1のインタフェースの一例(画面例)を示す図である。図5に示すインタフェースは、日本語(第1言語)の問題文章をユーザに提示し、問題文章に対してユーザが英作文した英語(第2言語)の作成文章を入力し、作成文章を採点するものである。参照符号Aは、問題文章「つまり、それは学生の成績を上げる可能性があります。」を示す。参照符号Bは、ユーザがテキストボックスに入力した作成文章「Because, there is a possibility that the student’s grade will improve.」を示す。参照符号Cが示す「採点」ボタンをユーザが押下することで採点が実行される。なお、以降で説明する参照符号D、E、F及びHが示す情報については、採点が実行された後に表示される。 FIG. 5 is a diagram showing an example (screen example) of the interface of the created sentence evaluation device 1. The interface shown in FIG. 5 presents a Japanese (first language) question sentence to the user, inputs the English (second language) composition sentence written by the user to the question sentence, and scores the created sentence. It is something to do. Reference numeral A indicates the question sentence "that is, it may improve the student's grades." Reference numeral B indicates a created sentence "Because, there is a possibility that the student's grade will improve." Entered by the user in the text box. The scoring is executed when the user presses the "scoring" button indicated by the reference code C. The information indicated by the reference numerals D, E, F and H described below is displayed after the scoring is executed.

参照符号Dは、採点結果としての作成文章の総合スコアである、「10.00」点満点中の「8.21」点を示す。なお、参照符号Dの周辺には、総合スコアに対応したキャラクタ画像が表示されてもよい。参照符号Eは、作成文章であって、採点の結果、評価値が所定の基準よりも低い単語(図5では単語「Because」)については太字で(又は色を変えて)表示された作成文章を示す。参照符号Fは、上述の評価値が所定の基準よりも低い単語に対する別候補として、尤度が最大の単語候補で構成される熟語(図5では熟語「In short」)を示す。参照符号Gが示す「模範解答を見る」ボタンをユーザが押下することで、問題文章に対する模範解答が表示される。参照符号Hは、表示された模範解答「In short, there is a possibility that the student's grade will improve.」を示す。 Reference numeral D indicates "8.21" points out of "10.00" points, which is the total score of the prepared sentence as a scoring result. A character image corresponding to the total score may be displayed around the reference numeral D. The reference code E is a created sentence, and as a result of scoring, words whose evaluation value is lower than a predetermined standard (word “Because” in FIG. 5) are displayed in bold (or in different colors). Is shown. Reference numeral F indicates a compound word (in FIG. 5, the compound word “In short”) composed of the word candidate having the maximum likelihood as another candidate for the word whose evaluation value is lower than the predetermined criterion. When the user presses the "view model answer" button indicated by the reference code G, the model answer to the question sentence is displayed. Reference numeral H indicates the displayed model answer "In short, there is a possibility that the student's grade will improve."

次に、第1実施形態に係る作成文章評価装置1の作用効果について説明する。 Next, the operation and effect of the created sentence evaluation device 1 according to the first embodiment will be described.

作成文章評価装置1によれば、デコーダ入力部16は、デコーダ部101に第2言語で作成された作成文章の単語を逆順で順次入力し、評価部17は、作成文章の単語を、デコーダ入力部16による入力に基づいてデコーダ部101が出力する第2言語の単語候補及び当該単語候補の尤度に基づいて評価し、出力部14は、評価部17による評価に基づく出力を行う。より具体的には、評価部17は、デコーダ入力部16によって入力された作成文章の単語である入力単語に対してデコーダ部101が出力する第2言語の単語候補及び当該単語候補の尤度に基づいて、作成文章における入力単語の逆順での次の単語を評価する。これにより、第2言語で作成された作成文章の単語を評価することができる。すなわち、所定の言語で作成された作成文章を評価することができる。また、ユーザが作文した作成文章を、単語ごとに評価することができる。 According to the created sentence evaluation device 1, the decoder input unit 16 sequentially inputs the words of the created sentence created in the second language into the decoder unit 101 in the reverse order, and the evaluation unit 17 inputs the words of the created sentence into the decoder unit. Based on the input by the unit 16, evaluation is performed based on the word candidate of the second language output by the decoder unit 101 and the likelihood of the word candidate, and the output unit 14 outputs based on the evaluation by the evaluation unit 17. More specifically, the evaluation unit 17 determines the word candidate of the second language output by the decoder unit 101 and the likelihood of the word candidate with respect to the input word which is the word of the created sentence input by the decoder input unit 16. Based on, evaluate the next word in reverse order of the input word in the created sentence. This makes it possible to evaluate words in a written sentence created in a second language. That is, it is possible to evaluate a created sentence created in a predetermined language. In addition, the created sentence created by the user can be evaluated word by word.

また、作成文章評価装置1によれば、デコーダ入力部16は、デコーダ部101に、デコーダ部101が順次出力する単語候補の替わりに作成文章の単語を逆順で順次入力する。これにより、エンコーダ部100で問題文章の意味を把握しておきながら、ユーザが作成した作成文章の単語列に対して、逆順で次にくる最もふさわしい単語を推定することができる。また、問題文章の意味をとらえながら、ユーザが選んだ表現の単語に基づいて、逆順で次の単語を推定するため、表現の自由度もある評価が可能となる。 Further, according to the created sentence evaluation device 1, the decoder input unit 16 sequentially inputs the words of the created sentence into the decoder unit 101 in reverse order instead of the word candidates sequentially output by the decoder unit 101. As a result, the encoder unit 100 can estimate the most suitable word that comes next in the reverse order with respect to the word string of the created sentence created by the user while grasping the meaning of the problem sentence. In addition, since the next word is estimated in the reverse order based on the word of the expression selected by the user while grasping the meaning of the problem sentence, it is possible to evaluate with a degree of freedom of expression.

また、作成文章評価装置1によれば、作成文章は、エンコーダ部100に入力される第1言語の文章をユーザが第2言語に翻訳して作成した文章である。これにより、ユーザが第1言語の文章を翻訳した第2言語の文章について、その翻訳を評価することができる。 Further, according to the created sentence evaluation device 1, the created sentence is a sentence created by the user translating the sentence of the first language input to the encoder unit 100 into the second language. Thereby, the user can evaluate the translation of the text of the second language, which is the translation of the text of the first language.

また、作成文章評価装置1によれば、ニューラルネットワーク部10は、第1言語の文章と、当該第1言語の文章に対応する第2言語の文章を逆順にした文章との組のコーパスに基づいて学習される。これにより、エンコーダ部100への第1言語の文章の入力により、デコーダ部101は、当該第1言語の文章に対応する第2言語の文章の単語候補及び当該単語候補の尤度を、逆順で(当該第2言語の文章の最後の単語から最初の単語に向かって)順次出力することができる。 Further, according to the created sentence evaluation device 1, the neural network unit 10 is based on a corpus of a set of sentences in a first language and sentences in a second language corresponding to the sentences in the first language in reverse order. To be learned. As a result, when the sentence of the first language is input to the encoder unit 100, the decoder unit 101 determines the word candidate of the sentence of the second language corresponding to the sentence of the first language and the likelihood of the word candidate in the reverse order. It is possible to output sequentially (from the last word to the first word in the sentence of the second language).

また、作成文章評価装置1によれば、所定の単語順は、文章の最後の単語から最初の単語へ順に向かう単語順である。これにより、文章の先頭からだけでなく、後方からでも評価(採点、添削など)を行うことができる。文章の後方から評価を行うことが可能になれば、前方だけが間違っている(評価値が所定の基準よりも低い)作成文章に対しても前方のみの修正などが可能になる。 Further, according to the created sentence evaluation device 1, the predetermined word order is a word order from the last word to the first word in the sentence. This makes it possible to evaluate (scoring, correction, etc.) not only from the beginning of the sentence but also from the back. If it becomes possible to evaluate from the back of a sentence, it will be possible to correct only the front of a created sentence that is wrong only in the front (evaluation value is lower than a predetermined standard).

以下、具体的に説明する。一般的に、文章の先頭の方だけが間違っていて、後方は合っている作成文章も多々ある。文章の先頭から単語単位で評価を行う場合、先頭の間違った単語から全て評価してしまうため、ユーザの作成文章(後方)が活かされない。例えば、問題文章「つまり、それは学生の成績を上げる可能性があります。」に対して、ユーザが作成した作成文章が「Because, there is a possibility that the student's grade will improve.」である場合、例えば、点数は「10.00」点満点中「5.92」で、添削後の文章は「This means that it can increase their academic performance.」となる。このように、ユーザが作成した作成文章は、問題文章のうち「つまり、」の翻訳以外はだいたい合っているが、点数は低く、添削後の文章に至っては全書き直しとなっている。つまり、「Because」だけを直せば良いのに、全部直してしまう。 Hereinafter, a specific description will be given. In general, there are many written sentences in which only the beginning of the sentence is wrong and the end is correct. When evaluating from the beginning of a sentence on a word-by-word basis, all the wrong words at the beginning are evaluated first, so the sentence created by the user (backward) is not utilized. For example, if the user-created text is "Because, there is a possibility that the student's grade will improve." For the question text "That is, it may improve the student's grade." , The score is "5.92" out of a maximum of "10.00", and the corrected text is "This means that it can increase their academic performance." In this way, the created sentences created by the user are generally correct except for the translation of "that is" among the problem sentences, but the score is low, and the corrected sentences are completely rewritten. In other words, you only have to fix "Because", but you fix everything.

一方、作成文章評価装置1で上記作成文章を評価を行うと、例えば、添削後の文章は「In short, there is a possibility that the student's grade will improve.」となる。つまり、「Because」の部分だけの修正を行うので、ユーザの回答が活かされている。 On the other hand, when the above-mentioned created sentence is evaluated by the created sentence evaluation device 1, for example, the corrected sentence becomes "In short, there is a possibility that the student's grade will improve.". In other words, since only the "Because" part is modified, the user's answer is utilized.

また、作成文章評価装置1によれば、評価部17及び出力部14は、作成文章の単語の評価値を表示する、作成文章の単語の評価値に基づいた当該単語の表示を行う、作成文章の単語に対する別候補として、尤度が所定の基準よりも大きい単語候補、又は、尤度が最大の単語候補を表示する、及び、作成文章の各単語の評価値に基づく当該作成文章の評価値を表示する。これにより、評価だけではなく、よりよい翻訳を行うためのユーザへのアドバイスが可能となる等、ユーザへのフィードバック学習も可能となる。 Further, according to the created sentence evaluation device 1, the evaluation unit 17 and the output unit 14 display the evaluation value of the word in the created sentence, display the word based on the evaluation value of the word in the created sentence, and display the created sentence. As another candidate for the word, the word candidate whose likelihood is higher than the predetermined criterion or the word candidate whose likelihood is the maximum is displayed, and the evaluation value of the created sentence based on the evaluation value of each word of the created sentence. Is displayed. This enables not only evaluation but also feedback learning to the user, such as giving advice to the user for better translation.

なお、作成文章評価装置1において、作成文章入力部15は、作成文章を、ユーザの全ての単語入力が終わるのを待たずに、リアルタイムで作成文章の各単語をデコーダ入力部16及び評価部17に出力してもよい。そして、出力部14による出力は、評価部17から評価結果が出力されるたびにリアルタイムで行ってもよい。これにより、ユーザが作成文章を入力中にその時点での評価及び最適単語が表示されることになるため、作成文章を全て入力し終わってしらばく時間が経った後に評価や最適単語が表示されるのに比べて、ユーザにとって学習効果が高い学習ツールとしての役割を果たすことができる。 In the created sentence evaluation device 1, the created sentence input unit 15 inputs each word of the created sentence in real time into the decoder input unit 16 and the evaluation unit 17 without waiting for the user to finish inputting all the words. It may be output to. Then, the output by the output unit 14 may be performed in real time each time the evaluation result is output from the evaluation unit 17. As a result, the evaluation and the optimum word at that time are displayed while the user is inputting the created sentence, so that the evaluation and the optimum word are displayed after a long time has passed after inputting all the created sentences. It can play a role as a learning tool with a high learning effect for the user.

[第2実施形態]
図6は、第2実施形態に係る作成文章評価装置1Aの機能構成(機能ブロック)の一例を示す図である。図6に示す通り、作成文章評価装置1Aは、ニューラルネットワーク部10、ニューラルネットワーク部10A、対訳コーパス格納部11A、問題文章準備部12、エンコーダ入力部13A、出力部14A(出力部)、作成文章入力部15、デコーダ入力部16A(デコーダ入力部)、評価部17A(評価部、追加評価部)及び受付部18A(受付部)を含んで構成される。また、ニューラルネットワーク部10は、エンコーダ部100及びデコーダ部101を含んで構成される。ニューラルネットワーク部10Aは、エンコーダ部100A及びデコーダ部101Aを含んで構成される。
[Second Embodiment]
FIG. 6 is a diagram showing an example of a functional configuration (functional block) of the created text evaluation device 1A according to the second embodiment. As shown in FIG. 6, the created sentence evaluation device 1A includes a neural network unit 10, a neural network unit 10A, a bilingual corpus storage unit 11A, a problem sentence preparation unit 12, an encoder input unit 13A, an output unit 14A (output unit), and a created sentence. It includes an input unit 15, a decoder input unit 16A (decoder input unit), an evaluation unit 17A (evaluation unit, additional evaluation unit), and a reception unit 18A (reception unit). Further, the neural network unit 10 includes an encoder unit 100 and a decoder unit 101. The neural network unit 10A includes an encoder unit 100A and a decoder unit 101A.

以降では、作成文章評価装置1Aについて、第1実施形態に係る作成文章評価装置1との主な差分について説明し、同様の内容については説明を適宜省略する。 Hereinafter, the main differences between the created text evaluation device 1A and the created text evaluation device 1 according to the first embodiment will be described, and the description of the same contents will be omitted as appropriate.

ニューラルネットワーク部10A、エンコーダ部100A及びデコーダ部101Aは、それぞれニューラルネットワーク部10、エンコーダ部100及びデコーダ部101とほぼ同様である。主な差分は、デコーダ部101Aは、一般的デコーダと同様に、第1言語の文章に対応する第2言語の文章の単語候補及び当該単語候補の尤度を、文章の最初の単語から最後の単語へ順(以降「正順」と呼ぶ)に向かう単語順で順次出力する点である。 The neural network unit 10A, the encoder unit 100A, and the decoder unit 101A are substantially the same as the neural network unit 10, the encoder unit 100, and the decoder unit 101, respectively. The main difference is that the decoder unit 101A, like a general decoder, sets the word candidates of the second language sentence corresponding to the sentence of the first language and the likelihood of the word candidates from the first word to the last word of the sentence. It is a point to output sequentially in the order of words toward the words (hereinafter referred to as "normal order").

対訳コーパス格納部11Aは、対訳コーパス格納部11とほぼ同様である。主な差分は、対訳コーパス格納部11Aは、逆順対訳コーパスに加えて、第1言語の(任意の)文章と、当該第1言語の文章に対応する(当該第1言語の文章を翻訳した)第2言語の文章(単語は正順)との組から構成される対訳コーパスである正順対訳コーパスを格納する点である。上述のニューラルネットワーク部10Aは、正順対訳コーパスに基づいて学習されてもよい。 The bilingual corpus storage unit 11A is substantially the same as the bilingual corpus storage unit 11. The main difference is that the bilingual corpus storage unit 11A corresponds to the (arbitrary) sentence of the first language and the sentence of the first language (translated the sentence of the first language) in addition to the reverse bilingual corpus. The point is to store a forward-translated corpus, which is a bilingual corpus composed of pairs with sentences in a second language (words are in normal order). The above-mentioned neural network unit 10A may be learned based on a forward-order bilingual corpus.

エンコーダ入力部13Aは、エンコーダ入力部13とほぼ同様である。主な差分は、エンコーダ入力部13Aは、問題文章準備部12から出力された問題文章をエンコーダ部100Aにさらに入力する点である。 The encoder input unit 13A is substantially the same as the encoder input unit 13. The main difference is that the encoder input unit 13A further inputs the problem sentence output from the problem sentence preparation unit 12 to the encoder unit 100A.

出力部14Aについては後述する。 The output unit 14A will be described later.

デコーダ入力部16Aは、デコーダ入力部16とほぼ同様である。主な差分は、デコーダ入力部16Aは、デコーダ部101Aに、作成文章の単語を正順で順次入力する点、及び、デコーダ部101Aに、当該デコーダ部101Aが順次出力する単語候補の替わりに、上述の通り作成文章の単語を正順で順次入力する点である。 The decoder input unit 16A is substantially the same as the decoder input unit 16. The main difference is that the decoder input unit 16A sequentially inputs the words of the created sentence into the decoder unit 101A in the normal order, and the decoder unit 101A replaces the word candidates sequentially output by the decoder unit 101A. As mentioned above, the points of the created sentences are input in order.

評価部17Aは、評価部17とほぼ同様である。主な差分は、評価部17Aは、作成文章の単語を、デコーダ入力部16Aによる入力に基づいてデコーダ部101Aが出力する第2言語の単語候補及び当該単語候補の尤度に基づいて評価(スコア化、点数化)し、評価結果を出力部14Aに出力する点、及び、デコーダ入力部16Aによって入力された作成文章の単語である入力単語に対してデコーダ部101Aが出力する第2言語の単語候補及び当該単語候補の尤度に基づいて、作成文章における入力単語の正順での次の単語を評価する点である。すなわち、評価部17Aは、作成文章の単語を正順(当該作成文章の最初の単語から最後の単語へ順に向かう単語順)に評価する。 The evaluation unit 17A is substantially the same as the evaluation unit 17. The main difference is that the evaluation unit 17A evaluates the word of the created sentence based on the word candidate of the second language output by the decoder unit 101A based on the input by the decoder input unit 16A and the likelihood of the word candidate (score). The point where the evaluation result is output to the output unit 14A, and the second language word output by the decoder unit 101A with respect to the input word which is the word of the created sentence input by the decoder input unit 16A. The point is to evaluate the next word in the correct order of the input word in the created sentence based on the candidate and the likelihood of the word candidate. That is, the evaluation unit 17A evaluates the words in the created sentence in the normal order (word order from the first word to the last word in the created sentence).

受付部18Aは、デコーダ部101の出力に基づく評価部17Aによる評価(以降、「逆順評価」と呼ぶ)に基づく出力(以降、「逆順出力」と呼ぶ)を行うか、又は、デコーダ部101Aの出力に基づく評価部17による評価(以降、「正順評価」と呼ぶ)に基づく出力(以降、「正順出力」と呼ぶ)を行うかのユーザの選択を受け付ける。例えば、出力部14Aが、後述の出力装置1006(例えば画面)を介して、逆順出力又は正順出力の何れかを選択可能なラジオボタンを表示し、ユーザが何れかを選択すると、受付部18Aは、当該選択に関する選択情報を取得する。 The reception unit 18A either performs an evaluation based on the evaluation by the evaluation unit 17A based on the output of the decoder unit 101 (hereinafter referred to as "reverse order evaluation") (hereinafter referred to as "reverse order output"), or the decoder unit 101A. It accepts the user's selection of whether to perform an output (hereinafter referred to as "normal order output") based on an evaluation by the evaluation unit 17 based on the output (hereinafter referred to as "normal order evaluation"). For example, the output unit 14A displays a radio button capable of selecting either reverse order output or forward order output via an output device 1006 (for example, a screen) described later, and when the user selects either one, the reception unit 18A Acquires selection information regarding the selection.

出力部14Aは、出力部14とほぼ同様である。主な差分は、出力部14Aは、デコーダ部101Aの出力に基づく評価部17による評価(正順評価)にさらに基づく出力(正順出力)を行う点、逆順評価及び正順評価のうちより高い評価に基づく出力を行う点、逆順評価が所定の基準を満たさない場合に正順評価に基づく出力を行う、又は、正順評価が所定の基準を満たさない場合に逆順評価に基づく出力を行う点、及び、受付部18Aによって受け付けられたユーザの選択(選択情報)に応じた出力(逆順出力又は正順出力)を行う点である。 The output unit 14A is substantially the same as the output unit 14. The main difference is that the output unit 14A performs an output (normal order output) based on the evaluation (normal order evaluation) by the evaluation unit 17 based on the output of the decoder unit 101A, which is higher than the reverse order evaluation and the forward order evaluation. The point of outputting based on the evaluation, the point of outputting based on the forward evaluation when the reverse evaluation does not meet the predetermined criteria, or the point of outputting based on the reverse evaluation when the forward evaluation does not meet the predetermined criteria. And, the output (reverse order output or forward order output) according to the user's selection (selection information) received by the reception unit 18A is performed.

例えば、出力部14Aは、正順評価の評価値と逆順評価の評価値との和又は平均を出力してもよい。例えば、出力部14Aは、逆順評価の評価値が正順評価の評価値よりも高ければ逆順評価の評価値を出力してもよいし、逆順評価の評価値が正順評価の評価値よりも低ければ正順評価の評価値を出力してもよい。例えば、出力部14Aは、逆順評価において作成文章の真ん中より後方に評価値が所定の閾値よりも低い単語が所定の割合以上含まれていれば、正順評価に基づく出力を行ってもよい。例えば、出力部14Aは、正順評価において作成文章の真ん中より前方に評価値が所定の閾値よりも低い単語が所定の割合以上含まれていれば、逆順評価に基づく出力を行ってもよい。例えば、出力部14Aは、受付部18Aによって逆順出力を行う選択が受け付けられた場合に逆順出力を行い、受付部18Aによって正順出力を行う選択が受け付けられた場合に正順出力を行ってもよい。 For example, the output unit 14A may output the sum or average of the evaluation value of the forward evaluation and the evaluation value of the reverse order evaluation. For example, the output unit 14A may output the evaluation value of the reverse order evaluation if the evaluation value of the reverse order evaluation is higher than the evaluation value of the forward order evaluation, or the evaluation value of the reverse order evaluation is higher than the evaluation value of the normal order evaluation. If it is low, the evaluation value of the forward evaluation may be output. For example, the output unit 14A may output based on the forward evaluation as long as words having an evaluation value lower than a predetermined threshold are included in a predetermined ratio or more behind the center of the created sentence in the reverse evaluation. For example, the output unit 14A may output based on the reverse order evaluation as long as a predetermined ratio or more of words whose evaluation value is lower than a predetermined threshold value is included in front of the center of the created sentence in the forward order evaluation. For example, the output unit 14A may output in reverse order when the reception unit 18A accepts the selection to output in reverse order, and may output in forward order when the reception unit 18A accepts the selection to output in forward order. good.

次に、第2実施形態に係る作成文章評価装置1Aの作用効果について説明する。 Next, the operation and effect of the created sentence evaluation device 1A according to the second embodiment will be described.

作成文章評価装置1Aによれば、評価部17Aは、作成文章の単語を正順に評価する。これにより、作成文章の前方からの評価を行うことができる。 According to the created sentence evaluation device 1A, the evaluation unit 17A evaluates the words in the created sentence in the normal order. This makes it possible to evaluate from the front of the created text.

また、作成文章評価装置1Aによれば、出力部14Aは、(逆順評価に加え)正順評価にさらに基づく出力を行う。これにより、作成文章評価装置1の出力結果に、正順評価を反映することができるため、より正確な出力を行うことができる。 Further, according to the created sentence evaluation device 1A, the output unit 14A further outputs based on the normal order evaluation (in addition to the reverse order evaluation). As a result, the forward evaluation can be reflected in the output result of the created sentence evaluation device 1, so that more accurate output can be performed.

また、作成文章評価装置1Aによれば、出力部14Aは、逆順評価及び正順評価のうちより高い評価に基づく出力を行う。これにより、より正確な出力を行うことができると共に、ユーザが作成した作成文章をなるべく活かした出力を行うことができる。 Further, according to the created sentence evaluation device 1A, the output unit 14A outputs based on the higher evaluation of the reverse order evaluation and the forward order evaluation. As a result, more accurate output can be performed, and at the same time, it is possible to output by making the best use of the created text created by the user.

また、作成文章評価装置1Aによれば、出力部14Aは、逆順評価が所定の基準を満たさない場合に正順評価に基づく出力を行う、又は、正順評価が所定の基準を満たさない場合に逆順評価に基づく出力を行う。これにより、より正確な出力を行うことができると共に、ユーザが作成した作成文章をなるべく活かした出力を行うことができる。 Further, according to the created sentence evaluation device 1A, the output unit 14A outputs based on the forward evaluation when the reverse evaluation does not meet the predetermined criteria, or when the forward evaluation does not meet the predetermined criteria. Output based on reverse evaluation. As a result, more accurate output can be performed, and at the same time, it is possible to output by making the best use of the created text created by the user.

また、作成文章評価装置1Aによれば、受付部18Aは、逆順評価に基づく出力を行うか、又は、正順評価に基づく出力を行うかのユーザの選択を受け付け、出力部14Aは、受付部18Aによって受け付けられたユーザの選択に応じた出力を行う。これにより、ユーザの利便性が向上する。 Further, according to the created sentence evaluation device 1A, the reception unit 18A accepts the user's choice of whether to output based on the reverse order evaluation or the output based on the forward order evaluation, and the output unit 14A receives the reception unit. Output is performed according to the user's selection accepted by 18A. This improves user convenience.

以上の通り、作成文章評価装置1又は作成文章評価装置1Aは、英作文AI採点における文章の後方からの添削方法を実行しているとも言える。すなわち、文章の先頭からだけでなく、後方からでも採点・添削を可能にする。文章の後方から採点・添削が可能になれば、前方だけが間違っている回答に対しても前方のみの修正が可能になる。それにより、ユーザの回答を活かすことができる。作成文章評価装置1又は作成文章評価装置1Aでは、例えば、学習の時点で、正解の文章(英文)の単語を、逆順で入力し、英文を逆順で出力するモデル(ニューラルネットワーク部10)を生成しておく。当該モデルに、ユーザ回答を逆順で入力すると、後方から採点・添削が可能になる。 As described above, it can be said that the created sentence evaluation device 1 or the created sentence evaluation device 1A executes the correction method from the rear of the sentence in the English composition AI scoring. That is, it is possible to score and correct not only from the beginning of the sentence but also from the back. If scoring and correction can be done from the back of the text, it will be possible to correct only the front even if the answer is wrong only in the front. As a result, the user's answer can be utilized. In the created sentence evaluation device 1 or the created sentence evaluation device 1A, for example, at the time of learning, a model (neural network unit 10) is generated in which the words of the correct sentence (English sentence) are input in the reverse order and the English sentence is output in the reverse order. I will do it. If user answers are entered in the model in reverse order, scoring and correction can be performed from the rear.

作成文章評価装置1Aでは、例えば、前方から採点と後方から採点の融合による採点・添削を行うことができる。作成文章評価装置1Aは、前方、後方の両方から採点し、点数の高い方を採用してもよい。作成文章評価装置1Aは、添削も、前方修正、後方修正の両方を試し、信頼度の高い方で添削してもよい。作成文章評価装置1Aは、前方から採点し、前の方だけ誤りがあった場合は、後方から採点・添削を行ってもよいし、後方から採点し、後ろの方だけ誤りがあった場合は、前方から採点・添削を行ってもよい。作成文章評価装置1Aは、ユーザが、前方修正か後方修正を選択することも可能であってもよい。例えば、問題文「つまり、それは学生の成績を上げる可能性があります。」に対してユーザ回答が「Because, there is a possibility that the student's grade will improve.」であった場合、作成文章評価装置1Aは、前方から採点すると「10.00」満点中「5.92」点となり、後方から採点すると「10.00」満点中「7.00」点となり、前方からの採点よりも後方からの採点の方が評価値が高い。 In the created sentence evaluation device 1A, for example, scoring / correction can be performed by fusing scoring from the front and scoring from the back. The created sentence evaluation device 1A may score from both the front and the back, and the one with the higher score may be adopted. The created sentence evaluation device 1A may try both forward correction and backward correction, and may correct by the one with higher reliability. The created sentence evaluation device 1A scores from the front, and if there is an error only in the front, it may be graded / corrected from the back, or if it scores from the back and there is an error only in the back. , You may score and correct from the front. The created sentence evaluation device 1A may also allow the user to select forward correction or backward correction. For example, if the user's answer to the question sentence "That is, it may improve the student's grade" is "Because, there is a possibility that the student's grade will improve." When scoring from the front, it gets "5.92" out of a perfect score of "10.00", and when scoring from the back, it gets "7.00" out of a perfect score of "10.00". Has a higher evaluation value.

作成文章評価装置1又は作成文章評価装置1Aの変形例として以下の文章採点添削システムを示す。 The following sentence scoring correction system is shown as a modification of the created sentence evaluation device 1 or the created sentence evaluation device 1A.

エンコーダ・デコーダモデルのニューラルネットワークであり、第一言語の文章をエンコーダに入力し、その対訳となる第二言語の文章をデコーダから出力させるネットワークにおいて、第二言語の文章の語順を逆転させた文章をデコーダから出力させるように学習させることを特徴とし、その学習させたモデルを使用して、第一言語の文章をエンコーダに入力するとともに、その第二言語への訳文を語順を逆にして、デコーダに入力させながら、デコーダの出力単語と、訳文の単語を比較することで採点し、デコーダの出力単語に置き換えることで添削をすることを特徴とする文章採点添削システム。 It is a neural network of an encoder / decoder model, and in a network in which sentences in the first language are input to the encoder and sentences in the second language to be translated are output from the decoder, sentences in which the order of sentences in the second language is reversed. It is characterized by training to output from the decoder, and using the trained model, input the sentence of the first language to the encoder and reverse the word order of the translation to the second language. A sentence scoring correction system characterized by scoring by comparing the output word of the decoder with the word of the translated sentence while inputting it to the decoder, and making corrections by replacing it with the output word of the decoder.

上記文章採点添削システムであって、文章を前方から採点・添削を行う採点システムと、上記の文章を後方から採点・添削する採点システムの両方で採点を行い、点数の高い方の採点結果および添削結果を表示することを特徴とする文章採点添削システム。 In the above sentence scoring correction system, scoring is performed by both the scoring system that scores and corrects sentences from the front and the scoring system that scores and corrects the above sentences from the back, and the scoring result and correction of the higher score A sentence scoring correction system characterized by displaying the results.

上記文章採点添削システムであって、文章を前方から採点し、文章の前方にのみ誤りがあった場合において、上記の文章を後方から採点・添削する採点システムで再度採点・添削し、後方からの採点・添削結果を表示することを特徴とする文章採点添削システム。 In the above sentence scoring correction system, if the sentence is scored from the front and there is an error only in the front of the sentence, the above sentence is scored / corrected again with the scoring system that scores / corrects from the back, and from the back. A text scoring correction system characterized by displaying scoring / correction results.

なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。 The block diagram used in the description of the above embodiment shows a block of functional units. These functional blocks (components) are realized by any combination of at least one of hardware and software. Further, the method of realizing each functional block is not particularly limited. That is, each functional block may be realized using one physically or logically coupled device, or two or more physically or logically separated devices can be directly or indirectly (eg, for example). , Wired, wireless, etc.) and may be realized using these plurality of devices. The functional block may be realized by combining the software with the one device or the plurality of devices.

機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judgment, decision, judgment, calculation, calculation, processing, derivation, investigation, search, confirmation, reception, transmission, output, access, solution, selection, selection, establishment, comparison, assumption, expectation, and assumption. There are broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc., but only these. I can't. For example, a functional block (component) that makes transmission function is called a transmitting unit or a transmitter. In each case, as described above, the realization method is not particularly limited.

例えば、本開示の一実施の形態における作成文章評価装置1及び作成文章評価装置1Aなどは、本開示の文章評価方法の処理を行うコンピュータとして機能してもよい。図7は、本開示の一実施の形態に係る作成文章評価装置1及び作成文章評価装置1Aのハードウェア構成の一例を示す図である。上述の作成文章評価装置1及び作成文章評価装置1Aは、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。 For example, the created text evaluation device 1 and the created text evaluation device 1A in one embodiment of the present disclosure may function as a computer that processes the text evaluation method of the present disclosure. FIG. 7 is a diagram showing an example of the hardware configuration of the created text evaluation device 1 and the created text evaluation device 1A according to the embodiment of the present disclosure. The above-mentioned created sentence evaluation device 1 and created sentence evaluation device 1A are physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like. May be done.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。作成文章評価装置1及び作成文章評価装置1Aのハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 In the following description, the word "device" can be read as a circuit, a device, a unit, or the like. The hardware configuration of the created text evaluation device 1 and the created text evaluation device 1A may be configured to include one or more of the devices shown in the figure, or may be configured not to include some of the devices. good.

作成文章評価装置1及び作成文章評価装置1Aにおける各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。 Each function in the created text evaluation device 1 and the created text evaluation device 1A is performed by the processor 1001 by loading predetermined software (program) on the hardware such as the processor 1001 and the memory 1002, and is performed by the communication device 1004. It is realized by controlling communication and controlling at least one of reading and writing of data in the memory 1002 and the storage 1003.

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。例えば、上述の問題文章準備部12、エンコーダ入力部13、エンコーダ入力部13A、出力部14、出力部14、作成文章入力部15、デコーダ入力部16、デコーダ入力部16A、評価部17、評価部17A及び受付部18Aなどは、プロセッサ1001によって実現されてもよい。 Processor 1001 operates, for example, an operating system to control the entire computer. The processor 1001 may be configured by a central processing unit (CPU) including an interface with a peripheral device, a control device, an arithmetic unit, a register, and the like. For example, the above-mentioned problem sentence preparation unit 12, encoder input unit 13, encoder input unit 13A, output unit 14, output unit 14, created text input unit 15, decoder input unit 16, decoder input unit 16A, evaluation unit 17, evaluation unit. The 17A, the reception unit 18A, and the like may be realized by the processor 1001.

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、問題文章準備部12、エンコーダ入力部13、エンコーダ入力部13A、出力部14、出力部14、作成文章入力部15、デコーダ入力部16、デコーダ入力部16A、評価部17、評価部17A及び受付部18Aは、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。 Further, the processor 1001 reads a program (program code), a software module, data, and the like from at least one of the storage 1003 and the communication device 1004 into the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operations described in the above-described embodiment is used. For example, the problem sentence preparation unit 12, the encoder input unit 13, the encoder input unit 13A, the output unit 14, the output unit 14, the created text input unit 15, the decoder input unit 16, the decoder input unit 16A, the evaluation unit 17, the evaluation unit 17A, and the like. The reception unit 18A may be realized by a control program stored in the memory 1002 and operating in the processor 1001, and may be realized in the same manner for other functional blocks. Although it has been described that the various processes described above are executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001. Processor 1001 may be mounted by one or more chips. The program may be transmitted from the network via a telecommunication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and is composed of at least one such as a ROM (Read Only Memory), an EPROM (Erasable Programmable ROM), an EEPROM (Electrically Erasable Programmable ROM), and a RAM (Random Access Memory). May be done. The memory 1002 may be referred to as a register, a cache, a main memory (main storage device), or the like. The memory 1002 can store a program (program code), a software module, or the like that can be executed to implement the wireless communication method according to the embodiment of the present disclosure.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。 The storage 1003 is a computer-readable recording medium, and is, for example, an optical disk such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disk, an optical magnetic disk (for example, a compact disk, a digital versatile disk, or a Blu-ray). It may consist of at least one (registered trademark) disk), smart card, flash memory (eg, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like. The storage 1003 may be referred to as an auxiliary storage device. The storage medium described above may be, for example, a database, server or other suitable medium containing at least one of the memory 1002 and the storage 1003.

通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置1004は、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。例えば、上述の出力部14、出力部14A、作成文章入力部15及び受付部18Aなどは、通信装置1004によって実現されてもよい。 The communication device 1004 is hardware (transmission / reception device) for communicating between computers via at least one of a wired network and a wireless network, and is also referred to as, for example, a network device, a network controller, a network card, a communication module, or the like. The communication device 1004 includes, for example, a high frequency switch, a duplexer, a filter, a frequency synthesizer, and the like in order to realize at least one of FDD (Frequency Division Duplex) and Time Division Duplex (TDD). It may be composed of. For example, the above-mentioned output unit 14, output unit 14A, created text input unit 15, reception unit 18A, and the like may be realized by the communication device 1004.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 1005 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, etc.) that receives an input from the outside. The output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that performs output to the outside. The input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).

また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。 Further, each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information. The bus 1007 may be configured by using a single bus, or may be configured by using a different bus for each device.

また、作成文章評価装置1及び作成文章評価装置1Aは、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。 Further, the created sentence evaluation device 1 and the created sentence evaluation device 1A include a microprocessor, a digital signal processor (DSP: Digital Signal Processor), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). ) And the like, and a part or all of each functional block may be realized by the hardware. For example, processor 1001 may be implemented using at least one of these hardware.

情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。 The notification of information is not limited to the embodiments / embodiments described in the present disclosure, and may be performed by other methods.

本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、FRA(Future Radio Access)、NR(new Radio)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE-Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。 Each aspect / embodiment described in the present disclosure includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G (4th generation mobile communication system), and 5G (5th generation mobile communication). system), FRA (Future Radio Access), NR (new Radio), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi (registered trademark)) )), LTE 802.16 (WiMAX®), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth®, and other systems that utilize and extend based on these. It may be applied to at least one of the next generation systems. Further, a plurality of systems may be applied in combination (for example, a combination of at least one of LTE and LTE-A and 5G).

本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The order of the processing procedures, sequences, flowcharts, etc. of each aspect / embodiment described in the present disclosure may be changed as long as there is no contradiction. For example, the methods described in the present disclosure present elements of various steps using exemplary order, and are not limited to the particular order presented.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input / output information and the like may be stored in a specific place (for example, a memory), or may be managed using a management table. Information to be input / output may be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by 1 bit (0 or 1), by a boolean value (Boolean: true or false), or by comparing numerical values (for example, a predetermined value). It may be done by comparison with the value).

本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect / embodiment described in the present disclosure may be used alone, in combination, or may be switched and used according to the execution. Further, the notification of predetermined information (for example, the notification of "being X") is not limited to the explicit one, but is performed implicitly (for example, the notification of the predetermined information is not performed). May be good.

以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。 Although the present disclosure has been described in detail above, it is clear to those skilled in the art that the present disclosure is not limited to the embodiments described in the present disclosure. The present disclosure may be implemented as amendments and modifications without departing from the spirit and scope of the present disclosure as determined by the description of the scope of claims. Therefore, the description of this disclosure is for purposes of illustration and does not have any limiting meaning to this disclosure.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language, or other names, is an instruction, instruction set, code, code segment, program code, program, subprogram, software module. , Applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, features, etc. should be broadly interpreted.

また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。 Further, software, instructions, information and the like may be transmitted and received via a transmission medium. For example, a website that uses at least one of wired technology (coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL), etc.) and wireless technology (infrared, microwave, etc.). When transmitted from a server or other remote source, at least one of these wired and wireless technologies is included within the definition of transmission medium.

本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 The information, signals, etc. described in the present disclosure may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.

なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 The terms described in the present disclosure and the terms necessary for understanding the present disclosure may be replaced with terms having the same or similar meanings.

本開示において使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。 The terms "system" and "network" used in this disclosure are used interchangeably.

また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。例えば、無線リソースはインデックスによって指示されるものであってもよい。 Further, the information, parameters, etc. described in the present disclosure may be expressed using absolute values, relative values from predetermined values, or using other corresponding information. It may be represented. For example, the radio resource may be one indicated by an index.

上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。 The names used for the parameters described above are not limited in any respect. Further, mathematical formulas and the like using these parameters may differ from those expressly disclosed in this disclosure.

本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 The terms "determining" and "determining" used in this disclosure may include a wide variety of actions. "Judgment" and "decision" are, for example, judgment (judging), calculation (calculating), calculation (computing), processing (processing), derivation (deriving), investigation (investigating), search (looking up, search, inquiry). It may include (eg, searching in a table, database or another data structure), ascertaining as "judgment" or "decision". Also, "judgment" and "decision" are receiving (for example, receiving information), transmitting (for example, transmitting information), input (input), output (output), and access. (Accessing) (for example, accessing data in memory) may be regarded as "judgment" or "decision". In addition, "judgment" and "decision" are considered to be "judgment" and "decision" when the things such as solving, selecting, selecting, establishing, and comparing are regarded as "judgment" and "decision". Can include. That is, "judgment" and "decision" may include considering some action as "judgment" and "decision". Further, "judgment (decision)" may be read as "assuming", "expecting", "considering" and the like.

「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or connection between two or more elements and each other. It can include the presence of one or more intermediate elements between two "connected" or "combined" elements. The connection or connection between the elements may be physical, logical, or a combination thereof. For example, "connection" may be read as "access". As used in the present disclosure, the two elements use at least one of one or more wires, cables and printed electrical connections, and as some non-limiting and non-comprehensive examples, the radio frequency domain. Can be considered to be "connected" or "coupled" to each other using electromagnetic energy having wavelengths in the microwave and light (both visible and invisible) regions.

本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 The phrase "based on" as used in this disclosure does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".

本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Any reference to elements using designations such as "first" and "second" as used in this disclosure does not generally limit the quantity or order of those elements. These designations can be used in the present disclosure as a convenient way to distinguish between two or more elements. Therefore, references to the first and second elements do not mean that only two elements can be adopted, or that the first element must somehow precede the second element.

上記の各装置の構成における「手段」を、「部」、「回路」、「デバイス」等に置き換えてもよい。 The "means" in the configuration of each of the above devices may be replaced with a "part", a "circuit", a "device" and the like.

本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 When "include", "including" and variations thereof are used in the present disclosure, these terms are as inclusive as the term "comprising". Is intended. Moreover, the term "or" used in the present disclosure is intended not to be an exclusive OR.

本開示において、例えば、英語でのa、an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In the present disclosure, if articles are added by translation, for example a, an and the in English, the disclosure may include the plural nouns following these articles.

本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。 In the present disclosure, the term "A and B are different" may mean "A and B are different from each other". The term may mean that "A and B are different from C". Terms such as "separate" and "combined" may be interpreted in the same way as "different".

1・1A…作成文章評価装置、10・10A…ニューラルネットワーク部、11・11A…対訳コーパス格納部、12…問題文章準備部、13・13A…エンコーダ入力部、14・14A…出力部、15…作成文章入力部、16・16A…デコーダ入力部、17・17A…評価部、18A…受付部、100・100A…エンコーダ部、101・101A…デコーダ部。 1.1A ... Creation text evaluation device, 10.10A ... Neural network unit, 11.11A ... Bilingual corpus storage unit, 12 ... Problem text preparation unit, 13 / 13A ... Encoder input unit, 14.14A ... Output unit, 15 ... Created text input unit, 16.16A ... Decoder input unit, 17.17A ... Evaluation unit, 18A ... Reception unit, 100 / 100A ... Encoder unit, 101 / 101A ... Decoder unit.

Claims (10)

エンコーダが第1言語の文章を入力し、デコーダが当該第1言語の文章に対応する第2言語の文章の単語候補及び当該単語候補の尤度を、文章の最初の単語から最後の単語へ順に向かう単語順とは異なる所定の単語順で順次出力する、エンコーダデコーダモデルのリカレントニューラルネットワークを利用する作成文章評価装置であって、
前記デコーダに、第2言語で作成された作成文章の単語を前記所定の単語順で順次入力するデコーダ入力部と、
前記作成文章の単語を、前記デコーダ入力部による入力に基づいて前記デコーダが出力する第2言語の単語候補及び当該単語候補の尤度に基づいて評価する評価部と、
前記評価部による評価に基づく出力を行う出力部と、
を備える作成文章評価装置。
The encoder inputs a sentence in the first language, and the decoder sets the word candidates of the sentence in the second language corresponding to the sentence in the first language and the likelihood of the word candidates in order from the first word to the last word of the sentence. It is a created sentence evaluation device that uses the recurrent neural network of the encoder / decoder model to sequentially output in a predetermined word order that is different from the word order to which the word is directed.
A decoder input unit that sequentially inputs words of a created sentence created in a second language into the decoder in the predetermined word order, and a decoder input unit.
An evaluation unit that evaluates the words in the created sentence based on the word candidates of the second language output by the decoder based on the input by the decoder input unit and the likelihood of the word candidates.
An output unit that outputs based on the evaluation by the evaluation unit, and an output unit.
Created text evaluation device equipped with.
前記デコーダ入力部は、前記デコーダに、前記デコーダが順次出力する単語候補の替わりに前記作成文章の単語を前記所定の単語順で順次入力する、
請求項1に記載の作成文章評価装置。
The decoder input unit sequentially inputs the words of the created sentence into the decoder in the predetermined word order instead of the word candidates sequentially output by the decoder.
The created sentence evaluation device according to claim 1.
前記評価部は、前記デコーダ入力部によって入力された前記作成文章の単語である入力単語に対して前記デコーダが出力する第2言語の単語候補及び当該単語候補の尤度に基づいて、前記作成文章における前記入力単語の前記所定の単語順での次の単語を評価する、
請求項1又は2に記載の作成文章評価装置。
The evaluation unit is based on the word candidate of the second language output by the decoder and the likelihood of the word candidate with respect to the input word which is the word of the created sentence input by the decoder input unit. Evaluates the next word in the predetermined word order of the input word in
The created sentence evaluation device according to claim 1 or 2.
前記作成文章は、前記エンコーダに入力される第1言語の文章をユーザが第2言語に翻訳して作成した文章である、
請求項1~3の何れか一項に記載の作成文章評価装置。
The created sentence is a sentence created by the user translating the sentence of the first language input to the encoder into the second language.
The created sentence evaluation device according to any one of claims 1 to 3.
前記リカレントニューラルネットワークは、第1言語の文章と、当該第1言語の文章に対応する第2言語の文章を前記所定の単語順にした文章との組のコーパスに基づいて学習される、
請求項1~4の何れか一項に記載の作成文章評価装置。
The recurrent neural network is learned based on a corpus of a set of sentences in a first language and sentences in a second language corresponding to the sentences in the first language in the predetermined word order.
The created sentence evaluation device according to any one of claims 1 to 4.
前記所定の単語順は、文章の最後の単語から最初の単語へ順に向かう単語順である、
請求項1~5の何れか一項に記載の作成文章評価装置。
The predetermined word order is a word order from the last word to the first word in a sentence.
The created sentence evaluation device according to any one of claims 1 to 5.
前記作成文章の単語を当該作成文章の最初の単語から最後の単語へ順に向かう単語順に評価する追加評価部をさらに備え、
前記出力部は、前記追加評価部による評価にさらに基づく出力を行う、
請求項1~6の何れか一項に記載の作成文章評価装置。
Further equipped with an additional evaluation unit that evaluates the words of the created sentence in the order of words from the first word to the last word of the created sentence.
The output unit further outputs based on the evaluation by the additional evaluation unit.
The created sentence evaluation device according to any one of claims 1 to 6.
前記出力部は、前記評価部による評価及び前記追加評価部による評価のうちより高い評価に基づく出力を行う、
請求項7に記載の作成文章評価装置。
The output unit outputs based on the higher evaluation of the evaluation by the evaluation unit and the evaluation by the additional evaluation unit.
The created sentence evaluation device according to claim 7.
前記作成文章の単語を当該作成文章の最初の単語から最後の単語へ順に向かう単語順に評価する追加評価部をさらに備え、
前記出力部は、前記評価部による評価が所定の基準を満たさない場合に前記追加評価部による評価に基づく出力を行う、又は、前記追加評価部による評価が所定の基準を満たさない場合に前記評価部による評価に基づく出力を行う、
請求項1~6の何れか一項に記載の作成文章評価装置。
Further equipped with an additional evaluation unit that evaluates the words of the created sentence in the order of words from the first word to the last word of the created sentence.
The output unit outputs based on the evaluation by the additional evaluation unit when the evaluation by the evaluation unit does not meet the predetermined standard, or the evaluation when the evaluation by the additional evaluation unit does not meet the predetermined standard. Output based on evaluation by the department,
The created sentence evaluation device according to any one of claims 1 to 6.
前記作成文章の単語を当該作成文章の最初の単語から最後の単語へ順に向かう単語順に評価する追加評価部と、
前記評価部による評価に基づく出力を行うか、又は、前記追加評価部による評価に基づく出力を行うかのユーザの選択を受け付ける受付部と、
をさらに備え、
前記出力部は、前記受付部によって受け付けられたユーザの選択に応じた出力を行う、
請求項1~6の何れか一項に記載の作成文章評価装置。
An additional evaluation unit that evaluates the words in the created sentence in the order of words from the first word to the last word in the created sentence.
A reception unit that accepts the user's choice of whether to output based on the evaluation by the evaluation unit or output based on the evaluation by the additional evaluation unit.
Further prepare
The output unit outputs according to the user's selection accepted by the reception unit.
The created sentence evaluation device according to any one of claims 1 to 6.
JP2020135965A 2020-08-11 2020-08-11 Created sentence evaluation device Pending JP2022032319A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020135965A JP2022032319A (en) 2020-08-11 2020-08-11 Created sentence evaluation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020135965A JP2022032319A (en) 2020-08-11 2020-08-11 Created sentence evaluation device

Publications (1)

Publication Number Publication Date
JP2022032319A true JP2022032319A (en) 2022-02-25

Family

ID=80350121

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020135965A Pending JP2022032319A (en) 2020-08-11 2020-08-11 Created sentence evaluation device

Country Status (1)

Country Link
JP (1) JP2022032319A (en)

Similar Documents

Publication Publication Date Title
JP7062056B2 (en) Creation text evaluation device
US10460029B2 (en) Reply information recommendation method and apparatus
CN106202059B (en) Machine translation method and machine translation device
JP7222082B2 (en) Recognition error correction device and correction model
JP6802364B2 (en) Dialogue system
US8976118B2 (en) Method for character correction
WO2021070819A1 (en) Scoring model learning device, scoring model, and determination device
JP7103957B2 (en) Data generator
US11663420B2 (en) Dialogue system
WO2020225942A1 (en) Internal state modifying device
WO2021186892A1 (en) Translated sentence computation device
WO2020255553A1 (en) Generation device and normalization model
JP2022029273A (en) Sentence similarity calculation device, trained model generation device, and variance expression model
JP2022032319A (en) Created sentence evaluation device
JP2016189089A (en) Extraction equipment, extraction method and program thereof, support device, and display controller
WO2020166125A1 (en) Translation data generating system
JP2021124913A (en) Retrieval device
WO2021215262A1 (en) Punctuation mark delete model training device, punctuation mark delete model, and determination device
JP2020177387A (en) Sentence output device
WO2021199654A1 (en) Dividing device
WO2022130940A1 (en) Presentation device
US11604831B2 (en) Interactive device
US11468106B2 (en) Conversation system
WO2022102364A1 (en) Text generation model generating device, text generation model, and text generating device
JP2021179665A (en) Sentence creation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230803

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240723

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240912

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20241001