JP2022032319A - Created sentence evaluation device - Google Patents
Created sentence evaluation device Download PDFInfo
- Publication number
- JP2022032319A JP2022032319A JP2020135965A JP2020135965A JP2022032319A JP 2022032319 A JP2022032319 A JP 2022032319A JP 2020135965 A JP2020135965 A JP 2020135965A JP 2020135965 A JP2020135965 A JP 2020135965A JP 2022032319 A JP2022032319 A JP 2022032319A
- Authority
- JP
- Japan
- Prior art keywords
- word
- sentence
- evaluation
- unit
- created
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 254
- 238000013528 artificial neural network Methods 0.000 claims abstract description 34
- 230000000306 recurrent effect Effects 0.000 claims description 6
- 238000013519 translation Methods 0.000 description 26
- 230000014616 translation Effects 0.000 description 26
- 238000000034 method Methods 0.000 description 19
- 238000012937 correction Methods 0.000 description 18
- 230000015654 memory Effects 0.000 description 15
- 238000002360 preparation method Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000007476 Maximum Likelihood Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000001537 neural effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 239000000203 mixture Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 150000001875 compounds Chemical class 0.000 description 2
- 238000009795 derivation Methods 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Abstract
Description
本開示の一側面は、第1言語の文章をユーザが第2言語に翻訳して作成した文章について評価を行う作成文章評価装置に関する。 One aspect of the present disclosure relates to a created sentence evaluation device that evaluates a sentence created by a user translating a sentence in a first language into a second language.
従来、エンコーダ及びデコーダから構成されるエンコーダデコーダモデルのニューラルネットワークを利用した機械翻訳であるニューラル機械翻訳(Neural Machine Translation)が知られている。エンコーダデコーダモデルのニューラルネットワークにおいて、エンコーダは第1言語(例えば日本語)の文章を入力し、デコーダは当該第1言語の文章に対応した第2言語(例えば英語)の文章を翻訳結果として出力する。 Conventionally, neural machine translation (Neural Machine Translation), which is a machine translation using a neural network of an encoder-decoder model composed of an encoder and a decoder, is known. In the neural network of the encoder decoder model, the encoder inputs sentences in the first language (for example, Japanese), and the decoder outputs the sentences in the second language (for example, English) corresponding to the sentences in the first language as translation results. ..
例えば下記特許文献1では、ニューラルネットワークで構成されたエンコーダ及びデコーダを含む自動通訳装置が開示されている。
For example,
上記自動通訳装置は、ユーザが入力した第1言語の文章「江南駅までどのように行きますか?」に対して、翻訳結果である第2言語の文章「How do I get to Gangnam?」を出力する。しかしながら上記自動通訳装置では、例えば、上記第1言語の文章に対してユーザが自分で翻訳して作成した第2言語の文章について、翻訳の適切さ等を評価することはできない。 The above automatic interpreter will input the second language sentence "How do I get to Gangnam?", Which is the translation result, in response to the first language sentence "How do you get to Gangnam Station?" Entered by the user. Output. However, with the automatic interpreter, for example, it is not possible to evaluate the appropriateness of translation of a second language sentence created by the user by translating the first language sentence by himself / herself.
そこで、所定の言語で作成された作成文章を評価することが望まれている。 Therefore, it is desired to evaluate the created sentences created in a predetermined language.
本開示の一側面に係る作成文章評価装置は、エンコーダが第1言語の文章を入力し、デコーダが当該第1言語の文章に対応する第2言語の文章の単語候補及び当該単語候補の尤度を、文章の最初の単語から最後の単語へ順に向かう単語順とは異なる所定の単語順で順次出力する、エンコーダデコーダモデルのリカレントニューラルネットワークを利用する作成文章評価装置であって、デコーダに、第2言語で作成された作成文章の単語を所定の単語順で順次入力するデコーダ入力部と、作成文章の単語を、デコーダ入力部による入力に基づいてデコーダが出力する第2言語の単語候補及び当該単語候補の尤度に基づいて評価する評価部と、評価部による評価に基づく出力を行う出力部と、を備える。 In the created sentence evaluation device according to one aspect of the present disclosure, the encoder inputs a sentence in the first language, and the decoder determines the word candidate of the sentence in the second language corresponding to the sentence in the first language and the likelihood of the word candidate. Is a created sentence evaluation device using a recurrent neural network of an encoder decoder model that sequentially outputs in a predetermined word order different from the word order from the first word to the last word of the sentence. A decoder input unit that sequentially inputs the words of the created sentence created in two languages in a predetermined word order, a second language word candidate that the decoder outputs the words of the created sentence based on the input by the decoder input unit, and the relevant word. It includes an evaluation unit that evaluates based on the likelihood of word candidates, and an output unit that outputs based on the evaluation by the evaluation unit.
このような側面においては、第2言語で作成された作成文章の単語を評価することができる。すなわち、所定の言語で作成された作成文章を評価することができる。 In this aspect, words in written sentences created in a second language can be evaluated. That is, it is possible to evaluate a created sentence created in a predetermined language.
本開示の一側面によれば、所定の言語で作成された作成文章を評価することができる。 According to one aspect of the present disclosure, it is possible to evaluate a written sentence written in a predetermined language.
以下、図面を参照しながら本開示での実施形態を詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。また、以下の説明における本開示での実施形態(第1実施形態及び第2実施形態を含む)は、本発明の具体例であり、特に本発明を限定する旨の記載がない限り、これらの実施形態に限定されないものとする。 Hereinafter, embodiments in the present disclosure will be described in detail with reference to the drawings. In the description of the drawings, the same elements are designated by the same reference numerals, and duplicate description will be omitted. Further, the embodiments (including the first embodiment and the second embodiment) in the present disclosure in the following description are specific examples of the present invention, and unless otherwise stated to limit the present invention, these embodiments are described. It is not limited to the embodiment.
[第1実施形態]
図1は、第1実施形態に係る作成文章評価装置1の機能構成(機能ブロック)の一例を示す図である。図1に示す通り、作成文章評価装置1は、ニューラルネットワーク部10、対訳コーパス格納部11、問題文章準備部12、エンコーダ入力部13、出力部14(出力部)、作成文章入力部15、デコーダ入力部16(デコーダ入力部)及び評価部17(評価部)を含んで構成される。また、ニューラルネットワーク部10は、エンコーダ部100及びデコーダ部101を含んで構成される。
[First Embodiment]
FIG. 1 is a diagram showing an example of a functional configuration (functional block) of the created
作成文章評価装置1は、第1言語の文章を第2言語に翻訳して作成した文章である作成文章について評価を行うコンピュータ装置である。第1言語は、例えば日本語であるが、他のいかなる言語であってもよい。第2言語は、第1言語とは異なる言語であり、例えば英語であるが、他のいかなる言語であってもよい。第1言語と第2言語とは異なる地方の方言(例えば日本における標準語と関西弁)であってもよい。言語は、自然言語に限らず、人工言語及び形式言語(コンピュータのプログラム言語)等であってもよい。作成文章は、作成文章評価装置1のユーザ等の人が作成することを意図しているが、人以外が作成した文章であってもよい。評価とは、作成文章の翻訳としての適切さ(良し悪し、適合度)等を決定することを示す。
The created
作成文章評価装置1の各機能ブロックは、作成文章評価装置1内にて機能することを想定しているが、これに限るものではない。例えば、作成文章評価装置1の機能ブロックの一部は、作成文章評価装置1とは異なるコンピュータ装置であって、作成文章評価装置1とネットワーク接続されたコンピュータ装置内において、作成文章評価装置1と情報を適宜送受信しつつ機能してもよい。また、作成文章評価装置1の一部の機能ブロックは無くてもよいし、複数の機能ブロックを一つの機能ブロックに統合してもよいし、一つの機能ブロックを複数の機能ブロックに分解してもよい。
Each functional block of the created
以下、図1に示す作成文章評価装置1の各機能ブロックについて説明する。
Hereinafter, each functional block of the created
ニューラルネットワーク部10は、エンコーダ部100及びデコーダ部101から構成される、エンコーダデコーダモデル(別名:encoder-decoder翻訳モデル、Sequence to Sequence Model)のリカレントニューラルネットワーク(Recurrent Neural Network、RNN)である。ニューラルネットワーク部10は、例えば、LSTM(Long Short Term Memory)と呼ばれるリカレントニューラルネットワークである。ニューラルネットワーク部10は、ニューラル機械翻訳を行う。なお、ニューラルネットワーク部10は、作成文章評価装置1内ではなく、作成文章評価装置1とネットワークを介して互いにアクセス可能な他の装置内にあってもよい。
The
エンコーダ部100は、第1言語の文章を入力し、中間層(隠れ層)のベクトルを出力する。より具体的には、エンコーダ部100は、第1言語の文章を形態素解析等により単語に分割し、各単語に対応する単語ID(Word ID)を単語ベクトル(入力層のベクトル)に変換した上で、文章の最初の単語から最後の単語まで順に順次入力し、それまでの入力内容に基づく中間層のベクトルを順次出力する(ニューラルネットワークの計算を行う)。エンコーダ部100は、文章の終わりを示す「<EOS>」を入力した時点で、エンコーダ部100からデコーダ部101に、それまでの入力内容に基づく中間層のベクトルを出力する(渡す)。エンコーダ部100は概念的に、第1言語の文章を意味解析し、意味表現を抽出していると言える。
The
デコーダ部101は、エンコーダ部100から出力された中間層のベクトルを入力し、中間層のベクトルに基づいて、又は、中間層のベクトル及びデコーダ部101に入力される第2言語の単語に基づいて、出力層のベクトルを順次計算し、出力する。出力層のベクトルは、例えば、第2言語の単語候補と当該単語候補の尤度との組のリストを示す情報である。当該リストの一例として『(単語候補「I」及びその尤度「0.7」,単語候補「We」及びその尤度「0.2」,単語候補「You」及びその尤度「0.1」)』等が挙げられる。
The
ここで、一般的なエンコーダデコーダモデルのリカレントニューラルネットワークにおいてニューラル機械翻訳を行う際のデコーダ(以下、「一般的デコーダ」と記す)の処理について説明する。一般的デコーダは、まず、エンコーダから出力された中間層のベクトルを入力すると、入力された中間層のベクトルに基づいて、最終的に出力する第2言語の文章のうち1語目(最初の単語)に対応する出力層のベクトルを出力する。一般的デコーダは、以降、N語目(Nは1以上の整数)の出力層のベクトルが示す単語候補のうち尤度が最大の単語を抽出し、抽出した単語を自デコーダ(当該一般的デコーダ)に入力し、入力した単語とN語目の出力層のベクトルの出力を行う際に用いた中間層のベクトルとに基づいて、(N+1)語目の出力層のベクトルを出力する、という処理を、第2言語の文章の最後の単語まで反復する。一般的デコーダは概念的に、エンコーダが抽出した意味表現から、(第1言語とは異なる第2言語の)文章を生成している、と言える。 Here, the processing of the decoder (hereinafter referred to as “general decoder”) when performing neural machine translation in the recurrent neural network of the general encoder decoder model will be described. In a general decoder, first, when the vector of the intermediate layer output from the encoder is input, the first word (first word) of the second language sentence finally output based on the input vector of the intermediate layer. ) Corresponds to the output layer vector. After that, the general decoder extracts the word with the highest likelihood from the word candidates indicated by the vector of the output layer of the Nth word (N is an integer of 1 or more), and uses the extracted word as its own decoder (the general decoder). ), And the vector of the output layer of the (N + 1) word is output based on the input word and the vector of the intermediate layer used when outputting the vector of the output layer of the Nth word. Is repeated until the last word of the sentence in the second language. It can be said that a general decoder conceptually generates a sentence (in a second language different from the first language) from a semantic expression extracted by the encoder.
一方、デコーダ部101は、一般的デコーダとは異なり、第1言語の文章に対応する第2言語の文章の単語候補及び当該単語候補の尤度を、文章の最初の単語から最後の単語へ順に向かう単語順(一般的デコーダが採用している順)とは異なる所定の単語順で順次出力する。所定の単語順は、文章の最後の単語から最初の単語へ順に向かう単語順(逆順)であってもよい。具体的には、文章がM語(Mは1以上の整数)で構成されている場合にM語目、(M-1)語目、(M-2)語目、…、3語目、2語目、1語目の順である。その他にも、所定の単語順は、ランダム順であってもよいし、1語目、M語目、2語目、(M-1)語目、3語目、(M-2)語目、4語目、…、と徐々に文章の真ん中の単語に向かう順でもよいし、その他の任意の順でもよい。本開示での実施形態では、所定の単語順は、上述の逆順とするが、これに限るものではなく、任意の順に適宜読み替えてもよい。
On the other hand, unlike a general decoder, the
上記の通り、作成文章評価装置1は、エンコーダ部100が第1言語の文章を入力し、デコーダ部101が当該第1言語の文章に対応する第2言語の文章の単語候補及び当該単語候補の尤度を、逆順(文章の最初の単語から最後の単語へ順に向かう単語順とは異なる所定の単語順)で順次出力する、エンコーダデコーダモデルのニューラルネットワーク部10を利用する。なお、デコーダ部101のその他の機能については後述する。
As described above, in the created
対訳コーパス格納部11は、第1言語と第2言語との対訳コーパスを格納する。対訳コーパスとは、機械翻訳の学習データとして利用するために構築された、異なる言語の文章と文章とが対訳の形でまとめられたコーパス(文章のデータベース)である。対訳コーパス格納部11は、第1言語の(任意の)文章と、当該第1言語の文章に対応する(当該第1言語の文章を翻訳した)第2言語の文章を逆順にした文章との組から構成される対訳コーパスである逆順対訳コーパスを格納する。例えば、当該組の一例として、第1言語(日本語)の文章「私はAIが好きです。」と第2言語(英語)の逆順の文章「. AI like I」(逆順ではない通常の文章は「I like AI .」)との組が挙げられる。ニューラルネットワーク部10は、逆順対訳コーパス(第1言語の文章と、当該第1言語の文章に対応する第2言語の文章を逆順にした文章との組のコーパス)に基づいて学習されてもよい。学習は、作成文章評価装置1の管理者の指示に基づいて行われてもよいし、定期的(例えば1週間に1回)に行われてもよい。
The bilingual
問題文章準備部12は、ユーザに問題文として提示する第1言語の文章である問題文章を準備する。より具体的には、問題文章準備部12は、対訳コーパス格納部11によって格納された逆順対訳コーパスに含まれる第1言語の文章を抽出する。抽出する第1言語の文章は、ランダムであってもよいし、所定の手順に従ったものでもよい。問題文章準備部12は、対訳コーパス格納部11によって格納された逆順対訳コーパスからではなく、異なる手段又は異なる装置等から問題文章を取得してもよい。問題文章準備部12は、準備した問題文章をエンコーダ入力部13及び出力部14に出力する。
The question
エンコーダ入力部13は、問題文章準備部12から出力された問題文章をエンコーダ部100に入力する。
The
出力部14は、問題文章準備部12から出力された問題文章を出力する。より具体的には、出力部14は、後述の出力装置1006(例えば画面)を介して、問題文章をユーザに表示する。出力部14のその他の機能については後述する。
The
作成文章入力部15は、第2言語で作成された作成文章を入力する。より具体的には、作成文章入力部15は、出力部14によって問題文章がユーザに表示された後、表示された問題文章をユーザが第2言語に翻訳して作成した作成文章を、後述の入力装置1005(例えばキーボード)を介して入力する。つまり、作成文章は、エンコーダ部100に入力される第1言語の文章をユーザが第2言語に翻訳して作成した文章であってもよい。本開示の実施形態では、作成文章はユーザによって作成されたものを想定するが、ユーザ以外の人や装置によって作成されたものであってもよい。作成文章入力部15は、作成文章をデコーダ入力部16及び評価部17に出力する。
The created
デコーダ入力部16は、デコーダ部101に、作成文章の単語を逆順で順次入力する。より具体的には、デコーダ入力部16は、作成文章入力部15から出力された作成文章を、形態素解析等により単語に分割し、各単語に対応する単語IDを単語ベクトル(入力層のベクトル)に変換した上で逆順に順次(作成文章の最後の単語から最初の単語まで順に)デコーダ部101に入力する。
The
ここで、デコーダ入力部16は、デコーダ部101に、当該デコーダ部101が(逆順で)順次出力する単語候補の替わりに、上述の通り作成文章の単語を逆順で順次入力する。つまり、一般的デコーダは、当該一般的デコーダから出力された単語(最大の尤度の単語候補)を当該一般的デコーダの次の入力とするが、作成文章評価装置1のデコーダ部101は、作成文章の単語を当該デコーダ部101の入力とする。
Here, the
デコーダ入力部16の入力に基づくデコーダ部101の処理について具体的に説明する。デコーダ部101は、まず、エンコーダ部100から出力された中間層のベクトルを入力すると、入力された中間層のベクトルに基づいて、最終的に出力する第2言語の文章のうち最後の単語に対応する出力層のベクトルを出力する。デコーダ部101は、以降、デコーダ入力部16によって入力された作成文章のP語目(Pは2以上の整数)の単語を当該デコーダ部101に入力し、入力した単語と前回の出力層のベクトルの出力を行う際に用いた中間層のベクトルとに基づいて、作成文章の(P-1)語目に対応する出力層のベクトルを出力する、という処理を、作成文章の最初の単語(1語目)まで反復する。
The processing of the
なお、エンコーダ入力部13が問題文章をエンコーダ部100に入力すると、エンコーダ部100が計算を行い、中間層のベクトルをデコーダ部101に出力し、デコーダ部101が入力された中間層のベクトルに基づいて、最終的に出力する第2言語の文章のうち最後の単語に対応する出力層のベクトルを出力するが、以降の処理は、デコーダ入力部16からの作成文章の単語の(逆順の)順次入力があるまで保留する。
When the
評価部17は、作成文章の単語を、デコーダ入力部16による入力に基づいてデコーダ部101が出力する第2言語の単語候補及び当該単語候補の尤度に基づいて評価(スコア化、点数化)し、評価結果を出力部14に出力する。評価部17は、デコーダ入力部16によって入力された作成文章の単語である入力単語に対してデコーダ部101が出力する第2言語の単語候補及び当該単語候補の尤度に基づいて、作成文章における入力単語の逆順での次の単語を評価してもよい。
The
より具体的には、まず、評価部17は、デコーダ入力部16によって入力された作成文章のP語目の単語(入力単語)に対してデコーダ部101が出力する第2言語の単語候補及び当該単語候補の尤度を取得する。次に、評価部17は、作成文章入力部15から出力された当該作成文章におけるP語目の単語の逆順での次の単語である(P-1)語目の単語を取得する。次に、評価部17は、取得した単語候補及び当該単語候補の尤度のうち、(P-1)語目の単語と同一の単語候補に紐付く尤度を、(P-1)語目の単語の尤度として取得する。次に、評価部17は、取得した単語候補及び当該単語候補の尤度のうち、最大の尤度(翻訳として最も適切な単語候補の尤度)を取得する。次に、評価部17は、取得した(P-1)語目の単語の尤度を取得した最大の尤度で除算した値(尤度比率)を、作成文章の(P-1)語目の評価値として算出する。次に、評価部17は、算出した評価値を出力部14に出力する。なお、評価値の算出は、上述の除算に限るものではなく、例えば、(P-1)語目の単語の尤度と最大の尤度(又は、取得した単語候補及び当該単語候補の尤度のうち、所定の基準によって取得された尤度)との比較に基づくいかなる算出であってもよいし、尤度に基づくその他の算出であってもよい。
More specifically, first, the
評価部17は、作成文章の各単語の評価値に基づく当該作成文章(全体)の評価値を算出し、出力部14に出力してもよい。例えば、評価部17は、作成文章の各単語の評価値を平均した平均評価値を、当該作成文章の評価値として算出する。
The
評価部17は、取得した単語候補及び当該単語候補の尤度の一部、又は全てを出力部14に出力してもよい。例えば、評価部17は、取得した単語候補及び当該単語候補の尤度のうち、尤度が所定の基準よりも大きい単語候補、又は、尤度が最大の単語候補を出力部14に出力する。
The
出力部14は、評価部17による評価に基づく出力を行う。より具体的には、出力部14は、評価部17から出力された評価結果に基づく出力を行う。出力部14は、評価部17から出力された作成文章の単語の評価値(スコア)を(単語ごとに)表示してもよい。出力部14は、評価部17から出力された作成文章(全体)の評価値(総合スコア)を表示してもよい。出力部14は、評価部17から出力された作成文章の単語の評価値に基づいた当該単語の表示を行ってもよい。例えば、出力部14は、評価値が所定の基準よりも低い単語については当該単語の色や大きさ等を変えて表示する。出力部14は、作成文章の単語に対する別候補(単語ごとの最適単語)として、評価部17から出力された、尤度が所定の基準よりも大きい単語候補、又は、尤度が最大の単語候補を表示してもよい。出力部14は、上述の表示方法を一つ以上組み合わせて表示してもよい。例えば、出力部14は、評価値が所定の基準よりも低い単語について、別候補として尤度が最大の単語候補をあわせて表示してもよい。出力部14は、対訳コーパス格納部11によって格納された逆順対訳コーパスを参照することで、問題文章に対する模範解答を取得し、表示してもよい。なお、出力部14は、出力に必要な各種情報を、他の機能ブロックから適宜取得するものとする。また、出力部14の機能の一部は、評価部17に組み込まれていてもよい。すなわち、評価部17は、評価を行うと共に、評価結果を直接出力してもよい。
The
図2及び図3は、作成文章評価装置1における翻訳及び評価の実施例を示す図である。なお、図2及び図3に示すニューラルネットワーク部10の一例は、本来1つの図で示すべきものであるが、大きさの関係上、ニューラルネットワーク部10の一例の約左半分を図2に示し、ニューラルネットワーク部10の一例の約右半分を図3に示している。
2 and 3 are diagrams showing examples of translation and evaluation in the created
図2及び図3に示す実施例では、問題文章「私はAIが好きです。」をユーザに提示し、ユーザが作成文章「My favorite is AI.」を作成した場合の採点(評価)例を示す。なお、問題文章「私はAIが好きです。」に対する模範解答は「I like AI.」である。図2に示す通り、まず、問題文章「私はAIが好きです。」を単語に分割すると、「私」、「は」、「AI」、「が」、「好き」、「です」、「。」になる。これら単語を(最初の単語から最後の単語へ向かって)順番にエンコーダ部100に入力する。単語「。」の後には、文章の終わりを示す「<EOS>」記号を入力する。「<EOS>」記号を入力すると、ニューラルネットワーク部10は、デコーダ部101から単語候補及び当該単語候補の尤度を出力し始める(出力層をSoftmax関数等で尤度計算するものとする)。
In the examples shown in FIGS. 2 and 3, an example of scoring (evaluation) when the question sentence "I like AI" is presented to the user and the user creates the created sentence "My favorite is AI." show. The model answer to the question sentence "I like AI." Is "I like AI.". As shown in Fig. 2, first, if the question sentence "I like AI" is divided into words, "I", "ha", "AI", "ga", "like", "is", "is", " ."become. These words are input to the
続いて図3に示す通り、最初に出力される単語候補は、尤度が一番高い「.」になる。ユーザが作成した作成文章の最後の単語も「.」なので、同じ尤度であるため(同じ尤度同士の除算により)点数は「1.00」となる。次に、ユーザが作成した(最後の)単語「.」をデコーダ部101の入力として入力する(ユーザが作成した作成文章は単語ごとにデコーダ部101に逆順で順次入力される)。すると、デコーダ部101によって出力される単語候補は、尤度が一番高い「AI」になる。ユーザが作成した作成文章の最後から2番目の単語も「AI」なので、同じ尤度であるため点数は「1.00」となる。次に、ユーザが作成した(最後から2番目の)単語「AI」をデコーダ部101の入力として入力する。すると、デコーダ部101の出力は、「like」が最も尤度が高く、尤度「0.75」とでる。しかし、ユーザが作成した(逆順で「AI」の次の)単語は「is」であり、この単語は尤度が「0.15」であった。したがって、「is」の尤度を「like」の尤度で割って、「0.20」が「is」の点数(評価値)となる。次に、デコーダ部101の入力としては「like」ではなく、「is」を入れる。すると、デコーダ部101の出力は、最も尤度が高い「favorite」がでてくる。ユーザが作成した(最後から3番目の)単語も「favorite」であるため、点数は「1.0」となる。このように逆順で順次単語ごとに点数を計算していく。
Subsequently, as shown in FIG. 3, the word candidate output first is ".", Which has the highest likelihood. Since the last word of the created sentence created by the user is also ".", The score is "1.00" because the likelihoods are the same (by division between the same likelihoods). Next, the (last) word "." Created by the user is input as an input of the decoder unit 101 (the created sentence created by the user is sequentially input to the
図4は、作成文章評価装置1が実行する処理(作成文章評価方法)の一部の一例を示すフローチャートである。まず、エンコーダ入力部13により、問題文章(の単語)がエンコーダ部100の入力層に入力される(ステップS1)。次に、エンコーダ部100により、次の入力単語が「<EOS>」であるか否かが判定され(ステップS2)、次の入力単語が「<EOS>」でないと判定された場合(S2:NO)、次の入力単語についてS1の処理に戻る。一方、次の入力単語が「<EOS>」であると判定された場合(S2:YES)、続いて、デコーダ部101により、出力層からSoftmaxで解答文章(最終的に出力する第2言語の文章)の単語(候補単語)の尤度が算出される(ステップS3)。次に、評価部17により、作成文章の単語と尤度とが比較され、尤度比率が単語スコアとして計算される(ステップS4)。次に、デコーダ部101により、作成文章の逆順での次の単語が無いかあるかが判定され(ステップS5)、次の単語があると判定された場合(S5:NO)、デコーダ入力部16により、作成文章の単語がデコーダ部101の次の入力として入力され(ステップS6)、S3の処理に戻る。一方、次の単語が無いと判定された場合(S5:YES)、評価部17により、各単語の単語スコアが平均され、文章(作成文章)として総合スコアが計算される(ステップS7)。次に、出力部14により、各単語ごとの単語スコアと、作成文章の総合スコアとが出力される(ステップS8)。
FIG. 4 is a flowchart showing an example of a part of the process (created sentence evaluation method) executed by the created
図5は、作成文章評価装置1のインタフェースの一例(画面例)を示す図である。図5に示すインタフェースは、日本語(第1言語)の問題文章をユーザに提示し、問題文章に対してユーザが英作文した英語(第2言語)の作成文章を入力し、作成文章を採点するものである。参照符号Aは、問題文章「つまり、それは学生の成績を上げる可能性があります。」を示す。参照符号Bは、ユーザがテキストボックスに入力した作成文章「Because, there is a possibility that the student’s grade will improve.」を示す。参照符号Cが示す「採点」ボタンをユーザが押下することで採点が実行される。なお、以降で説明する参照符号D、E、F及びHが示す情報については、採点が実行された後に表示される。
FIG. 5 is a diagram showing an example (screen example) of the interface of the created
参照符号Dは、採点結果としての作成文章の総合スコアである、「10.00」点満点中の「8.21」点を示す。なお、参照符号Dの周辺には、総合スコアに対応したキャラクタ画像が表示されてもよい。参照符号Eは、作成文章であって、採点の結果、評価値が所定の基準よりも低い単語(図5では単語「Because」)については太字で(又は色を変えて)表示された作成文章を示す。参照符号Fは、上述の評価値が所定の基準よりも低い単語に対する別候補として、尤度が最大の単語候補で構成される熟語(図5では熟語「In short」)を示す。参照符号Gが示す「模範解答を見る」ボタンをユーザが押下することで、問題文章に対する模範解答が表示される。参照符号Hは、表示された模範解答「In short, there is a possibility that the student's grade will improve.」を示す。 Reference numeral D indicates "8.21" points out of "10.00" points, which is the total score of the prepared sentence as a scoring result. A character image corresponding to the total score may be displayed around the reference numeral D. The reference code E is a created sentence, and as a result of scoring, words whose evaluation value is lower than a predetermined standard (word “Because” in FIG. 5) are displayed in bold (or in different colors). Is shown. Reference numeral F indicates a compound word (in FIG. 5, the compound word “In short”) composed of the word candidate having the maximum likelihood as another candidate for the word whose evaluation value is lower than the predetermined criterion. When the user presses the "view model answer" button indicated by the reference code G, the model answer to the question sentence is displayed. Reference numeral H indicates the displayed model answer "In short, there is a possibility that the student's grade will improve."
次に、第1実施形態に係る作成文章評価装置1の作用効果について説明する。
Next, the operation and effect of the created
作成文章評価装置1によれば、デコーダ入力部16は、デコーダ部101に第2言語で作成された作成文章の単語を逆順で順次入力し、評価部17は、作成文章の単語を、デコーダ入力部16による入力に基づいてデコーダ部101が出力する第2言語の単語候補及び当該単語候補の尤度に基づいて評価し、出力部14は、評価部17による評価に基づく出力を行う。より具体的には、評価部17は、デコーダ入力部16によって入力された作成文章の単語である入力単語に対してデコーダ部101が出力する第2言語の単語候補及び当該単語候補の尤度に基づいて、作成文章における入力単語の逆順での次の単語を評価する。これにより、第2言語で作成された作成文章の単語を評価することができる。すなわち、所定の言語で作成された作成文章を評価することができる。また、ユーザが作文した作成文章を、単語ごとに評価することができる。
According to the created
また、作成文章評価装置1によれば、デコーダ入力部16は、デコーダ部101に、デコーダ部101が順次出力する単語候補の替わりに作成文章の単語を逆順で順次入力する。これにより、エンコーダ部100で問題文章の意味を把握しておきながら、ユーザが作成した作成文章の単語列に対して、逆順で次にくる最もふさわしい単語を推定することができる。また、問題文章の意味をとらえながら、ユーザが選んだ表現の単語に基づいて、逆順で次の単語を推定するため、表現の自由度もある評価が可能となる。
Further, according to the created
また、作成文章評価装置1によれば、作成文章は、エンコーダ部100に入力される第1言語の文章をユーザが第2言語に翻訳して作成した文章である。これにより、ユーザが第1言語の文章を翻訳した第2言語の文章について、その翻訳を評価することができる。
Further, according to the created
また、作成文章評価装置1によれば、ニューラルネットワーク部10は、第1言語の文章と、当該第1言語の文章に対応する第2言語の文章を逆順にした文章との組のコーパスに基づいて学習される。これにより、エンコーダ部100への第1言語の文章の入力により、デコーダ部101は、当該第1言語の文章に対応する第2言語の文章の単語候補及び当該単語候補の尤度を、逆順で(当該第2言語の文章の最後の単語から最初の単語に向かって)順次出力することができる。
Further, according to the created
また、作成文章評価装置1によれば、所定の単語順は、文章の最後の単語から最初の単語へ順に向かう単語順である。これにより、文章の先頭からだけでなく、後方からでも評価(採点、添削など)を行うことができる。文章の後方から評価を行うことが可能になれば、前方だけが間違っている(評価値が所定の基準よりも低い)作成文章に対しても前方のみの修正などが可能になる。
Further, according to the created
以下、具体的に説明する。一般的に、文章の先頭の方だけが間違っていて、後方は合っている作成文章も多々ある。文章の先頭から単語単位で評価を行う場合、先頭の間違った単語から全て評価してしまうため、ユーザの作成文章(後方)が活かされない。例えば、問題文章「つまり、それは学生の成績を上げる可能性があります。」に対して、ユーザが作成した作成文章が「Because, there is a possibility that the student's grade will improve.」である場合、例えば、点数は「10.00」点満点中「5.92」で、添削後の文章は「This means that it can increase their academic performance.」となる。このように、ユーザが作成した作成文章は、問題文章のうち「つまり、」の翻訳以外はだいたい合っているが、点数は低く、添削後の文章に至っては全書き直しとなっている。つまり、「Because」だけを直せば良いのに、全部直してしまう。 Hereinafter, a specific description will be given. In general, there are many written sentences in which only the beginning of the sentence is wrong and the end is correct. When evaluating from the beginning of a sentence on a word-by-word basis, all the wrong words at the beginning are evaluated first, so the sentence created by the user (backward) is not utilized. For example, if the user-created text is "Because, there is a possibility that the student's grade will improve." For the question text "That is, it may improve the student's grade." , The score is "5.92" out of a maximum of "10.00", and the corrected text is "This means that it can increase their academic performance." In this way, the created sentences created by the user are generally correct except for the translation of "that is" among the problem sentences, but the score is low, and the corrected sentences are completely rewritten. In other words, you only have to fix "Because", but you fix everything.
一方、作成文章評価装置1で上記作成文章を評価を行うと、例えば、添削後の文章は「In short, there is a possibility that the student's grade will improve.」となる。つまり、「Because」の部分だけの修正を行うので、ユーザの回答が活かされている。
On the other hand, when the above-mentioned created sentence is evaluated by the created
また、作成文章評価装置1によれば、評価部17及び出力部14は、作成文章の単語の評価値を表示する、作成文章の単語の評価値に基づいた当該単語の表示を行う、作成文章の単語に対する別候補として、尤度が所定の基準よりも大きい単語候補、又は、尤度が最大の単語候補を表示する、及び、作成文章の各単語の評価値に基づく当該作成文章の評価値を表示する。これにより、評価だけではなく、よりよい翻訳を行うためのユーザへのアドバイスが可能となる等、ユーザへのフィードバック学習も可能となる。
Further, according to the created
なお、作成文章評価装置1において、作成文章入力部15は、作成文章を、ユーザの全ての単語入力が終わるのを待たずに、リアルタイムで作成文章の各単語をデコーダ入力部16及び評価部17に出力してもよい。そして、出力部14による出力は、評価部17から評価結果が出力されるたびにリアルタイムで行ってもよい。これにより、ユーザが作成文章を入力中にその時点での評価及び最適単語が表示されることになるため、作成文章を全て入力し終わってしらばく時間が経った後に評価や最適単語が表示されるのに比べて、ユーザにとって学習効果が高い学習ツールとしての役割を果たすことができる。
In the created
[第2実施形態]
図6は、第2実施形態に係る作成文章評価装置1Aの機能構成(機能ブロック)の一例を示す図である。図6に示す通り、作成文章評価装置1Aは、ニューラルネットワーク部10、ニューラルネットワーク部10A、対訳コーパス格納部11A、問題文章準備部12、エンコーダ入力部13A、出力部14A(出力部)、作成文章入力部15、デコーダ入力部16A(デコーダ入力部)、評価部17A(評価部、追加評価部)及び受付部18A(受付部)を含んで構成される。また、ニューラルネットワーク部10は、エンコーダ部100及びデコーダ部101を含んで構成される。ニューラルネットワーク部10Aは、エンコーダ部100A及びデコーダ部101Aを含んで構成される。
[Second Embodiment]
FIG. 6 is a diagram showing an example of a functional configuration (functional block) of the created
以降では、作成文章評価装置1Aについて、第1実施形態に係る作成文章評価装置1との主な差分について説明し、同様の内容については説明を適宜省略する。
Hereinafter, the main differences between the created
ニューラルネットワーク部10A、エンコーダ部100A及びデコーダ部101Aは、それぞれニューラルネットワーク部10、エンコーダ部100及びデコーダ部101とほぼ同様である。主な差分は、デコーダ部101Aは、一般的デコーダと同様に、第1言語の文章に対応する第2言語の文章の単語候補及び当該単語候補の尤度を、文章の最初の単語から最後の単語へ順(以降「正順」と呼ぶ)に向かう単語順で順次出力する点である。
The
対訳コーパス格納部11Aは、対訳コーパス格納部11とほぼ同様である。主な差分は、対訳コーパス格納部11Aは、逆順対訳コーパスに加えて、第1言語の(任意の)文章と、当該第1言語の文章に対応する(当該第1言語の文章を翻訳した)第2言語の文章(単語は正順)との組から構成される対訳コーパスである正順対訳コーパスを格納する点である。上述のニューラルネットワーク部10Aは、正順対訳コーパスに基づいて学習されてもよい。
The bilingual
エンコーダ入力部13Aは、エンコーダ入力部13とほぼ同様である。主な差分は、エンコーダ入力部13Aは、問題文章準備部12から出力された問題文章をエンコーダ部100Aにさらに入力する点である。
The
出力部14Aについては後述する。
The
デコーダ入力部16Aは、デコーダ入力部16とほぼ同様である。主な差分は、デコーダ入力部16Aは、デコーダ部101Aに、作成文章の単語を正順で順次入力する点、及び、デコーダ部101Aに、当該デコーダ部101Aが順次出力する単語候補の替わりに、上述の通り作成文章の単語を正順で順次入力する点である。
The
評価部17Aは、評価部17とほぼ同様である。主な差分は、評価部17Aは、作成文章の単語を、デコーダ入力部16Aによる入力に基づいてデコーダ部101Aが出力する第2言語の単語候補及び当該単語候補の尤度に基づいて評価(スコア化、点数化)し、評価結果を出力部14Aに出力する点、及び、デコーダ入力部16Aによって入力された作成文章の単語である入力単語に対してデコーダ部101Aが出力する第2言語の単語候補及び当該単語候補の尤度に基づいて、作成文章における入力単語の正順での次の単語を評価する点である。すなわち、評価部17Aは、作成文章の単語を正順(当該作成文章の最初の単語から最後の単語へ順に向かう単語順)に評価する。
The
受付部18Aは、デコーダ部101の出力に基づく評価部17Aによる評価(以降、「逆順評価」と呼ぶ)に基づく出力(以降、「逆順出力」と呼ぶ)を行うか、又は、デコーダ部101Aの出力に基づく評価部17による評価(以降、「正順評価」と呼ぶ)に基づく出力(以降、「正順出力」と呼ぶ)を行うかのユーザの選択を受け付ける。例えば、出力部14Aが、後述の出力装置1006(例えば画面)を介して、逆順出力又は正順出力の何れかを選択可能なラジオボタンを表示し、ユーザが何れかを選択すると、受付部18Aは、当該選択に関する選択情報を取得する。
The
出力部14Aは、出力部14とほぼ同様である。主な差分は、出力部14Aは、デコーダ部101Aの出力に基づく評価部17による評価(正順評価)にさらに基づく出力(正順出力)を行う点、逆順評価及び正順評価のうちより高い評価に基づく出力を行う点、逆順評価が所定の基準を満たさない場合に正順評価に基づく出力を行う、又は、正順評価が所定の基準を満たさない場合に逆順評価に基づく出力を行う点、及び、受付部18Aによって受け付けられたユーザの選択(選択情報)に応じた出力(逆順出力又は正順出力)を行う点である。
The
例えば、出力部14Aは、正順評価の評価値と逆順評価の評価値との和又は平均を出力してもよい。例えば、出力部14Aは、逆順評価の評価値が正順評価の評価値よりも高ければ逆順評価の評価値を出力してもよいし、逆順評価の評価値が正順評価の評価値よりも低ければ正順評価の評価値を出力してもよい。例えば、出力部14Aは、逆順評価において作成文章の真ん中より後方に評価値が所定の閾値よりも低い単語が所定の割合以上含まれていれば、正順評価に基づく出力を行ってもよい。例えば、出力部14Aは、正順評価において作成文章の真ん中より前方に評価値が所定の閾値よりも低い単語が所定の割合以上含まれていれば、逆順評価に基づく出力を行ってもよい。例えば、出力部14Aは、受付部18Aによって逆順出力を行う選択が受け付けられた場合に逆順出力を行い、受付部18Aによって正順出力を行う選択が受け付けられた場合に正順出力を行ってもよい。
For example, the
次に、第2実施形態に係る作成文章評価装置1Aの作用効果について説明する。
Next, the operation and effect of the created
作成文章評価装置1Aによれば、評価部17Aは、作成文章の単語を正順に評価する。これにより、作成文章の前方からの評価を行うことができる。
According to the created
また、作成文章評価装置1Aによれば、出力部14Aは、(逆順評価に加え)正順評価にさらに基づく出力を行う。これにより、作成文章評価装置1の出力結果に、正順評価を反映することができるため、より正確な出力を行うことができる。
Further, according to the created
また、作成文章評価装置1Aによれば、出力部14Aは、逆順評価及び正順評価のうちより高い評価に基づく出力を行う。これにより、より正確な出力を行うことができると共に、ユーザが作成した作成文章をなるべく活かした出力を行うことができる。
Further, according to the created
また、作成文章評価装置1Aによれば、出力部14Aは、逆順評価が所定の基準を満たさない場合に正順評価に基づく出力を行う、又は、正順評価が所定の基準を満たさない場合に逆順評価に基づく出力を行う。これにより、より正確な出力を行うことができると共に、ユーザが作成した作成文章をなるべく活かした出力を行うことができる。
Further, according to the created
また、作成文章評価装置1Aによれば、受付部18Aは、逆順評価に基づく出力を行うか、又は、正順評価に基づく出力を行うかのユーザの選択を受け付け、出力部14Aは、受付部18Aによって受け付けられたユーザの選択に応じた出力を行う。これにより、ユーザの利便性が向上する。
Further, according to the created
以上の通り、作成文章評価装置1又は作成文章評価装置1Aは、英作文AI採点における文章の後方からの添削方法を実行しているとも言える。すなわち、文章の先頭からだけでなく、後方からでも採点・添削を可能にする。文章の後方から採点・添削が可能になれば、前方だけが間違っている回答に対しても前方のみの修正が可能になる。それにより、ユーザの回答を活かすことができる。作成文章評価装置1又は作成文章評価装置1Aでは、例えば、学習の時点で、正解の文章(英文)の単語を、逆順で入力し、英文を逆順で出力するモデル(ニューラルネットワーク部10)を生成しておく。当該モデルに、ユーザ回答を逆順で入力すると、後方から採点・添削が可能になる。
As described above, it can be said that the created
作成文章評価装置1Aでは、例えば、前方から採点と後方から採点の融合による採点・添削を行うことができる。作成文章評価装置1Aは、前方、後方の両方から採点し、点数の高い方を採用してもよい。作成文章評価装置1Aは、添削も、前方修正、後方修正の両方を試し、信頼度の高い方で添削してもよい。作成文章評価装置1Aは、前方から採点し、前の方だけ誤りがあった場合は、後方から採点・添削を行ってもよいし、後方から採点し、後ろの方だけ誤りがあった場合は、前方から採点・添削を行ってもよい。作成文章評価装置1Aは、ユーザが、前方修正か後方修正を選択することも可能であってもよい。例えば、問題文「つまり、それは学生の成績を上げる可能性があります。」に対してユーザ回答が「Because, there is a possibility that the student's grade will improve.」であった場合、作成文章評価装置1Aは、前方から採点すると「10.00」満点中「5.92」点となり、後方から採点すると「10.00」満点中「7.00」点となり、前方からの採点よりも後方からの採点の方が評価値が高い。
In the created
作成文章評価装置1又は作成文章評価装置1Aの変形例として以下の文章採点添削システムを示す。
The following sentence scoring correction system is shown as a modification of the created
エンコーダ・デコーダモデルのニューラルネットワークであり、第一言語の文章をエンコーダに入力し、その対訳となる第二言語の文章をデコーダから出力させるネットワークにおいて、第二言語の文章の語順を逆転させた文章をデコーダから出力させるように学習させることを特徴とし、その学習させたモデルを使用して、第一言語の文章をエンコーダに入力するとともに、その第二言語への訳文を語順を逆にして、デコーダに入力させながら、デコーダの出力単語と、訳文の単語を比較することで採点し、デコーダの出力単語に置き換えることで添削をすることを特徴とする文章採点添削システム。 It is a neural network of an encoder / decoder model, and in a network in which sentences in the first language are input to the encoder and sentences in the second language to be translated are output from the decoder, sentences in which the order of sentences in the second language is reversed. It is characterized by training to output from the decoder, and using the trained model, input the sentence of the first language to the encoder and reverse the word order of the translation to the second language. A sentence scoring correction system characterized by scoring by comparing the output word of the decoder with the word of the translated sentence while inputting it to the decoder, and making corrections by replacing it with the output word of the decoder.
上記文章採点添削システムであって、文章を前方から採点・添削を行う採点システムと、上記の文章を後方から採点・添削する採点システムの両方で採点を行い、点数の高い方の採点結果および添削結果を表示することを特徴とする文章採点添削システム。 In the above sentence scoring correction system, scoring is performed by both the scoring system that scores and corrects sentences from the front and the scoring system that scores and corrects the above sentences from the back, and the scoring result and correction of the higher score A sentence scoring correction system characterized by displaying the results.
上記文章採点添削システムであって、文章を前方から採点し、文章の前方にのみ誤りがあった場合において、上記の文章を後方から採点・添削する採点システムで再度採点・添削し、後方からの採点・添削結果を表示することを特徴とする文章採点添削システム。 In the above sentence scoring correction system, if the sentence is scored from the front and there is an error only in the front of the sentence, the above sentence is scored / corrected again with the scoring system that scores / corrects from the back, and from the back. A text scoring correction system characterized by displaying scoring / correction results.
なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。 The block diagram used in the description of the above embodiment shows a block of functional units. These functional blocks (components) are realized by any combination of at least one of hardware and software. Further, the method of realizing each functional block is not particularly limited. That is, each functional block may be realized using one physically or logically coupled device, or two or more physically or logically separated devices can be directly or indirectly (eg, for example). , Wired, wireless, etc.) and may be realized using these plurality of devices. The functional block may be realized by combining the software with the one device or the plurality of devices.
機能には、判断、決定、判定、計算、算出、処理、導出、調査、探索、確認、受信、送信、出力、アクセス、解決、選択、選定、確立、比較、想定、期待、見做し、報知(broadcasting)、通知(notifying)、通信(communicating)、転送(forwarding)、構成(configuring)、再構成(reconfiguring)、割り当て(allocating、mapping)、割り振り(assigning)などがあるが、これらに限られない。たとえば、送信を機能させる機能ブロック(構成部)は、送信部(transmitting unit)や送信機(transmitter)と呼称される。いずれも、上述したとおり、実現方法は特に限定されない。 Functions include judgment, decision, judgment, calculation, calculation, processing, derivation, investigation, search, confirmation, reception, transmission, output, access, solution, selection, selection, establishment, comparison, assumption, expectation, and assumption. There are broadcasting, notifying, communicating, forwarding, configuring, reconfiguring, allocating, mapping, assigning, etc., but only these. I can't. For example, a functional block (component) that makes transmission function is called a transmitting unit or a transmitter. In each case, as described above, the realization method is not particularly limited.
例えば、本開示の一実施の形態における作成文章評価装置1及び作成文章評価装置1Aなどは、本開示の文章評価方法の処理を行うコンピュータとして機能してもよい。図7は、本開示の一実施の形態に係る作成文章評価装置1及び作成文章評価装置1Aのハードウェア構成の一例を示す図である。上述の作成文章評価装置1及び作成文章評価装置1Aは、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。
For example, the created
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。作成文章評価装置1及び作成文章評価装置1Aのハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
In the following description, the word "device" can be read as a circuit, a device, a unit, or the like. The hardware configuration of the created
作成文章評価装置1及び作成文章評価装置1Aにおける各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
Each function in the created
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。例えば、上述の問題文章準備部12、エンコーダ入力部13、エンコーダ入力部13A、出力部14、出力部14、作成文章入力部15、デコーダ入力部16、デコーダ入力部16A、評価部17、評価部17A及び受付部18Aなどは、プロセッサ1001によって実現されてもよい。
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、問題文章準備部12、エンコーダ入力部13、エンコーダ入力部13A、出力部14、出力部14、作成文章入力部15、デコーダ入力部16、デコーダ入力部16A、評価部17、評価部17A及び受付部18Aは、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
Further, the
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
The
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。
The
通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信装置1004は、例えば周波数分割複信(FDD:Frequency Division Duplex)及び時分割複信(TDD:Time Division Duplex)の少なくとも一方を実現するために、高周波スイッチ、デュプレクサ、フィルタ、周波数シンセサイザなどを含んで構成されてもよい。例えば、上述の出力部14、出力部14A、作成文章入力部15及び受付部18Aなどは、通信装置1004によって実現されてもよい。
The
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
The
また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
Further, each device such as the
また、作成文章評価装置1及び作成文章評価装置1Aは、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
Further, the created
情報の通知は、本開示において説明した態様/実施形態に限られず、他の方法を用いて行われてもよい。 The notification of information is not limited to the embodiments / embodiments described in the present disclosure, and may be performed by other methods.
本開示において説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G(4th generation mobile communication system)、5G(5th generation mobile communication system)、FRA(Future Radio Access)、NR(new Radio)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi(登録商標))、IEEE 802.16(WiMAX(登録商標))、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及びこれらに基づいて拡張された次世代システムの少なくとも一つに適用されてもよい。また、複数のシステムが組み合わされて(例えば、LTE及びLTE-Aの少なくとも一方と5Gとの組み合わせ等)適用されてもよい。 Each aspect / embodiment described in the present disclosure includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G (4th generation mobile communication system), and 5G (5th generation mobile communication). system), FRA (Future Radio Access), NR (new Radio), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi (registered trademark)) )), LTE 802.16 (WiMAX®), IEEE 802.20, UWB (Ultra-WideBand), Bluetooth®, and other systems that utilize and extend based on these. It may be applied to at least one of the next generation systems. Further, a plurality of systems may be applied in combination (for example, a combination of at least one of LTE and LTE-A and 5G).
本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The order of the processing procedures, sequences, flowcharts, etc. of each aspect / embodiment described in the present disclosure may be changed as long as there is no contradiction. For example, the methods described in the present disclosure present elements of various steps using exemplary order, and are not limited to the particular order presented.
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 The input / output information and the like may be stored in a specific place (for example, a memory), or may be managed using a management table. Information to be input / output may be overwritten, updated, or added. The output information and the like may be deleted. The input information or the like may be transmitted to another device.
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by 1 bit (0 or 1), by a boolean value (Boolean: true or false), or by comparing numerical values (for example, a predetermined value). It may be done by comparison with the value).
本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect / embodiment described in the present disclosure may be used alone, in combination, or may be switched and used according to the execution. Further, the notification of predetermined information (for example, the notification of "being X") is not limited to the explicit one, but is performed implicitly (for example, the notification of the predetermined information is not performed). May be good.
以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。 Although the present disclosure has been described in detail above, it is clear to those skilled in the art that the present disclosure is not limited to the embodiments described in the present disclosure. The present disclosure may be implemented as amendments and modifications without departing from the spirit and scope of the present disclosure as determined by the description of the scope of claims. Therefore, the description of this disclosure is for purposes of illustration and does not have any limiting meaning to this disclosure.
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language, or other names, is an instruction, instruction set, code, code segment, program code, program, subprogram, software module. , Applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, features, etc. should be broadly interpreted.
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。 Further, software, instructions, information and the like may be transmitted and received via a transmission medium. For example, a website that uses at least one of wired technology (coaxial cable, fiber optic cable, twisted pair, Digital Subscriber Line (DSL), etc.) and wireless technology (infrared, microwave, etc.). When transmitted from a server or other remote source, at least one of these wired and wireless technologies is included within the definition of transmission medium.
本開示において説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 The information, signals, etc. described in the present disclosure may be represented using any of a variety of different techniques. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. It may be represented by a combination of.
なお、本開示において説明した用語及び本開示の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 The terms described in the present disclosure and the terms necessary for understanding the present disclosure may be replaced with terms having the same or similar meanings.
本開示において使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。 The terms "system" and "network" used in this disclosure are used interchangeably.
また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。例えば、無線リソースはインデックスによって指示されるものであってもよい。 Further, the information, parameters, etc. described in the present disclosure may be expressed using absolute values, relative values from predetermined values, or using other corresponding information. It may be represented. For example, the radio resource may be one indicated by an index.
上述したパラメータに使用する名称はいかなる点においても限定的な名称ではない。さらに、これらのパラメータを使用する数式等は、本開示で明示的に開示したものと異なる場合もある。 The names used for the parameters described above are not limited in any respect. Further, mathematical formulas and the like using these parameters may differ from those expressly disclosed in this disclosure.
本開示で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up、search、inquiry)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。また、「判断(決定)」は、「想定する(assuming)」、「期待する(expecting)」、「みなす(considering)」などで読み替えられてもよい。 The terms "determining" and "determining" used in this disclosure may include a wide variety of actions. "Judgment" and "decision" are, for example, judgment (judging), calculation (calculating), calculation (computing), processing (processing), derivation (deriving), investigation (investigating), search (looking up, search, inquiry). It may include (eg, searching in a table, database or another data structure), ascertaining as "judgment" or "decision". Also, "judgment" and "decision" are receiving (for example, receiving information), transmitting (for example, transmitting information), input (input), output (output), and access. (Accessing) (for example, accessing data in memory) may be regarded as "judgment" or "decision". In addition, "judgment" and "decision" are considered to be "judgment" and "decision" when the things such as solving, selecting, selecting, establishing, and comparing are regarded as "judgment" and "decision". Can include. That is, "judgment" and "decision" may include considering some action as "judgment" and "decision". Further, "judgment (decision)" may be read as "assuming", "expecting", "considering" and the like.
「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。例えば、「接続」は「アクセス」で読み替えられてもよい。本開示で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及びプリント電気接続の少なくとも一つを用いて、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどを用いて、互いに「接続」又は「結合」されると考えることができる。 The terms "connected", "coupled", or any variation thereof, mean any direct or indirect connection or connection between two or more elements and each other. It can include the presence of one or more intermediate elements between two "connected" or "combined" elements. The connection or connection between the elements may be physical, logical, or a combination thereof. For example, "connection" may be read as "access". As used in the present disclosure, the two elements use at least one of one or more wires, cables and printed electrical connections, and as some non-limiting and non-comprehensive examples, the radio frequency domain. Can be considered to be "connected" or "coupled" to each other using electromagnetic energy having wavelengths in the microwave and light (both visible and invisible) regions.
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 The phrase "based on" as used in this disclosure does not mean "based on" unless otherwise stated. In other words, the statement "based on" means both "based only" and "at least based on".
本開示において使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量又は順序を全般的に限定しない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本開示において使用され得る。したがって、第1及び第2の要素への参照は、2つの要素のみが採用され得ること、又は何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Any reference to elements using designations such as "first" and "second" as used in this disclosure does not generally limit the quantity or order of those elements. These designations can be used in the present disclosure as a convenient way to distinguish between two or more elements. Therefore, references to the first and second elements do not mean that only two elements can be adopted, or that the first element must somehow precede the second element.
上記の各装置の構成における「手段」を、「部」、「回路」、「デバイス」等に置き換えてもよい。 The "means" in the configuration of each of the above devices may be replaced with a "part", a "circuit", a "device" and the like.
本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。 When "include", "including" and variations thereof are used in the present disclosure, these terms are as inclusive as the term "comprising". Is intended. Moreover, the term "or" used in the present disclosure is intended not to be an exclusive OR.
本開示において、例えば、英語でのa、an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。 In the present disclosure, if articles are added by translation, for example a, an and the in English, the disclosure may include the plural nouns following these articles.
本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。 In the present disclosure, the term "A and B are different" may mean "A and B are different from each other". The term may mean that "A and B are different from C". Terms such as "separate" and "combined" may be interpreted in the same way as "different".
1・1A…作成文章評価装置、10・10A…ニューラルネットワーク部、11・11A…対訳コーパス格納部、12…問題文章準備部、13・13A…エンコーダ入力部、14・14A…出力部、15…作成文章入力部、16・16A…デコーダ入力部、17・17A…評価部、18A…受付部、100・100A…エンコーダ部、101・101A…デコーダ部。 1.1A ... Creation text evaluation device, 10.10A ... Neural network unit, 11.11A ... Bilingual corpus storage unit, 12 ... Problem text preparation unit, 13 / 13A ... Encoder input unit, 14.14A ... Output unit, 15 ... Created text input unit, 16.16A ... Decoder input unit, 17.17A ... Evaluation unit, 18A ... Reception unit, 100 / 100A ... Encoder unit, 101 / 101A ... Decoder unit.
Claims (10)
前記デコーダに、第2言語で作成された作成文章の単語を前記所定の単語順で順次入力するデコーダ入力部と、
前記作成文章の単語を、前記デコーダ入力部による入力に基づいて前記デコーダが出力する第2言語の単語候補及び当該単語候補の尤度に基づいて評価する評価部と、
前記評価部による評価に基づく出力を行う出力部と、
を備える作成文章評価装置。 The encoder inputs a sentence in the first language, and the decoder sets the word candidates of the sentence in the second language corresponding to the sentence in the first language and the likelihood of the word candidates in order from the first word to the last word of the sentence. It is a created sentence evaluation device that uses the recurrent neural network of the encoder / decoder model to sequentially output in a predetermined word order that is different from the word order to which the word is directed.
A decoder input unit that sequentially inputs words of a created sentence created in a second language into the decoder in the predetermined word order, and a decoder input unit.
An evaluation unit that evaluates the words in the created sentence based on the word candidates of the second language output by the decoder based on the input by the decoder input unit and the likelihood of the word candidates.
An output unit that outputs based on the evaluation by the evaluation unit, and an output unit.
Created text evaluation device equipped with.
請求項1に記載の作成文章評価装置。 The decoder input unit sequentially inputs the words of the created sentence into the decoder in the predetermined word order instead of the word candidates sequentially output by the decoder.
The created sentence evaluation device according to claim 1.
請求項1又は2に記載の作成文章評価装置。 The evaluation unit is based on the word candidate of the second language output by the decoder and the likelihood of the word candidate with respect to the input word which is the word of the created sentence input by the decoder input unit. Evaluates the next word in the predetermined word order of the input word in
The created sentence evaluation device according to claim 1 or 2.
請求項1~3の何れか一項に記載の作成文章評価装置。 The created sentence is a sentence created by the user translating the sentence of the first language input to the encoder into the second language.
The created sentence evaluation device according to any one of claims 1 to 3.
請求項1~4の何れか一項に記載の作成文章評価装置。 The recurrent neural network is learned based on a corpus of a set of sentences in a first language and sentences in a second language corresponding to the sentences in the first language in the predetermined word order.
The created sentence evaluation device according to any one of claims 1 to 4.
請求項1~5の何れか一項に記載の作成文章評価装置。 The predetermined word order is a word order from the last word to the first word in a sentence.
The created sentence evaluation device according to any one of claims 1 to 5.
前記出力部は、前記追加評価部による評価にさらに基づく出力を行う、
請求項1~6の何れか一項に記載の作成文章評価装置。 Further equipped with an additional evaluation unit that evaluates the words of the created sentence in the order of words from the first word to the last word of the created sentence.
The output unit further outputs based on the evaluation by the additional evaluation unit.
The created sentence evaluation device according to any one of claims 1 to 6.
請求項7に記載の作成文章評価装置。 The output unit outputs based on the higher evaluation of the evaluation by the evaluation unit and the evaluation by the additional evaluation unit.
The created sentence evaluation device according to claim 7.
前記出力部は、前記評価部による評価が所定の基準を満たさない場合に前記追加評価部による評価に基づく出力を行う、又は、前記追加評価部による評価が所定の基準を満たさない場合に前記評価部による評価に基づく出力を行う、
請求項1~6の何れか一項に記載の作成文章評価装置。 Further equipped with an additional evaluation unit that evaluates the words of the created sentence in the order of words from the first word to the last word of the created sentence.
The output unit outputs based on the evaluation by the additional evaluation unit when the evaluation by the evaluation unit does not meet the predetermined standard, or the evaluation when the evaluation by the additional evaluation unit does not meet the predetermined standard. Output based on evaluation by the department,
The created sentence evaluation device according to any one of claims 1 to 6.
前記評価部による評価に基づく出力を行うか、又は、前記追加評価部による評価に基づく出力を行うかのユーザの選択を受け付ける受付部と、
をさらに備え、
前記出力部は、前記受付部によって受け付けられたユーザの選択に応じた出力を行う、
請求項1~6の何れか一項に記載の作成文章評価装置。 An additional evaluation unit that evaluates the words in the created sentence in the order of words from the first word to the last word in the created sentence.
A reception unit that accepts the user's choice of whether to output based on the evaluation by the evaluation unit or output based on the evaluation by the additional evaluation unit.
Further prepare
The output unit outputs according to the user's selection accepted by the reception unit.
The created sentence evaluation device according to any one of claims 1 to 6.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020135965A JP2022032319A (en) | 2020-08-11 | 2020-08-11 | Created sentence evaluation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020135965A JP2022032319A (en) | 2020-08-11 | 2020-08-11 | Created sentence evaluation device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022032319A true JP2022032319A (en) | 2022-02-25 |
Family
ID=80350121
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020135965A Pending JP2022032319A (en) | 2020-08-11 | 2020-08-11 | Created sentence evaluation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022032319A (en) |
-
2020
- 2020-08-11 JP JP2020135965A patent/JP2022032319A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7062056B2 (en) | Creation text evaluation device | |
US10460029B2 (en) | Reply information recommendation method and apparatus | |
CN106202059B (en) | Machine translation method and machine translation device | |
JP7222082B2 (en) | Recognition error correction device and correction model | |
JP6802364B2 (en) | Dialogue system | |
US8976118B2 (en) | Method for character correction | |
WO2021070819A1 (en) | Scoring model learning device, scoring model, and determination device | |
JP7103957B2 (en) | Data generator | |
US11663420B2 (en) | Dialogue system | |
WO2020225942A1 (en) | Internal state modifying device | |
WO2021186892A1 (en) | Translated sentence computation device | |
WO2020255553A1 (en) | Generation device and normalization model | |
JP2022029273A (en) | Sentence similarity calculation device, trained model generation device, and variance expression model | |
JP2022032319A (en) | Created sentence evaluation device | |
JP2016189089A (en) | Extraction equipment, extraction method and program thereof, support device, and display controller | |
WO2020166125A1 (en) | Translation data generating system | |
JP2021124913A (en) | Retrieval device | |
WO2021215262A1 (en) | Punctuation mark delete model training device, punctuation mark delete model, and determination device | |
JP2020177387A (en) | Sentence output device | |
WO2021199654A1 (en) | Dividing device | |
WO2022130940A1 (en) | Presentation device | |
US11604831B2 (en) | Interactive device | |
US11468106B2 (en) | Conversation system | |
WO2022102364A1 (en) | Text generation model generating device, text generation model, and text generating device | |
JP2021179665A (en) | Sentence creation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230803 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240716 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240723 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240912 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20241001 |