JPH05174019A - 文章評価システム - Google Patents

文章評価システム

Info

Publication number
JPH05174019A
JPH05174019A JP3338682A JP33868291A JPH05174019A JP H05174019 A JPH05174019 A JP H05174019A JP 3338682 A JP3338682 A JP 3338682A JP 33868291 A JP33868291 A JP 33868291A JP H05174019 A JPH05174019 A JP H05174019A
Authority
JP
Japan
Prior art keywords
sentence
evaluation
neural network
importance
important
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3338682A
Other languages
English (en)
Inventor
Yuichi Ishizuka
裕一 石塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP3338682A priority Critical patent/JPH05174019A/ja
Publication of JPH05174019A publication Critical patent/JPH05174019A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

(57)【要約】 【構成】 文脈処理ユニット1と重要性評価ユニット2
(2段組のニューラルネットワーク3、4)で構成さ
れ、文章要約システムの要である、文章の重要性を2段
組のニューラルネットに学習させることにより、各要素
における重要度の比を自動的に生成し、しかもユーザの
主観に沿った変更も簡単に行なえる。 【効果】 文章の重要性の評価をニューラルネットを使
って学習させ、いままで人間が適当に決めていた評価値
を自動生成し、この解析結果を使えば、カナ漢字変換な
どの形態素解析に始まり文脈解析に至る各ステージにお
いて、また談話理解システムや機械翻訳システムの処理
において、先に登場した文の内容を効率的に保持するこ
とができ、メモリーの削減を図ることができる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明はニューラルネットワーク
を用いた文脈の重要性を評価するシステムに関するもの
であり、たとえば、カナ漢字変換などの形態素解析、統
語解析、意味解析、構文解析、文脈解析などにおいて、
前に出てきた文章の内容を効率良く把握し、各種解析過
程で役立てることに関するものである。
【0002】
【従来の技術】従来の文脈の重要性評価は『情報処理Vo
l 30,1989,No10 pp1264-1267』にあるように、ルールを
用い、その評価値を決めていた。たとえば、一貫性によ
る重要性評価、埋め込み文による重要性評価、文内の概
念から構成されるフレームによる重要性評価、単文の分
類による重要性評価、分野ごとの重要語による重要性評
価、修辞的な語句による重要性評価、強調表現などのル
ールにより評価値をアドホックに決めていた。こうした
各ルールによる評価値の客観性は疑わしく、加えて各ル
ール間の相対的な評価値となるとこの問題はさらに顕著
になる。したがってルールの追加に対しても柔軟性に欠
けることになる。
【0003】各ルールとその処理についてさらに詳しく
説明する。『一貫性による重要性評価』では、それぞれ
の単文に依存している単文の数を勘定することにより、
隣接する単文との相対的な重要性が評価される。『埋め
込み文による重要性評価』とは埋め込み文自体、大半は
それが修飾する語句の説明であり、それを削除してもあ
まり影響がない。ただし限定の意味を持つ連体修飾文
は、除外すると体言の意味が総称的になるために重要性
が高い。これらそれぞれの場合に適当に評価値を決めて
いる。『文内の概念から構成されるフレームによる重要
性評価』は他の文章とのつながりがなくても情報を多く
含む文は重要性が高いという経験則を反映したものであ
る。具体的には文の概念から生成されたフレームのスロ
ット数を評価値にしている。『単文の分類による重要性
評価』は単文の種類、例えば報告文のなかで事実を述べ
ている単文があればそれは、そうでないものに比べて重
要性大とし、論節文において意見を述べているものも、
そうでない単文に比べて重要性が高いなどとするもので
ある。『分野ごとの重要語による重要性評価』は対象や
属性の中の重要性評価である。例えば製品紹介記事では
「価格」「特徴」「目的」「販売」「開発」といった語
句が重要と判断される。『修辞的な語句による重要性評
価』は「要するに」「結局」といった言葉が、作者の意
図が反映されているため重要とみなし、逆に「例えば」
「但し」といった語句は重要ではないとする。最後の
『強調表現』は「非常に」「全く」「〜さえ」などの強
調表現も作者の意図が反映されているため重要とみな
す。以上のようなルールを用い重要性を判断してきた。
しかしこれまではこうした評価値は人間がアドホックに
決定していた。
【0004】
【発明が解決しようとする課題】文章の重要性は人間の
主観に依存する部分が大半であり、またその重要度も本
来、白黒つけにくい連続的な量であると考えられる。従
来のシステムは誰がその重要性を決定したか分らない評
価値を使い、またその値自体も1,0,-1などといった大雑
把なデジタル量を用いていた。これでは重要度の細かな
見積もりは難しい。また新たなルールを付け加えるにし
ても、これまでのシステムは既存ルールとの間の評価基
準の調整を行なわなければならず、一般のユーザが変更
することは困難であった。以上まとめると次のようにな
る。 1.評価基準の一般性、客観性が疑わしい。 2.評価基準のユーザへの適応が難しい。 以下でこの2点を解決する手法を提案する。
【0005】本発明は文章要約システムなどの要とな
る、文章評価システムにおいて、各評価における重要性
の相対的な価値を自動的に生成し、しかもユーザの主観
に沿った変更も簡単に行なえる柔軟なシステムを得るこ
とを目的としている。
【0006】
【課題を解決するための手段】第1の発明に係る文章評
価システムは以下の要素を有するものである。 (a)文章を入力し、所定のルールに基づいて、その文
章の文脈を解析して、所定の評価値を出力する文脈処理
ユニット、 (b)上記文脈処理ユニットからの評価値を入力して、
その文章の重要度を評価するニューラルネットワーク。
【0007】第2の発明に係る文章評価システムは以下
の要素を有するものである。 (a)文章を入力し、複数のルールに基づいて、その文
章の文脈を解析して、それぞれの評価値を出力する文脈
処理ユニット、 (b)以下の要素を有する重要度評価ユニット、 (b1)上記文脈処理ユニットからのルール毎の評価値
を入力し、そのルールに基づく文章の重要性を出力する
第1段のニューラルネットワーク (b2)上記第1段のニューラルネットワークから出力
される各ルール毎の重要性を入力し、各ルール間におけ
る重要性の評価を行う第2段のニューラルネットワー
ク。
【0008】
【作用】第1の発明に係る文章評価システムは、従来の
システムで述べた幾つかのルールから得られる値、たと
えば、関連する単文の数といった具体的な量を入力と
し、出力は「非常に重要」「重要」「やや重要」「重要
ではない」などの意味に対応したニューロンが発火する
ようにニューラルネットを構築し、学習させる。これに
より、従来システムにないユーザに密着した柔軟なシス
テムを構築することができ、また各ルール間の総体的な
重要度の比も自動的に構築される。
【0009】第2の発明に係る文章評価システムは、文
章要約システムなどの要となる、文章の重要性を2段組
ニューラルネットに学習させ、第1段のニューラルネッ
トワークで各ルール毎の重要性評価を行なうとともに、
第2段のニューラルネットワークで各ルール間の重要性
評価を行なうことにより、各要素における重要度の比を
自動的に生成し、しかもユーザの主観に沿った変更も簡
単に行なえることを狙いとしている。またルールの追加
/変更にも柔軟に対処できるシステムを構成することが
可能である。
【0010】
【実施例】
実施例1.図1は、本装置の全体の構成図である。文脈
処理ユニット1では照応関係、一貫性関係、段落関係な
どを生成する。次に重要性ユニット2(ニューラルネッ
トワークで構成され、以下、ニューラルネットワークと
もいう)にその結果および単文頻度情報などを入力し、
重要な文であるかどうかが判断される。重要性評価ユニ
ット2は、ユーザの主観により重要性の判断を変更する
ことができる。その指示はニューラルネットワークの学
習機能を使って重要性評価ユニット2へフィードバック
されることで行われる。これが本実施例の大まかな処理
の流れである。
【0011】図2は、文脈処理ユニット1の概要を示す
図である。この文脈処理ユニットは、従来の技術で述べ
た各ルールに基づく評価値を示している。たとえば、
(1)は一貫性による重要性評価の例を示す場合であ
り、ある単文aに直接依存している単文の数がn個、ま
た、ある単文aとの間に他の1文が挿入されて間接的に
aと依存している単文の数がm個、また、ある単文aと
の間に他の2文が挿入されて間接的にaと依存している
単文の数がl個あることが判明した場合を示している。
また、(2)は埋め込み文による重要性評価の例を示し
たものであり、ある単文aに埋め込まれている単文の数
がi個、また、ある単文aに限定の意味を持つ連体修飾
文の数がj個存在していることが判明した場合を示して
いる。このように、文脈処理ユニットは、(1)から
(N)までの評価項目を有しており、文章を入力するこ
とにより、それぞれの評価項目に対してその定量化され
た評価値を出力することになる。
【0012】次にニューラルネットワーク2について図
3をもとに入力や出力の具体的な値等について述べる。
入力は以下のルールなどから得られる具体的な値とす
る。たとえば、文脈の一貫性に関しては、前述したよう
なそれぞれの単文に依存している単文の数n、m、lを
ニューラルネットワーク2への入力とする。埋め込み文
がある場合には埋め込み分の文の数i、および限定の意
味を持つ連体修飾文の数jなどを入力する。さらに文内
の概念から構成されるフレームによる重要性評価として
文の概念から生成されたフレームのスロット数をカウン
トした値を入力とする。以下同様に文脈処理ユニット1
から出力される文章の重要性に係わる様々なルールを定
量化した評価値を入力する。出力は『かなり重要』『重
要』『やや重要』『重要ではない』に対応したニューロ
ンが発火することにより識別する。
【0013】次にニューラルネットワーク2の学習過程
について言及する(図4参照)。この機能はニューラル
ネットワークの性質を利用したものであり、ニューラル
ネットワーク2に新しい評価項目を学習させたい場合、
あるいは出力した結果がユーザの主観的な判断と異なる
ときは、ニューラルネットの学習機能を使ってニューラ
ルネットワーク自体を更新することができる。新しい項
目を学習させたい場合は、ニューラルネットワーク2に
新しいニューロンを追加することで行なえる。そして、
その追加されたニューロンを有するニューラルネットワ
ークを『かなり重要』『重要』・・・などの評価を元に
繰り返し学習させる。
【0014】以上のように、この実施例では、要約など
に必要と思われる文章(文脈)に関する情報、たとえ
ば、関連する単文の頻度情報などをニューラルネットに
入力し、文章の重要性を学習するステップと、学習した
結果を使い、文章の重要性の評価値を出力するステップ
を含んだことを特徴とする文章評価システムを説明し
た。
【0015】そして、この実施例により文章の要約シス
テムに柔軟性を持たせることができ、また各ルールによ
って生じる各要素の評価値とその関係を人間の手を煩わ
すことなく、ニューラルネットの内部構造に反映するこ
とができる。これにより、たとえば、カナ漢字変換など
の形態素解析、統語解析、意味解析、構文解析、文脈解
析などの各ステージにおいて、また談話理解システムや
機械翻訳システムの処理において、既出の文章を効率良
く把握することができ、それを各種解析時に文脈情報と
して使用することができる。重要箇所のみ把握するため
メモリーの削減にもつながる。
【0016】実施例2.図5は他の実施例を示す全体の
構成図である。図において実施例1で示した図1と異な
るところは、重要性評価ユニット2である。この実施例
における重要性評価ユニット2は、その中に第1段と第
2段のニューラルネットワーク有しており、第1段のニ
ューラルネットワークは文脈処理ユニット1で解析され
るルールの結果をそれぞれ入力するルール毎のニューラ
ルネットワーク31、32、・・・3nを有している。
また、第2段のニューラルネットワークはこれら複数の
第1段のニューラルネットワークからの結果を入力して
最終的に重要性の評価結果を出力する。
【0017】次に、この実施例の動作について説明す
る。文脈処理ユニット1では実施例1と同様に(図2参
照)、照応関係、一貫性関係、段落関係などの評価に必
要な項目の前処理を行なう。当箇所は従来の解析手法を
ほとんど踏襲している。唯一違う所があるとすれば、入
力の情報を数値化する段階でニューラルネットの入力ユ
ニット数などの制限により、異なった値を使用する可能
性があることである。
【0018】次に重要性評価ユニット2にこれらの結果
を項目毎に入力する。ここでは一貫性関係という評価項
目を例に話しを具体化する(図6参照)。まずこの関係
により定量化された値n、m、l……といった値を、各
種評価ニューラルネットワーク31〜3nのうちの一貫
性関係ニューラルネットワーク31に入力する。この場
合n、m、lといった値を規格化しても良いし、そうで
なくても良い。この入力に対してニューラルネットワー
ク31の出力ニューロンのいずれかが発火と呼ばれる状
態になれば、それは図6の下に書いた4つの状態の内の
どれかの意味を表すことになる。即ち『かなり重要』
『重要』『やや重要』『重要ではない』という評価の内
の一つが得られたことになる。
【0019】これを一貫性関係ばかりではなく、埋め込
み文等の他の評価項目それぞれに対して行なう。ここで
さらにこれらの出力を定量化し、各項目間調整ニューラ
ルネットワーク4に入力し、最終的に重要な文であるか
どうかが判断される(図7)。これが本実施例の大まか
な処理の流れである。また重要性評価ユニット2はこの
ような構成のため、ユーザの主観により重要性の判断を
変更し、それを学習により習得することができる。
【0020】ニューラルネット31〜3nについてもう
すこし説明する。これはニューラルネット4の子ネット
ワークとでも言うものである。ニューラルネットワーク
3xの入力や出力の具体的な値を図6を参照しながら説
明する。入力は以下の評価項目から得られる値である。
例えば文脈の一貫性という評価項目では、ある単文に直
接、または間接的に依存している単文の数に関する情報
をニューラルネットワーク31への入力とする。また埋
め込み文に関する評価項目では、それがある場合には埋
め込み文の数や、限定の意味を持つ連体修飾文の有無な
どを定量化し入力とする。さらに文内の概念から構成さ
れるフレームによる重要性という評価項目ではフレーム
のスロット数などを入力とする。以下同様に入力として
は文章の重要性に係わる様々な評価項目を定量化した値
をそれぞれ子ニューラルネットワーク3への入力とす
る。ニューラルネットワーク3の出力は『かなり重要』
『重要』『やや重要』『重要ではない』に対応したニュ
ーロンが発火するように学習させ、識別させる。
【0021】ニューラルネットワーク4(図7)につい
て述べる。ニューラルネットワーク4への入力は子ニュ
ーラルネットワーク3の各出力である。但し今回は子ニ
ューラルネットワーク3の出力そのものではなく、子ニ
ューラルネットワーク3の出力の総和を、得られた出力
の総和内の最大値で割って正規化したものとする。ニュ
ーラルネットワーク4の出力は子ニューラルネットワー
ク3と同様、『かなり重要』『重要』『やや重要』『重
要ではない』といったニューロンを発火させるように学
習する。つまり子ニューラルネットワーク3で各項目毎
の評価を行ない、ニューラルネットワーク4ではさらに
項目間における評価を行なう。これは各評価項目間の相
対的な重みづけをすることに相当する。
【0022】次にニューラルネット3および4の学習過
程について言及する。この機能はニューラルネットワー
クの性質を利用したものであり、ニューラルネット3に
新しい評価項目を学習させたい場合、あるいは出力した
結果がユーザの主観的な判断と異なるときは、ニューラ
ルネットの学習機能を使ってニューラルネットワーク自
体を更新することができる。新しい項目を学習させたい
場合は、子ニューラルネットワーク3を追加することで
行なえる。つまりその子ニューラルネットワークを『か
なり重要』『重要』・・・などの評価を元に学習させ
る。今までのシステムでもルール自体の追加は簡単であ
るが、これを元に判断される評価値に関しては、ルール
間の相対的な重要度との比較で決定しなければならず、
実際には具体的なデータの乏しいユーザの手には負えな
かったのである。その他の特徴としてはある項目におい
て、例えばユーザの主観とニューラルネットの出力との
間でギャップがあるときは、その評価項目ニューラルネ
ットに対してユーザが学習サンプルを提示し、誤差があ
る程度小さくなるまで学習を行なうことで対処できる。
【0023】以上のように、この実施例では、要約など
に必要と思われる文章(文脈)に関する情報、例えば関
連する単文の頻度情報などを2段組ニューラルネットに
入力し、文脈の重要性を学習するステップと、学習した
結果を使い、文章の重要性の評価値を出力するステップ
を含んだことを特徴とする文章評価システムを説明し
た。
【0024】そして、この実施例によれば、文脈処理ユ
ニットから得られる値、例えば関連する単文の数といっ
た量を、評価用子ニューラルネットワーク(1段目)に
入力する。そして出力が「非常に重要」「重要」「やや
重要」「重要ではない」などの意味に対応したニューロ
ンが発火するようにニューラルネットを学習させる。こ
うした子ニューラルネットワークを各評価項目ごとに作
成し、これにより従来システムにない柔軟なシステムを
構築することができる。さらに上記子ニューラルネット
ワーク毎に、その出力を積算した値を子ニューラルネッ
トワーク間で正規化し、親ニューラルネット(2段目)
ワークへの入力とする。そしてさらに親ニューラルネッ
トワークの出力を「非常に重要」「重要」「やや重要」
「重要ではない」といった評価基準を使って学習させ
る。これにより各項目間、この場合は子ニューラルネッ
トワークの相対的な重要度の比が学習により半自動的に
構築される。
【0025】
【発明の効果】以上のように、第1および第2の発明に
よれば、文章要約システムなどの自然言語処理関係のシ
ステムで、既出の文脈を用いて解析が必要な時に、今ま
では基本的に前の文章を一括して記憶していたものを、
このシステムを使えば文章の理解に必要な事項のみ記憶
していれば良く、文脈の保持に必要とする記憶容量を削
減できる。また今まで人間が適当に決定していた、文章
の重要度を半自動的に定量化することができるようにな
る。さらに重要性評価に関する項目の追加や、ユーザの
主観的判断も簡単に取り入れることができる。
【図面の簡単な説明】
【図1】本システムの一実施例を示す全体図。
【図2】本システムの文脈処理ユニットの概要を示す
図。
【図3】本システムのニューラルネットで構成されてい
る重要性評価ユニットの動作を示す図。
【図4】本システムの重要性評価ユニットの学習時の動
作祖を示す図。
【図5】本システムの他の実施例を示す全体図。
【図6】本システムの他の実施例の第1段のニューラル
ネットワークを示す図。
【図7】本システムの他の実施例の第2段のニューラル
ネットワークを示す図。
【符号の説明】
1 文脈処理ユニット 2 重要性評価ユニット(ニューラルネットワーク) 3 子ニューラルネットワーク(第1段のニューラルネ
ットワーク) 4 親ニューラルネットワーク(第2段のニューラルネ
ットワーク)

Claims (2)

    【特許請求の範囲】
  1. 【請求項1】 以下の要素を有する文章評価システム (a)文章を入力し、所定のルールに基づいて、その文
    章の文脈を解析して、所定の評価値を出力する文脈処理
    ユニット、 (b)上記文脈処理ユニットからの評価値を入力して、
    その文章の重要度を評価するニューラルネットワーク。
  2. 【請求項2】 以下の要素を有する文章評価システム (a)文章を入力し、複数のルールに基づいて、その文
    章の文脈を解析して、それぞれの評価値を出力する文脈
    処理ユニット、 (b)以下の要素を有する重要度評価ユニット、 (b1)上記文脈処理ユニットからのルール毎の評価値
    を入力し、そのルールに基づく文章の重要性を出力する
    第1段のニューラルネットワーク (b2)上記第1段のニューラルネットワークから出力
    される各ルール毎の重要性を入力し、各ルール間におけ
    る重要性の評価を行う第2段のニューラルネットワー
    ク。
JP3338682A 1991-12-20 1991-12-20 文章評価システム Pending JPH05174019A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3338682A JPH05174019A (ja) 1991-12-20 1991-12-20 文章評価システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3338682A JPH05174019A (ja) 1991-12-20 1991-12-20 文章評価システム

Publications (1)

Publication Number Publication Date
JPH05174019A true JPH05174019A (ja) 1993-07-13

Family

ID=18320469

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3338682A Pending JPH05174019A (ja) 1991-12-20 1991-12-20 文章評価システム

Country Status (1)

Country Link
JP (1) JPH05174019A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11167398A (ja) * 1997-12-04 1999-06-22 Mitsubishi Electric Corp 音声合成装置
CN111241242A (zh) * 2020-01-09 2020-06-05 北京百度网讯科技有限公司 目标内容的确定方法、装置、设备及计算机可读存储介质
KR20210039916A (ko) * 2019-10-02 2021-04-12 (주)디앤아이파비스 특허문서의 단어 세트 획득 방법 및 획득된 단어 세트를 바탕으로 특허문서의 유사도를 판단하기 위한 방법.
KR20210039913A (ko) * 2019-10-02 2021-04-12 (주)디앤아이파비스 인공지능 모델을 이용한 특허문서의 중요도 판단 방법, 장치 및 시스템
KR20210039915A (ko) * 2019-10-02 2021-04-12 (주)디앤아이파비스 유사도 점수 및 비유사도 점수를 이용한 특허문서의 유사도 판단 방법, 장치 및 시스템

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11167398A (ja) * 1997-12-04 1999-06-22 Mitsubishi Electric Corp 音声合成装置
KR20210039916A (ko) * 2019-10-02 2021-04-12 (주)디앤아이파비스 특허문서의 단어 세트 획득 방법 및 획득된 단어 세트를 바탕으로 특허문서의 유사도를 판단하기 위한 방법.
KR20210039913A (ko) * 2019-10-02 2021-04-12 (주)디앤아이파비스 인공지능 모델을 이용한 특허문서의 중요도 판단 방법, 장치 및 시스템
KR20210039915A (ko) * 2019-10-02 2021-04-12 (주)디앤아이파비스 유사도 점수 및 비유사도 점수를 이용한 특허문서의 유사도 판단 방법, 장치 및 시스템
CN111241242A (zh) * 2020-01-09 2020-06-05 北京百度网讯科技有限公司 目标内容的确定方法、装置、设备及计算机可读存储介质
KR20210038441A (ko) * 2020-01-09 2021-04-07 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 목표 내용의 결정 방법, 장치, 기기 및 컴퓨터 판독 가능 저장매체

Similar Documents

Publication Publication Date Title
CN112001187B (zh) 一种基于中文句法和图卷积神经网络的情感分类系统
d'Sa et al. Bert and fasttext embeddings for automatic detection of toxic speech
MacCartney et al. An extended model of natural logic
Sadrzadeh et al. Sentence entailment in compositional distributional semantics
KR102607826B1 (ko) 심층 신경망 기반의 문서 분석 시스템과 방법 및 이를 구현하기 위한 프로그램이 저장된 기록 매체 및 매체에 저장된 컴퓨터프로그램
Bizzoni et al. “deep” learning: Detecting metaphoricity in adjective-noun pairs
Kieras A method for comparing a simulation to reading time data
Pankratz et al. The role of relevance for scalar diversity: a usage-based approach
Nini A Theory of Linguistic Individuality for Authorship Analysis
Bakker et al. Semantic role labelling for dutch law texts
Lerique et al. The semantic drift of quotations in blogspace: A case study in short‐term cultural evolution
Cheng et al. Building a neural semantic parser from a domain ontology
JPH05174019A (ja) 文章評価システム
Reilly A connectionist model of some aspects of anaphor resolution
Hoek et al. Automatic coherence analysis of Dutch: Testing the subjectivity hypothesis on a larger scale
Skirgård Disentangling Ancestral State Reconstruction in historical linguistics: Comparing classic approaches and new methods using Oceanic grammar
Zinn Utilising corpus linguistic tools for analysing social change in risk
Alotaibi et al. Hybrid approach for automatic short answer marking
Theune et al. Generating varied narrative probability exercises
CN117540727B (zh) 基于albert模型与rpa技术的主观题评分方法及系统
Dewi et al. Morphological Analysis of Free And Bound Morphemes in The Album English Song Lyric Maher Zain: FORGIVE ME
Montes et al. Visualizing distributional semantics
Yıldırım et al. A machine learning approach to personal pronoun resolution in Turkish
Xu et al. The textual semantic lens
Heffernan Problem-solving recognition in scientific text