JP6910012B2 - 文章評価装置、及び文章評価方法 - Google Patents
文章評価装置、及び文章評価方法 Download PDFInfo
- Publication number
- JP6910012B2 JP6910012B2 JP2018561820A JP2018561820A JP6910012B2 JP 6910012 B2 JP6910012 B2 JP 6910012B2 JP 2018561820 A JP2018561820 A JP 2018561820A JP 2018561820 A JP2018561820 A JP 2018561820A JP 6910012 B2 JP6910012 B2 JP 6910012B2
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- input
- input sentence
- evaluation
- encoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/51—Translation evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
1.構成
実施形態1では、翻訳文の評価を自動で行う文章評価装置及び方法について説明する。
本実施形態に係る文章評価装置及び方法の概要について、図1を参照して説明する。図1は、本実施形態に係る文章評価装置2の概要を説明するための図である。
本実施形態では、一例として、機械学習に基づく翻訳処理を行う翻訳機1を想定している。本実施形態における翻訳機1の例について、図1を参照して説明する。
図3を参照して、本実施形態に係る文章評価装置2のハードウェア構成を説明する。図3は、文章評価装置2の構成を例示するブロック図である。
主観評価の学習用データD2について、図4を参照して説明する。図4は、文章評価装置2における主観評価の学習用データを説明するための図である。
以上のように構成される文章評価装置2の動作について、以下説明する。
本実施形態に係る文章評価装置2の動作の概要について、図5を用いて説明する。図5は、文章評価装置2におけるユーザインタフェースの表示例を示す図である。
本実施形態に係る文章評価装置2において文章評価方法が実行される実行モードの全体動作について、図6を用いて説明する。
以下、図6のステップS3の文章評価処理について説明する。本実施形態において、文章評価処理は、文章評価装置2において深層学習の対象となる深層ニューラルネットワークを構築して実行される。本実施形態に係る深層ニューラルネットワークについて、図7を用いて説明する。
図7は、文章評価装置2における深層ニューラルネットワーク3を説明するための図である。本実施形態において、深層ニューラルネットワーク3は、文章評価装置2の演算処理部20(図3)において構築される。
以上のように構築される深層ニューラルネットワーク3による文章評価処理(図6のS3)の詳細について、図7,8を用いて説明する。図8は、文章評価処理を説明するためのフローチャートである。
e[j,n]=F(h[j,n],hH[root]) …(2)
上式(1)において、係数α[j,n]は、対応する出力ベクトルh[j,n]で認識された木データ中の一要素の正解文に対する重要度を表す。また、Σj,nは翻訳文の木データの全ノードにわたる総和であり、expは指数関数である。また、上式(2)において、Fは所定のスカラー値関数であり、例えば次式(3)で表される。
=tanh(WFh[j,n]+WFHhH[root]+bF) …(3)
上式(3)において、tanhは双曲線正接関数である。また、それぞれ学習パラメータを構成するWF,WFHは行数1の行列(行ベクトル)であり、bFはスカラーのバイアス項である。なお、Fの関数形は上式(3)に限らず、例えばtanhに代えてシグモイド関数やReLU(正規化線形関数)を用いたり、ベクトル間の内積「h[j,n]・hH[root]」を用いたりしてもよい。また、合成関数によってe[j,n]が適宜、多層化されてもよい。
d=Σj,nα[j,n]h[j,n]+Σj,nαH[j,n]hH[j,n] …(5)
上式(4)において、dはベクトルであり、学習パラメータを構成するWpは行数1の行列であり、bpはスカラーのバイアス項である。また、上式(5)において、第1項の総和は翻訳文の木データの全要素にわたり、第2項の総和は正解文の木データの全要素にわたる。
以上のような第1及び第2のツリーLSTM処理部31a,32aにおけるHT−LSTM部5,5’は、本開示に係る一例のHT−LSTMの演算処理を実行する。HT−LSTMは、ニューラルネットワークの一種であるLSTMを、木構造が含まれるデータを処理可能にすると共に、情報伝達経路に多様性を持たせるように改変した新規のニューラルネットワークである。
以上のような文章評価装置2における深層ニューラルネットワーク3を機械学習させる学習モードの動作について、図11を参照して説明する。
以上のように、本実施形態に係る文章評価装置2は、入力される文章の評価を行う。文章評価装置2は、各種取得部22〜25と、演算処理部20とを備える。取得部22〜25は、第1の入力文として翻訳文を示す情報と、第2の入力文として正解文を示す情報とを取得する。演算処理部20は、取得部22〜25によって取得された情報に対して、機械学習に基づくアルゴリズムとしての深層ニューラルネットワーク3による情報処理を行う。深層ニューラルネットワーク3は、第1の入力文を認識する第1のエンコーダ31と、第2の入力文を認識する第2のエンコーダ32とを備える。演算処理部20は、第1のエンコーダ31における第1の入力文の認識結果と第2のエンコーダ32における第2の入力文の認識結果とに基づいて、第2の入力文に対する第1の入力文の評価を示す評価情報を生成する。
実施形態1では、翻訳文と正解文とを入力文として、文章評価装置2に自動的な評価を行わせたが、文章評価装置2に対する入力文は、これに限らない。以下、翻訳文と翻訳原文とを入力文として、翻訳精度の評価を文章評価装置2に行わせる変形例について、図12を用いて説明する。
以下、図面を用いて、実施形態2を説明する。実施形態1におけるHT−LSTM(図10)では、入力ゲート53が入力層50からの情報を一括してフィルタリングした。実施形態2では、入力層からの情報を個別にフィルタリングするHT−LSTMについて説明する。
以上のように実施形態1,2においてHT−LSTMの例を説明したが、本開示に係るHT−LSTMは実施形態1,2に限らず、種々の変更を加えてもよい。HT−LSTMの変形例について、図14,15を用いて説明する。
以上のように、本出願において開示する技術の例示として、実施形態1〜2を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置換、付加、省略などを行った実施の形態にも適用可能である。また、上記各実施形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施形態を例示する。
Claims (8)
- 入力される文章の評価を行う文章評価装置であって、
第1の入力文および第2の入力文を取得する取得部と、
前記取得部によって取得された各入力文に対して、機械学習に基づくアルゴリズムによる情報処理を行う演算処理部とを備え、
前記演算処理部は、各入力文に階層的に含まれる複数の要素で構成される所定のデータ構造に基づいて、機械学習に基づくアルゴリズムにおいて、前記第1の入力文における前記データ構造の各要素を認識する第1のエンコーダと前記第2の入力文における前記データ構造の各要素を認識する第2のエンコーダとを備え、
前記第1の入力文は、翻訳機による機械翻訳の結果の翻訳文であり、
前記第2の入力文は、前記翻訳機による機械翻訳の対象となった翻訳原文、及び前記翻訳原文の翻訳における正解例を示す正解文の内のいずれかであり、
前記演算処理部は、
前記第2のエンコーダにおいて認識された第2の入力文の要素を参照するアテンション処理により、前記第1の入力文の各要素において前記第2の入力文に対する重要度を判定し、
前記第1のエンコーダにおける第1の入力文の認識結果と前記第2のエンコーダにおける第2の入力文の認識結果とに基づいて、前記判定された重要度に応じた要素間の重み付け合算により、前記第2の入力文に対する前記第1の入力文の類似度及び整合性の少なくとも一方の評価を示す評価情報を生成する
文章評価装置。 - 入力される文章の評価を行う文章評価装置であって、
第1の入力文および第2の入力文を取得する取得部と、
前記取得部によって取得された各入力文に対して、機械学習に基づくアルゴリズムによる情報処理を行う演算処理部とを備え、
前記演算処理部は、各入力文に階層的に含まれる複数の要素で構成される所定のデータ構造に基づいて、機械学習に基づくアルゴリズムにおいて、前記第1の入力文における前記データ構造の各要素を認識する第1のエンコーダと前記第2の入力文における前記データ構造の各要素を認識する第2のエンコーダとを備え、
前記第1の入力文は、翻訳機による機械翻訳の結果の翻訳文であり、
前記第2の入力文は、前記翻訳機による機械翻訳の対象となった翻訳原文、及び前記翻訳原文の翻訳における正解例を示す正解文の内のいずれかであり、
前記演算処理部は、
前記第1のエンコーダにおいて認識された第1の入力文の要素を参照するアテンション処理により、前記第2の入力文の各要素において前記第1の入力文に対する重要度を判定し、
前記第1のエンコーダにおける第1の入力文の認識結果と前記第2のエンコーダにおける第2の入力文の認識結果とに基づいて、前記判定された重要度に応じた要素間の重み付け合算により、前記第2の入力文に対する前記第1の入力文の類似度及び整合性の少なくとも一方の評価を示す評価情報を生成する
文章評価装置。 - 前記第1及び第2のエンコーダは、別々の学習パラメータに基づいて機械学習する
請求項1又は2に記載の文章評価装置。 - 前記所定のデータ構造は、親ノード及び子ノードを有する木構造、及び子ノードが互いに重複する複数の木構造を含むデータ構造の内の少なくとも一方を含む
請求項1〜3のいずれか1項に記載の文章評価装置。 - 前記演算処理部は、機械学習に基づくアルゴリズムにおいて、前記第1のエンコーダにおける第1の入力文の認識結果と前記第2のエンコーダにおける第2の入力文の認識結果とを統合する演算処理を行う全結合層をさらに備える
請求項1〜4のいずれか1項に記載の文章評価装置。 - 前記全結合層は、ロジスティック関数に基づく演算処理を行う
請求項5に記載の文章評価装置。 - 前記評価情報は、前記第1及び第2の入力文間の類似度、前記第2の入力文に対する前記第1の入力文の整合性、前記第1の入力文に対する複数段階の分類、および前記第1の入力文中の特定の箇所の内の少なくとも一つ示す情報を含む
請求項1〜6のいずれか1項に記載の文章評価装置。 - 文章評価装置に入力される文章の評価を実行する文章評価方法であって、
翻訳機による機械翻訳の結果の翻訳文である第1の入力文を取得するステップと、
前記翻訳機による機械翻訳の対象となった翻訳原文、及び前記翻訳原文の翻訳における正解例を示す正解文の内のいずれかである第2の入力文を取得するステップと、
機械学習に基づく第1のエンコーダにおいて、各入力文に階層的に含まれる複数の要素で構成される所定のデータ構造に基づいて、前記第1の入力文における前記データ構造の各要素を認識するステップと、
前記第1のエンコーダとは別の第2のエンコーダにおいて、前記所定のデータ構造に基づいて、前記第2の入力文における前記データ構造の各要素を認識するステップと、
前記第2のエンコーダにおいて認識された第2の入力文の要素を参照するアテンション処理により、前記第1の入力文の各要素において前記第2の入力文に対する重要度を判定するステップと、
前記第1のエンコーダにおける第1の入力文の認識結果と前記第2のエンコーダにおける第2の入力文の認識結果とに基づいて、前記判定された重要度に応じた要素間の重み付け合算により、前記第2の入力文に対する前記第1の入力文の類似度及び整合性の少なくとも一方の評価を示す評価情報を生成するステップと
を含む文章評価方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021075010A JP7122582B2 (ja) | 2017-01-11 | 2021-04-27 | 演算処理装置、並びに文章評価装置、及び文章評価方法 |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017002777 | 2017-01-11 | ||
JP2017002777 | 2017-01-11 | ||
PCT/JP2017/038781 WO2018131259A1 (ja) | 2017-01-11 | 2017-10-26 | 文章評価装置、及び文章評価方法 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021075010A Division JP7122582B2 (ja) | 2017-01-11 | 2021-04-27 | 演算処理装置、並びに文章評価装置、及び文章評価方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2018131259A1 JPWO2018131259A1 (ja) | 2019-11-07 |
JP6910012B2 true JP6910012B2 (ja) | 2021-07-28 |
Family
ID=62839908
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018561820A Active JP6910012B2 (ja) | 2017-01-11 | 2017-10-26 | 文章評価装置、及び文章評価方法 |
JP2021075010A Active JP7122582B2 (ja) | 2017-01-11 | 2021-04-27 | 演算処理装置、並びに文章評価装置、及び文章評価方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021075010A Active JP7122582B2 (ja) | 2017-01-11 | 2021-04-27 | 演算処理装置、並びに文章評価装置、及び文章評価方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11182568B2 (ja) |
JP (2) | JP6910012B2 (ja) |
WO (1) | WO2018131259A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210074713A (ko) * | 2019-12-12 | 2021-06-22 | 서울대학교산학협력단 | 양방향 언어 모델을 이용한 문장 평가 방법 및 장치 |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11468286B2 (en) * | 2017-05-30 | 2022-10-11 | Leica Microsystems Cms Gmbh | Prediction guided sequential data learning method |
WO2019118299A1 (en) * | 2017-12-13 | 2019-06-20 | Sentient Technologies (Barbados) Limited | Evolving recurrent networks using genetic programming |
CN109522600B (zh) * | 2018-10-16 | 2020-10-16 | 浙江大学 | 基于组合深度神经网络的复杂装备剩余使用寿命预测方法 |
CN111626065A (zh) * | 2019-02-26 | 2020-09-04 | 株式会社理光 | 神经机器翻译模型的训练方法、装置及存储介质 |
WO2020198520A1 (en) | 2019-03-27 | 2020-10-01 | Cognizant Technology Solutions U.S. Corporation | Process and system including an optimization engine with evolutionary surrogate-assisted prescriptions |
CN110083842B (zh) * | 2019-03-27 | 2023-10-03 | 华为技术有限公司 | 译文质量检测方法、装置、机器翻译系统和存储介质 |
JP7348746B2 (ja) * | 2019-04-26 | 2023-09-21 | 一般財団法人日本特許情報機構 | 調査支援方法、調査支援用コンピュータプログラムおよび調査支援システム |
JP7077265B2 (ja) * | 2019-05-07 | 2022-05-30 | 株式会社東芝 | 文書解析装置、学習装置、文書解析方法および学習方法 |
US11544461B2 (en) * | 2019-05-14 | 2023-01-03 | Intel Corporation | Early exit for natural language processing models |
CN110570226B (zh) * | 2019-07-10 | 2020-05-22 | 杭州电子科技大学 | 一种联合主题模型和异质信息网络的评分预测方法 |
KR20220045215A (ko) * | 2019-09-25 | 2022-04-12 | 딥마인드 테크놀로지스 리미티드 | 게이팅된 어텐션 신경망 |
CN111027331B (zh) | 2019-12-05 | 2022-04-05 | 百度在线网络技术(北京)有限公司 | 用于评估翻译质量的方法和装置 |
CN111339748B (zh) * | 2020-02-17 | 2023-11-17 | 北京声智科技有限公司 | 一种解析模型的评估方法、装置、设备和介质 |
US20210312297A1 (en) * | 2020-04-07 | 2021-10-07 | Cognizant Technology Solutions U.S. Corporation | Framework For Interactive Exploration, Evaluation, and Improvement of AI-Generated Solutions |
US11775841B2 (en) | 2020-06-15 | 2023-10-03 | Cognizant Technology Solutions U.S. Corporation | Process and system including explainable prescriptions through surrogate-assisted evolution |
CN111931045B (zh) * | 2020-07-30 | 2022-11-25 | 北京邮电大学 | 一种基于元学习的异质信息网络冷启动推荐方法及装置 |
CN114743421B (zh) * | 2022-04-27 | 2023-05-16 | 广东亚外国际文化产业有限公司 | 一种外语学习智慧教学综合考核系统及方法 |
CN116757223A (zh) * | 2023-08-16 | 2023-09-15 | 中国石油大学(华东) | 一种机器翻译模型高语义相似度对抗性样本生成方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000148756A (ja) * | 1998-11-12 | 2000-05-30 | Matsushita Electric Ind Co Ltd | 対訳文誤り検出装置 |
JP2003085172A (ja) * | 2001-09-13 | 2003-03-20 | Atr Onsei Gengo Tsushin Kenkyusho:Kk | 機械翻訳文の自動評価方法および機械翻訳文の自動評価プログラムを記録した記録媒体 |
JP2008276517A (ja) | 2007-04-27 | 2008-11-13 | Oki Electric Ind Co Ltd | 訳文評価装置、訳文評価方法およびプログラム |
JP6649124B2 (ja) * | 2015-05-25 | 2020-02-19 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 機械翻訳方法、機械翻訳装置及びプログラム |
-
2017
- 2017-10-26 JP JP2018561820A patent/JP6910012B2/ja active Active
- 2017-10-26 WO PCT/JP2017/038781 patent/WO2018131259A1/ja active Application Filing
-
2019
- 2019-07-08 US US16/504,770 patent/US11182568B2/en active Active
-
2021
- 2021-04-27 JP JP2021075010A patent/JP7122582B2/ja active Active
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210074713A (ko) * | 2019-12-12 | 2021-06-22 | 서울대학교산학협력단 | 양방향 언어 모델을 이용한 문장 평가 방법 및 장치 |
Also Published As
Publication number | Publication date |
---|---|
JP7122582B2 (ja) | 2022-08-22 |
WO2018131259A1 (ja) | 2018-07-19 |
US20190332678A1 (en) | 2019-10-31 |
US11182568B2 (en) | 2021-11-23 |
JPWO2018131259A1 (ja) | 2019-11-07 |
JP2021120882A (ja) | 2021-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6910012B2 (ja) | 文章評価装置、及び文章評価方法 | |
US11645541B2 (en) | Machine learning model interpretation | |
Bernico | Deep Learning Quick Reference: Useful hacks for training and optimizing deep neural networks with TensorFlow and Keras | |
CN108460028B (zh) | 将句子权重融入神经机器翻译的领域适应方法 | |
Ahmed et al. | Identifying protein-protein interaction using tree LSTM and structured attention | |
KR102355489B1 (ko) | 약물-표적 단백질의 상호작용을 예측하는 방법 및 그 방법을 수행하는 장치 | |
JP7061594B2 (ja) | 文章変換システム、文章変換方法、及びプログラム | |
JP6906181B2 (ja) | 情報処理装置、時系列データの情報処理方法、及びプログラム | |
CN113412492A (zh) | 用于量子玻尔兹曼机的监督训练的量子算法 | |
JP6743942B2 (ja) | 語彙テーブルの選択方法、装置およびコンピュータ読み取り可能な記憶媒体 | |
WO2019187696A1 (ja) | ベクトル化装置、言語処理方法及びプログラム | |
Manogaran et al. | ADCCF: Adaptive deep concatenation coder framework for visual question answering | |
US20240020096A1 (en) | Systems and methods for generating code using language models trained on computer code | |
CN118318222A (zh) | 使用序列到序列转换器的自动笔记本补全 | |
EP4064038B1 (en) | Automated generation and integration of an optimized regular expression | |
JP6705506B2 (ja) | 学習プログラム、情報処理装置および学習方法 | |
JP2019133563A (ja) | 情報処理装置および情報処理システム | |
JP2018109862A (ja) | 句構造解析装置およびプログラム | |
CN113761944A (zh) | 翻译模型的训练语料处理方法、装置、设备和存储介质 | |
Rios et al. | Large Language Model-assisted Surrogate Modelling for Engineering Optimization | |
Andersson | Deep learning applied to system identification: A probabilistic approach | |
US20240232519A1 (en) | Automated notebook completion using sequence-to-sequence transformer | |
Chen et al. | Improving Adaptive Knowledge Graph Construction via Large Language Models with Multiple Views | |
Lin et al. | Applying neural networks to consumer-oriented product design | |
Gavhane et al. | Graph Embeddings for Natural Language Processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200609 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200803 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210427 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210427 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210511 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210518 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210608 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210621 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6910012 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |