JP2021157602A - 機械学習モデル訓練装置、機械学習モデル、及びコンピュータプログラム - Google Patents
機械学習モデル訓練装置、機械学習モデル、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP2021157602A JP2021157602A JP2020058332A JP2020058332A JP2021157602A JP 2021157602 A JP2021157602 A JP 2021157602A JP 2020058332 A JP2020058332 A JP 2020058332A JP 2020058332 A JP2020058332 A JP 2020058332A JP 2021157602 A JP2021157602 A JP 2021157602A
- Authority
- JP
- Japan
- Prior art keywords
- causal relationship
- causal
- background knowledge
- candidate
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012549 training Methods 0.000 title claims abstract description 146
- 238000010801 machine learning Methods 0.000 title claims abstract description 42
- 238000004590 computer program Methods 0.000 title claims description 5
- 230000001364 causal effect Effects 0.000 claims abstract description 294
- 238000011156 evaluation Methods 0.000 claims abstract description 67
- 238000000605 extraction Methods 0.000 claims abstract description 42
- 230000006870 function Effects 0.000 claims description 14
- 238000013528 artificial neural network Methods 0.000 claims description 11
- 239000000203 mixture Substances 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 39
- 238000010586 diagram Methods 0.000 description 23
- 238000004364 calculation method Methods 0.000 description 17
- 239000013598 vector Substances 0.000 description 17
- 238000013500 data storage Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 13
- 230000000694 effects Effects 0.000 description 10
- 239000000284 extract Substances 0.000 description 10
- 238000012545 processing Methods 0.000 description 6
- 238000002474 experimental method Methods 0.000 description 5
- 206010058467 Lung neoplasm malignant Diseases 0.000 description 4
- 235000019504 cigarettes Nutrition 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 4
- 201000005202 lung cancer Diseases 0.000 description 4
- 208000020816 lung neoplasm Diseases 0.000 description 4
- 238000003058 natural language processing Methods 0.000 description 4
- 208000019693 Lung disease Diseases 0.000 description 3
- 241000208125 Nicotiana Species 0.000 description 3
- 235000002637 Nicotiana tabacum Nutrition 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013077 scoring method Methods 0.000 description 3
- 241000607272 Vibrio parahaemolyticus Species 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000010792 warming Methods 0.000 description 2
- 101100269885 Arabidopsis thaliana ANN1 gene Proteins 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 241000102542 Kara Species 0.000 description 1
- 241000607598 Vibrio Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000004836 empirical method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 230000000391 smoking effect Effects 0.000 description 1
- 230000005477 standard model Effects 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Abstract
Description
1. シナリオ生成
図1に、シナリオ生成の一般的な流れを示す。図1を参照して、シナリオ生成システム50は、ウェブ60から因果関係を収集する因果関係取得部62と、因果関係取得部62により収集された因果関係から因果シナリオ66を生成するシナリオ生成部64とを含む。シナリオ生成部64は、複数のシナリオ候補を取得(生成)するシナリオ候補の取得処理部70と、シナリオ候補の取得処理部70により取得された複数のシナリオ候補をそれらのスコアに基づいてランキングし、最もスコアの高いいくつかのシナリオ候補を因果シナリオ66として出力するシナリオランキング部72とを含む。
非特文献1に記載の因果関係の判定では、図2に示すような背景知識を用いている。
図3に、非特許文献1が使用している機械学習モデルの構成を模式的に示す。図3を参照して、この機械学習モデル110は、ベクトルからなる入力120を受けて入力120により表される入力文xが因果関係として適切か否かを示す判定結果を出力するよう訓練されたBERT122と、BERT122の出力を受け、入力文xが因果関係として適切か否かに関する、3人の判定者の判定結果をそれぞれ表す3つの確率分布にしたがう値を出力するよう訓練済の分類層124とを含む。なお、BERT122は予め大量の一般文書を用いて事前学習したものである。BERTが事前学習済であることは、以下に説明する各実施の形態でも同様である。
1. 構成
(1) 新しい背景知識
図4に、この発明の第1の実施の形態で使用する背景知識を模式的に示す。図4を参照して、先行技術の事象の因果関係90と同様の因果関係を例に説明する。この実施の形態では、図2に示すBP背景知識92及びWHY背景知識94を先行技術として使用する。しかしこの実施の形態では、図2のCLUE背景知識96に代えて、原因名詞と結果名詞との双方についての類義語を用いた背景知識150を新たに用いる。
図5は、この実施の形態の機械学習モデル180の概略構成を示す。機械学習モデル180は、いずれもベクトルからなる入力190、194、198及び202を受け、推論結果のベクトルを出力するBERT192、196、200及び204と、BERT192、196、200、及び204の出力を受けるように接続され、3人の判定者の判定結果に応じた確率分布にしたがって判定対象の因果関係候補が適切か否かに関する分類結果を出力する分類層206とを含む。
図6は、図5に示す機械学習モデル180を訓練するための訓練装置のブロック図である。図6を参照して、この訓練装置220は、訓練に使用される多数の因果関係候補を記憶するための因果関係候補記憶部230と、類義語辞書を記憶する類義語辞書記憶部232と、因果関係に関する多数のバイナリパターンからなるバイナリパターン辞書を記憶するバイナリパターン辞書記憶部234と、ウェブから抽出した多数の文書を含むウェブアーカイブを記憶するウェブアーカイブ記憶部236とを含む。
図8に、以上に説明した訓練データにより訓練した機械学習モデル180を用い、入力される因果関係候補が因果関係として適切か否かを判定する装置の構成について説明する。図8にそうした装置の例である因果関係判定装置330の構成を示す。図8を参照して、因果関係判定装置330は、類義語辞書記憶部232、バイナリパターン辞書記憶部234、及びウェブアーカイブ記憶部236と、因果関係候補350を受け付け、ベクトル化して出力する因果関係候補受付部352とを含む。
(1)事前学習
事前学習では、事前にウェブから収集した多数の文を用いてBERT192、196、200及び204の学習を行う。BERTの事前学習の仕方についてはよく知られているのでここではその詳細は繰り返さない。
機械学習モデル180を訓練(ファインチューニング)するための訓練データは以下のようにして準備される。図6を参照して、ウェブ等から多数の因果関係候補を因果関係候補記憶部230に保存しておく。類義語辞書記憶部232、バイナリパターン辞書記憶部234、及びウェブアーカイブ記憶部236についても必要なデータを保存しておく。
訓練データ記憶部248はこの訓練データから、図5に示すような入力190、194、198及び202のような形式の入力ベクトルを生成し、それらに対する評価結果を教師ラベルとして機械学習モデル180の訓練(ファインチューニング)を行う。ファインチューニングは通常の誤差逆伝播法で行われる。
図8を参照して、因果関係判定装置330は以下のように動作する。因果関係判定装置330の因果関係候補受付部352は、因果関係候補350を受け付け、ベクトル化して出力する。
図9に、上記第1の実施の形態の効果を確認するための実験結果を示す。実験では、非特許文献3で使用したものと同じ因果関係候補を使用した。これらは6億のウェブページから抽出したものである。各因果関係候補は、原因部、結果部、及びそれらが抽出された元の文を含んでいた。3人の評価者が各因果関係候補について因果関係か非因果関係かを判定しラベルを付した。
上記実施の形態では、評価者に関する情報は、ファインチューニングの際の教師ラベルに関するのみである。しかしこの発明はそのよう実施の形態には限定されない。図5に示す入力190、194、198及び202の任意の位置(例えば先頭)に、評価者の識別子をプレフィックスとして付すようにしてもよい。また、後に実施の形態で説明する多数決による評価結果を示す識別子「MAJ」をプレフィックスとして付して、ファインチューニングを行うようにしてもよい。この変形例の場合は、線形和及びソフトマックス層は、一つだけ用意することになり、因果関係として適切かどうかを示す確率値を出力する。
1. 構成
(1) 先行技術
第2の実施の形態は、因果関係を連鎖させてシナリオを生成する装置に関する。図10に、非特許文献1に記載の技術をシナリオ生成に適用して得られるシナリオ生成装置の構成を示す。
図11に、図10のシナリオ判定部438の構成を模式的に示す。図11を参照して、シナリオ判定部438は、入力450をその入力として受けるBERT452を含む。入力450は、因果関係シナリオ候補を形成する第1文と第2文とを連結したベクトルxMであり、教師ラベルは多数決結果(yM)である。
図12に第2の実施の形態に係るシナリオ生成装置470の概略ブロック図を示す。図12を参照して、シナリオ生成装置470は、図10に示すシナリオ生成装置410とほぼ同じ構成を持つ。シナリオ生成装置470がシナリオ生成装置410と異なるのは、シナリオ候補評価部426の出力する、各シナリオ候補に関する3人の評価者の評価を記憶する評価結果記憶部480を含むこと、並びに、図10の訓練データ作成部432、訓練データ記憶部434、BERT訓練部436、及びシナリオ判定部438に代えて、訓練データ作成部482、訓練データ記憶部484、BERT訓練部486、及びシナリオ判定部488を含むことである。
図13を参照して、訓練データのうち、多数決入力500は、入力xMと出力yMとを含む。yMは多数決の結果である。入力xMは出力yMが多数決の結果であることを示す識別子「MAJ」と、シナリオ候補の第1文と、第2文とを連結したものである。
図12及び図13を参照して、シナリオ生成装置470は以下のように動作する。シナリオ生成装置470の因果関係記憶部420には、多数の因果関係が記憶されている。シナリオ候補生成部422は、因果関係記憶部420から、一方の結果部が他方の原因部と合致する2つの因果関係を抽出し、シナリオ候補としてシナリオ候補記憶部424に格納する。シナリオ候補記憶部424には、因果関係記憶部420から抽出されたシナリオ候補が多数記憶される。
この第2の実施の形態に係るシナリオ生成装置470により訓練したシナリオ判定装置の構成及び動作の概略は、図12と類似しているため詳細な説明はここでは繰り返さない。変わる点としては、シナリオ候補生成部422に判定対象のシナリオ候補が入力されるということ、訓練データ作成部482により作成される訓練データの入力xと同様の構成の入力を作成してシナリオ判定部488のBERT508に与えるということ、及びシナリオ判定部488の出力に基づいて、入力されたシナリオ候補が因果関係候補として適切か否かが判定される、ということである。つまり、評価時の入力としては、シナリオとして適切かどうかの判定の対象となる、シナリオを構成する候補の第1文と第2文に加えて、識別子「MAJ」が必ず入力される。
図14に、この第2の実施の形態に係るシナリオ生成装置470により訓練したBERTの性能を評価するための実験結果を、他の例による結果と比較して示す。図14の1行目は、単純なBERTを使用した例である。2行目は、上記実施の形態に係るBERTを用いた例である。3行目は、2行目に加えて実施の形態1でも用いた因果関係の判定のための訓練データを用いたものである。この例では、入力には、評価者の識別子に加え、シナリオ判定の訓練データか、因果関係の判定データかを示す識別子を付加した。因果関係の判定時には、因果関係に関する評価者による評価を教師データとする訓練を行った。4行目は、非特許文献1の方式による結果である。
1. 構成
(1) 先行技術
この第3の実施の形態及び後述の第4の実施の形態は、3つ以上の因果関係を連鎖させてシナリオを生成する技術に関する。このような場合、従来技術では、個々の因果関係の、因果関係としての適切さを表すスコアを用いていた(非特許文献5)。
このスコアは、因果関係として確実なものを連鎖させたシナリオがよいシナリオであるという考え方に基づくものであり、合理的である。
しかし、既に説明した第2の実施の形態では、2つの因果関係からなるシナリオのスコア(これを「2ステップスコア」という。)を高い精度で算出できる。こうした技術があれば、この第3の実施の形態のように3個以上の因果関係からなるシナリオについても先行技術とは違う考え方でより高い精度でその妥当性を判定するスコアを算出できる可能性がある。そうした考え方を図16に示す。
S(EC1,EC2)
×S([EC1,EC2],EC3)
×S([EC1,EC2,EC3],EC4)
×…
×S([EC1,EC2,…,ECN-1],ECN)
ここで、S(ECM,ECM+1)は因果関係Mと因果関係M+1との間の2ステップスコアを示し、[ECM,ECM+1,…,ECM+K]は因果関係M、因果関係M+1、…、因果関係M+KのK+1個の因果関係を連鎖させたシナリオを示す。このスコアは、因果関係と因果関係とを連鎖させるときの妥当性をシナリオの全体にわたり乗算したときの妥当性を示すものと考えられる。したがって、3個以上の因果関係を連鎖させて得られるシナリオの妥当性を判定するための指標としてこのスコアを利用できると考えられる。
図18は、図16に示すような考え方でシナリオのスコアを算出する方法をコンピュータにより実現するためのプログラムの制御構造を示すフローチャートである。
2. 動作
図18において、scoreはステップ560で1に初期化される。その後、最初に処理564が実行されると、j=2であるからscoreの値はS[EC1,EC2]で更新される。変数ECxはステップ572で[EC1,EC2]に更新される。
=S(EC1,EC2)
×S([EC1,EC2],EC3)
×S([EC1,EC2,EC3],EC4)
×…
×S([EC1,EC2,…,ECN-1],ECN)
1. 構成
(1) 実施の形態のスコア算出方法
この第4の実施の形態は、第3の実施の形態と同様、先行技術と異なる算出方法でシナリオのスコアを算出する。図17を参照して、その式は第3の実施の形態とは異なり、以下のようなものである。
図19に、この第4の実施の形態に係るスコア算出方法を実行するようコンピュータを機能させるプログラムの制御構造を示す。
2. 動作
図19を参照して、ステップ580で変数scoreに1が代入される。
図21に、この発明の第3及び4の実施の形態の効果を、先行技術等と比較して表形式で示す。図21を参照して、1列目はランキングに用いたスコアリング手法を示し、2列目は3ステップで作成したシナリオに対して1列目のスコアリング手法を適用したときの平均適合率を示し、3列目は4ステップで作成したシナリオに対して1列目のスコアリング手法を適用したときの平均適合率を示す。
図22は、上記各実施の形態を実現するコンピュータシステムの外観図である。図23は、図22に示すコンピュータシステムのハードウェアブロック図である。
上記した実施の形態では、評価者は3人としたが、3人には限定されず、任意の人数を採用できる。また図4に示す背景知識150以外の背景知識を用いてもよいことは言うまでもない。その場合、マルチBERTの個数もそれに応じて増加させる必要がある。
60、98 ウェブ
62 因果関係取得部
64 シナリオ生成部
66 因果シナリオ
70 シナリオ候補の取得処理部
72 シナリオランキング部
90 事象の因果関係
94、378 WHY背景知識
96 CLUE背景知識
110、180 機械学習モデル
120、190、194、198、202、450 入力
124、206、454、510 分類層
130 入力層
132 第1トランスフォーマ層
134 第2トランスフォーマ層
136 最終層
150 背景知識
160 類義名詞
220 訓練装置
230 因果関係候補記憶部
232 類義語辞書記憶部
234 バイナリパターン辞書記憶部
236 ウェブアーカイブ記憶部
238 因果関係評価部
240、480 評価結果記憶部
242 背景知識抽出部
244 背景知識記憶部
246、432、482 訓練データ作成部
248、434、484 訓練データ記憶部
250、436、486 BERT訓練部
270、354 原因単語・結果単語抽出部
272、356 類義語検索部
274、358 背景知識生成部
278、368 質問生成部
280、370 なぜ型質問応答システム
282、372 回答収集部
284、374 回答選択部
286、376 バイナリパターン抽出部
300 BP記憶部
302 SIM−BP記憶部
304 SIM−EC記憶部
306 WHY記憶部
330 因果関係判定装置
350 因果関係候補
352 因果関係候補受付部
360 BP
362 SIM−BP
364 SIM−EC
380 第1入力生成部
384 第2入力生成部
388 第3入力生成部
392 第4入力生成部
410、470 シナリオ生成装置
420 因果関係記憶部
422 シナリオ候補生成部
424 シナリオ候補記憶部
426 シナリオ候補評価部
428 多数決部
430 多数決結果記憶部
438、488 シナリオ判定部
500 多数決入力
502 第1評価者入力
504 第2評価者入力
506 第3評価者入力
Claims (6)
- 機械学習モデルの訓練を行うためのモデル訓練装置であって、
前記機械学習モデルは複数のニューラル・ネットワークと、当該複数のニューラル・ネットワークの出力に基づき分類結果を出力する分類層とを含み、
前記モデル訓練装置は、
複数の因果関係候補の各々から、因果関係に関する複数種類の背景知識を抽出する背景知識抽出手段を含み、前記複数種類の背景知識はそれぞれ前記複数のニューラル・ネットワークの異なる一つに対応付けられ、
前記複数の因果関係候補の各々に対し、
当該因果関係候補から抽出された前記複数種類の背景知識の各々について、当該因果関係と、当該背景知識と、当該因果関係候補に関する評価結果とを組み合わせた訓練データを生成する訓練データ生成手段と、
当該因果関係候補から前記複数種類の背景知識について得られた前記訓練データを、前記複数のニューラル・ネットワークに入力したときの前記分類層の出力と、当該訓練データの前記評価結果とを用いて前記機械学習モデルの訓練を行う訓練手段とを含む、モデル訓練装置。 - 前記複数のニューラル・ネットワークは、互いに同じ構成の複数のBERTを含む、請求項1に記載のモデル訓練装置。
- 前記背景知識抽出手段は、
前記複数の因果関係候補の各々から、原因名詞と結果名詞とを抽出し前記原因名詞と結果名詞との各々について、類義語を取得する類義語取得手段と、
前記類義語取得手段により取得された前記原因名詞の類義語と、前記結果名詞の類義語との任意の組み合わせを結ぶバイナリパターンを文書アーカイブから抽出する類義バイナリパターン抽出手段と、
因果関係を記憶する因果関係記憶手段と、
前記類義語取得手段により取得された前記原因名詞の類義語の一つと、前記結果名詞の類義語の一つとを持つ因果関係を前記因果関係記憶手段から抽出する類義因果関係抽出手段とを含む、請求項1又は請求項2に記載のモデル訓練装置。 - 前記モデル訓練装置は、
複数の評価者による評価結果を記憶する評価結果記憶手段と、
前記複数の評価者による評価結果の多数決による評価結果を記憶する多数決結果記憶手段とをさらに含み、
前記訓練データ生成手段は、
前記複数の因果関係候補の各々に対し、
当該因果関係候補に対する前記複数の評価者による評価結果の各々について、
当該因果関係候補から抽出された前記複数種類の背景知識の各々について、当該因果関係候補と、当該背景知識と、前記評価者を示す識別子と、当該因果関係候補に関する前記識別子により表される評価者別の前記評価結果とを組み合わせた訓練データ及び当該因果関係候補から抽出された前記複数種類の背景知識の各々について、当該因果関係候補と、当該背景知識と、当該因果関係候補に関する前記多数決による評価結果を示す識別子と、当該因果関係候補に関する前記多数決による評価結果とを組み合わせた訓練データを生成する評価者別訓練データ生成手段とを含む、請求項1から請求項3のいずれか1項に記載のモデル訓練装置。 - 請求項1から請求項4のいずれか1項に記載のモデル訓練装置により訓練された機械学習モデル。
- コンピュータを、請求項1から請求項4のいずれか1項に記載のモデル訓練装置として機能させる、コンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020058332A JP7550432B2 (ja) | 2020-03-27 | 2020-03-27 | モデル訓練装置、モデル訓練方法、及びコンピュータプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020058332A JP7550432B2 (ja) | 2020-03-27 | 2020-03-27 | モデル訓練装置、モデル訓練方法、及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021157602A true JP2021157602A (ja) | 2021-10-07 |
JP7550432B2 JP7550432B2 (ja) | 2024-09-13 |
Family
ID=77918494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020058332A Active JP7550432B2 (ja) | 2020-03-27 | 2020-03-27 | モデル訓練装置、モデル訓練方法、及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7550432B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114626529A (zh) * | 2022-02-25 | 2022-06-14 | 华南理工大学 | 一种自然语言推理微调方法、系统、装置及存储介质 |
GB2626359A (en) * | 2023-01-19 | 2024-07-24 | Sony Interactive Entertainment Europe Ltd | Method and system for dataset synthesis |
JP7531017B2 (ja) | 2022-09-29 | 2024-08-08 | 楽天グループ株式会社 | アイテム分類のbertモデルを改善させるためのクロスモーダル対照学習の利用 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5904559B2 (ja) | 2013-12-20 | 2016-04-13 | 国立研究開発法人情報通信研究機構 | シナリオ生成装置、及びそのためのコンピュータプログラム |
JP6721179B2 (ja) | 2016-10-05 | 2020-07-08 | 国立研究開発法人情報通信研究機構 | 因果関係認識装置及びそのためのコンピュータプログラム |
-
2020
- 2020-03-27 JP JP2020058332A patent/JP7550432B2/ja active Active
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114626529A (zh) * | 2022-02-25 | 2022-06-14 | 华南理工大学 | 一种自然语言推理微调方法、系统、装置及存储介质 |
CN114626529B (zh) * | 2022-02-25 | 2024-04-23 | 华南理工大学 | 一种自然语言推理微调方法、系统、装置及存储介质 |
JP7531017B2 (ja) | 2022-09-29 | 2024-08-08 | 楽天グループ株式会社 | アイテム分類のbertモデルを改善させるためのクロスモーダル対照学習の利用 |
GB2626359A (en) * | 2023-01-19 | 2024-07-24 | Sony Interactive Entertainment Europe Ltd | Method and system for dataset synthesis |
Also Published As
Publication number | Publication date |
---|---|
JP7550432B2 (ja) | 2024-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102431549B1 (ko) | 인과 관계 인식 장치 및 그것을 위한 컴퓨터 프로그램 | |
JP6618735B2 (ja) | 質問応答システムの訓練装置及びそのためのコンピュータプログラム | |
US20200183983A1 (en) | Dialogue System and Computer Program Therefor | |
Zhang et al. | AMBERT: A pre-trained language model with multi-grained tokenization | |
JP7550432B2 (ja) | モデル訓練装置、モデル訓練方法、及びコンピュータプログラム | |
Pearce et al. | A comparative study of transformer-based language models on extractive question answering | |
Nagaraj et al. | Kannada to English Machine Translation Using Deep Neural Network. | |
CN116719520B (zh) | 代码生成方法及装置 | |
CN112860896A (zh) | 语料泛化方法及用于工业领域的人机对话情感分析方法 | |
KR20170122755A (ko) | 함의 페어 확장 장치, 그것을 위한 컴퓨터 프로그램, 및 질문 응답 시스템 | |
CN114528398A (zh) | 一种基于交互双重图卷积网络的情感预测方法及系统 | |
CN117194258A (zh) | 一种代码大模型的评测方法和装置 | |
Guo et al. | A prompt-based topic-modeling method for depression detection on low-resource data | |
CN110991193A (zh) | 一种基于OpenKiWi的翻译矩阵模型选择系统 | |
Vishnubhotla et al. | Improving automatic quotation attribution in literary novels | |
CN114239589A (zh) | 语义理解模型的鲁棒性评估方法、装置及计算机设备 | |
Hsieh et al. | Improving PCFG Chinese parsing with context-dependent probability re-estimation | |
Adewoyin et al. | RSTGen: imbuing fine-grained interpretable control into long-FormText generators | |
Forsberg et al. | Learning transducer models for morphological analysis from example inflections | |
Li et al. | Multilingual toxic text classification model based on deep learning | |
Olivero | Figurative Language Understanding based on Large Language Models | |
JP6574469B2 (ja) | 次発話候補ランキング装置、方法、及びプログラム | |
Sangani et al. | Comparing deep sentiment models using quantified local explanations | |
Moot | Combining logical and distributional methods in type-logical grammars | |
CN111090720A (zh) | 一种热词的添加方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230314 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240806 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240827 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7550432 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |