JP7358748B2 - 学習方法、抽出方法、学習プログラムおよび情報処理装置 - Google Patents

学習方法、抽出方法、学習プログラムおよび情報処理装置 Download PDF

Info

Publication number
JP7358748B2
JP7358748B2 JP2019038079A JP2019038079A JP7358748B2 JP 7358748 B2 JP7358748 B2 JP 7358748B2 JP 2019038079 A JP2019038079 A JP 2019038079A JP 2019038079 A JP2019038079 A JP 2019038079A JP 7358748 B2 JP7358748 B2 JP 7358748B2
Authority
JP
Japan
Prior art keywords
learning
input sentence
named entity
word
learning model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019038079A
Other languages
English (en)
Other versions
JP2020140676A (ja
Inventor
友哉 岩倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019038079A priority Critical patent/JP7358748B2/ja
Priority to US16/801,930 priority patent/US11977975B2/en
Publication of JP2020140676A publication Critical patent/JP2020140676A/ja
Application granted granted Critical
Publication of JP7358748B2 publication Critical patent/JP7358748B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Description

本発明は、学習方法等に関する。
テキストデータから、固有表現を抽出する技術がある。たとえば、固有表現は、人名や組織名などの固有名詞、日付、時間などの数値表現、化学物質、遺伝子名などの技術用語に対応するものである。
たとえば、抽出対象となる複数の固有表現を辞書に登録しておき、テキストデータと、辞書とを比較することで、テキストデータから、固有表現を抽出することができる。
Jason P.C Chiu, Eric Nichols "Named Entity Recognition with Bidirectional LSTM-CNNs" Transactions of the Association for Computational Linguistics,vol.4,pp.357-370,2016.
固有表現は、常に増え続けている。たとえば、化合物であれば、1分間に1個増えると言われており、化合物が増える毎に、新たな化学物質名(固有表現)が現れる。
また、化合物に関しては、命名法が複数存在するため、一つの化合物が複数の名称をもつ場合がある。図10は、一つの化合物が複数の固有表現をもつ一例を示す図である。図10では、化合物「フェニルアラニン」に対応する複数の固有表現を示す。フェニルアラニンには、「C11NO」、「(S)-αアミノベンゼンプロパン酸」、「(S)-2-ベンジルグリシン」等、多数の固有表現がある。
図11は、表記問題が起きる例を説明するための図である。図11において、アクリル酸フェニルに、「tert-ブチル」が追加された構造は、「アクリル酸4-tret-ブチルフェニル」と命名される。一方、アクリル酸フェニルに、「2つのメチルと、1つのエチル(ジメチルエチル)」が追加された構造は、「アクリル酸(1、1-ジメチルエチル)フェニル」と命名される。ここで、「tert-ブチル」の構造は、「ジメチルエチル」の構造と同じであるため、「アクリル酸4-tret-ブチルフェニル」と、「アクリル酸(1、1-ジメチルエチル)フェニル」とは、同じ化合物を示す。
固有表現が増えるものは、上記の化合物に限らず、会社名や、人物名も該当する。また、会社名であれば、正式名称の代わりに、会社の略称が用いられるなど同一の会社名に異なる表記が用いられる場合がある。また、人物名であれば、同一の人物名に関して、異なるニックネームが用いられる場合がある。
すなわち、日々増え続ける固有表現を、辞書に登録することでテキストから抽出することは、難しいという問題がある。そこで、文脈情報も手掛かりに新規の固有表現を抽出するための固有表現抽出技術が用いられる。人名であれば、「さん」や「君」といった人名の出現を示す語彙が手掛かりとなる。
1つの側面では、本発明は、辞書で定義することが困難な固有表現を、テキストデータから抽出するができる学習方法、抽出方法、学習プログラムおよび情報処理装置を提供することを目的とする。
第1の案では、コンピュータが次の処理を実行する。コンピュータは、所定の対象を第1の固有表現で表記した第1入力文を第1学習モデルに入力した場合、第1学習モデルから出力される値が、第1入力文に対応する正解情報に近づくように、第1学習モデルの第1パラメータを学習する。コンピュータは、第1入力文を第1学習モデルに入力した際に生成される中間表現と、所定の対象を第2の固有表現で表記した第2入力文とを第2学習モデルに入力した場合、第2学習モデルから出力される値が、第2入力文に対応する正解情報に近づくように、第1パラメータおよび第2学習モデルの第2パラメータを学習する。
辞書で定義することが困難な固有表現を、テキストデータから抽出するができる。
図1は、第1学習フェーズの一例を説明するための図である。 図2は、第2学習フェーズの一例を説明するための図である。 図3は、本実施例に係る情報処理装置の構成を示す機能ブロック図である。 図4は、学習データ記憶部のデータ構造の一例を示す図である。 図5は、本実施例に係る学習処理を示すフローチャートである。 図6は、本実施例に係る抽出処理を示すフローチャートである。 図7は、学習可能なその他の固有表現の一例を説明するための図(1)である。 図8は、学習可能なその他の固有表現の一例を説明するための図(2)である。 図9は、本実施例に係る情報処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。 図10は、一つの化合物が複数の固有表現をもつ一例を示す図である。 図11は、表記問題が起きる例を説明するための図である。
以下に、本願の開示する学習方法、抽出方法、学習プログラムおよび情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
本実施例に係る情報処理装置は、テキストデータから固有表現を抽出するためのエンコーダと、固有表現を言い換えた他の固有表現を生成するデコーダとの学習を行う。情報処理装置が行う学習には、エンコーダの学習を行う第1学習フェーズと、エンコーダおよびデコーダを同時に学習する第2学習フェーズが含まれる。そして、情報処理装置は、第1学習フェーズおよび第2学習フェーズで学習したエンコーダを用いて、処理対象となるテキストデータから、固有表現を抽出する。
図1は、第1学習フェーズの一例を説明するための図である。情報処理装置は、エンコーダ10を実行する。エンコーダ10には、WE(Word Embeddings)11a~11cと、LSTM(Long Short-Term Memory)12a~12cと、固有表現出力層13a~13cとを有する。適宜、WE11a~11cをまとめてWE11と表記する。LSTM12a~12cをまとめてLSTM12と表記する。固有表現出力層13a~13cをまとめて、固有表現出力層13と表記する。
図1の例では、簡単化のために、化合物だけを与えている。しかし、実際には、「化合物 L- フェニル アラニン は・・・」のような文を与えて、「化合物」は固有表現以外(O),「L-」、「フェニル」、「アラニン」は、「B-CHEM(化合物の先頭の単語)」、「I-CHEM(化合物の中の単語)」、「E-CHEM(化合物の最後の単語)」、「は」は固有表現以外(O)という文を構成する単語列と各単語に付与されるラベルを与えて、学習する。他には、「カフェイン」のように、一つの単語で化合物名となる場合の「S-CHEM」も用いる。また、リカレントニューラルネット―ワーク(RNN)の一つであるLSTMを例に説明する。
WE11は、入力文から、入力文に含まれる各単語の分散表現(ベクトル)を生成するモデルである。本実施例では一例として、化合物の固有表現の文字列を、入力文として説明するがこれに限定されるものではない。たとえば、WE11の初期値は、word2vecの仕組みを基にして、各単語のベクトルを生成した結果を利用する。
学習の際は、まず、入力文をエンコードする。たとえば、図1では、LSTM12aからLSTM12cを利用して、各単語に対応する出力を得る。単語「L-」に対応するLSTMは12aの出力となる。
その後、各単語のLSTM12での出力結果を基に、固有表現出力層(13aから13c)を用いて各単語に各ラベルが付与される確率を計算し、各単語の正解ラベルに高い確率が付与されるように、パラメータの更新を行う。
固有表現出力層(13aから13c)は、LSTM12から入力される隠れ状態ベクトルを基にして、単語が先頭の単語「B-CHEM」である確率、中の単語「I-CHEM」である確率、終わりの単語「E-CHEM」、一つの単語で化合物名「S-CHEM」、固有表現以外(O)である確率をそれぞれ含む確率分布を算出する出力層である。すべての単語に対して、ラベル付与の確率計算が終わったのちに、各単語の正解ラベルに高い確率が付与されるように、パラメータの更新を行う。
この例での更新対象は、単語ベクトルWE、エンコード用のLSTM12のパラメータθ12、固有表現出力層のパラメータである。なお、ここでの例では文頭から文末の一方向にエンコードしているが、こちらの加えて、文末から文頭の方向のエンコードを行うLSTMの結果も併せて用いることもできる。
情報処理装置は、他の学習用の入力文と、正解タグとの組を基にして、上記処理を繰り返し実行することで、エンコーダ10を学習する。
図2は、第2学習フェーズの一例を説明するための図である。情報処理装置は、エンコーダ10およびデコーダ20を実行する。情報処理装置は、図1で説明した第1フェーズで学習したパラメータを、WE11およびLSTM12に設定する。
デコーダ20には、WE21a~21dと、LSTM22a~22dと、言い換え出力層23a~23dとを有する。適宜、WE21a~21dをまとめてWE21と表記する。LSTM22a~22dをまとめて、LSTM22と表記する。言い換え出力層23a~23dをまとめて、言い換え出力層23と表記する。
WE21は、言い換えの入力文に含まれる各単語の分散表現(ベクトル)を生成するモデルである。本実施例では一例として、化合物の固有表現(言い換えの固有表現)を、言い換えの入力として説明するがこれに限定されるものではない。部分的に言い換えられた文を入力として学習することも可能である。
ここで、「言い換えの入力」とは、エンコーダ10に入力された入力文が示す化合物を言い換えた入力となる。たとえば、エンコーダ10に入力された入力文「L-フェニルアラニン」に対応する複数の言い換えの入力文の内の一つは「(S)-フェニルアラニン」となる。「L-フェニルアラニン」および「(S)-フェニルアラニン」は、化合物「フェニルアラニン」を示す入力である。
LSTM22は、LSTM12から、入力の最後の単語CHEMが入力された時刻の中間表現を受け付け、WE21から、単語のベクトルの入力を受け付ける。LSTM22は、中間表現と、単語のベクトルと、LSTM22のパラメータθ22に基づく計算を行って、隠れ状態ベクトルを算出する。LSTM22は、隠れ状態ベクトルを言い換え出力層23と次の単語のLSTMに渡す。LSTM22は、単語のベクトルが入力される度に、上記処理を繰り返し実行する。
言い換え出力層23aは、LSTM22から入力される隠れ状態ベクトルを基にして、各単語の確率分布を出力する出力層である。
図2では、学習用の入力文の単語「L-」、「フェニル」、「アラニン」に対して、言い換えの入力文の単語、「(S)-」、「フェニル」、「アラニン」を与える。また、情報処理装置は、WE21に、言い換えの入力文の単語を順に入力する際に、たとえば、始めに文の先頭を示す単語として「BOS(Begin Of Sentence)」を入力する。また、情報処理装置は、言い換え出力層23から出力される確率分布との損失を算出する場合に比較する正解情報(言い換えの入力文)の最後を示す単語として、「EOS(End Of Sentence)」を設定する。
情報処理装置は、学習用の入力文の単語「L-」、「フェニル」、「アラニン」を、エンコーダ10のWE11に順に入力し、「アラニン」を入力した時点で、LSTM12cにおいて更新される中間表現によって、LSTM22の中間表現を更新したうえで、次の1時刻目~4時刻目までの処理を順に実行する。
情報処理装置は、1時刻目に、エンコーダ10のLSTM12の出力と、単語「BOS」のベクトルをLSTM22aに入力することで、隠れ状態ベクトルを算出する。情報処理装置は、隠れ状態ベクトルを言い換え出力層23aに入力し、各単語の確率分布を出力する。情報処理装置は、言い換え出力層23aから出力される確率分布と、正解単語「(S)-」とを比較して、1時刻目の損失を算出する。
情報処理装置は、2時刻目に、ひとつ前のLSTM22の出力と、単語「(S)-」のベクトルをLSTM22bに入力することで、隠れ状態ベクトルを算出する。情報処理装置は、隠れ状態ベクトルを言い換え出力層23bに入力し、各単語の確率分布を出力する。情報処理装置は、言い換え出力層23bから出力される確率分布と、正解単語「フェニル」とを比較して、2時刻目の損失を算出する。
情報処理装置は、3時刻目に、ひとつ前のLSTM22の出力と、単語「フェニル」のベクトルをLSTM22cに入力することで、隠れ状態ベクトル算出する。情報処理装置は、隠れ状態ベクトルを言い換え出力層23cに入力し、各単語の確率分布を出力する。情報処理装置は、言い換え出力層23cから出力される確率分布と、正解単語「アラニン」とを比較して、3時刻目の損失を算出する。
情報処理装置は、4時刻目に、ひとつ前のLSTMの出力と、情報処理装置は、単語「アラニン」のベクトルをLSTM22dに入力することで、隠れ状態ベクトルを算出する。情報処理装置は、隠れ状態ベクトルを言い換え出力層23dに入力し、各単語の確率分布を出力する。情報処理装置は、言い換え出力層23dから出力される確率分布と、正解単語「EOS」とを比較して、4時刻目の損失を算出する。
情報処理装置は、1時刻目~4時刻目に算出した損失が最小化されるように、LSTM12のパラメータθ12、WE11のパラメータ、LSTM22のパラメータθ22、WE21のパラメータを更新する。たとえば、情報処理装置は、1時刻目~4時刻目の損失に基づいて、対数尤度の最適化を実行することにより、LSTM12のパラメータθ12、WE11のパラメータ、LSTM22のパラメータθ22、WE21のパラメータを更新する。
情報処理装置は、固有表現抽出の学習用データに加えて、言い換え対の入力、正解情報を基にして、上記処理を繰り返し実行することで、エンコーダ10およびデコーダ20を同時に学習する。
情報処理装置は、図1で説明した第1学習フェーズ、および、第2学習フェーズで学習したエンコーダ10およびデコーダ20のうち、エンコーダ10を用いて、テキストデータから、各固有表現を抽出する処理を実行する。
たとえば、情報処理装置は、エンコーダ10を実行し、第1学習フェーズおよび第2学習フェーズで学習したパラメータθ12、WE11のパラメータを、エンコーダ10のパラメータとして設定する。情報処理装置は、入力文を受け付けると、入力文に含まれる各単語を順に、エンコーダ10のWE11に入力し、固有表現出力層13から出力される確率分布から、入力された単語が「B-CHEM」であるか、「I-CHEM」であるか、「E-CHEM」であるか、「O」(あるいは固有表現以外の単語であるか)を判定する。
情報処理装置は、「B-CHEM」が出力された際に、WE11に入力した単語を先頭単語と判定する。情報処理装置は、「E-CHEM」が出力された際に、WE11に入力した単語を、終わりの単語と判定する。情報処理装置は、入力文の先頭の単語から、終わりの単語までの各単語を、固有表現として抽出する。情報処理装置は、上記処理を繰り返し実行することで、入力文から、固有表現を抽出する。
上記のように、本実施例に係る情報処理装置は、第1学習フェーズにおいて、入力文と、入力文に対応する正解タグとを基にして、エンコーダ10のパラメータを学習する。また、情報処理装置は、第2学習フェーズにおいて、入力文、言い換えの入力文を用いて、エンコーダ10およびデコーダ20のパラメータを同時に学習する。情報処理装置が、かかる学習を行うことで、言い換え対から表記が異なるが同一の意味となるパターンを学習することができ、これによって、同一の意味であるが、異なる表記の複数の固有表現を抽出することができる。
なお、本実施例では一例として、第1学習フェーズを行った後に、第2学習フェーズを行う場合について説明したが、第2学習フェーズを行った後に、第1学習フェーズを行ってもよいし、第1学習フェーズと、第2学習フェーズを交互に行ってもよい。
次に、本実施例に係る情報処理装置の構成について説明する。図3は、本実施例に係る情報処理装置の構成を示す機能ブロック図である。図3に示すように、情報処理装置100は、学習処理部110と、抽出処理部120とを有する。
学習処理部110および抽出処理部120は、たとえば、下記のハードウェアプロセッサにより仮想的に実現される。このようなプロセッサの例として、GPGPU(General-Purpose computing on Graphics Processing Units)やGPUクラスタの他、CPU(Central Processing Unit)、MPU(Micro Processing Unit)などが挙げられる。すなわち、プロセッサがRAM(Random Access Memory)等のメモリ上に、学習処理部110および抽出処理部120に対応するプログラムをプロセスとして展開することにより、上記の処理部が仮想的に実現される。ここでは、プロセッサの一例として、GPGPUやGPUクラスタ、CPU、MPUを例示したが、汎用型および特化型を問わず、任意のプロセッサにより上記の機能部が実現されることとしてもかまわない。この他、上記の処理部は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによって実現されてもよい。
また、学習データ記憶部111a、モデル記憶部111bは、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
学習処理部110は、図1で説明した第1学習フェーズの学習、および、図2で説明した第2学習フェーズの学習を実行する処理部である。学習処理部110は、学習データ記憶部111a、モデル記憶部111b、エンコーダ実行部112、デコーダ実行部113、第1学習部114、第2学習部115を有する。
学習データ記憶部111aは、学習用の入力文(固有表現抽出用)と、入力文に含まれる各単語の正解タグとを対応付ける学習データを記憶する記憶部である。また、学習データ記憶部111aは、学習用の言い換え前の入力文と、言い換え後の入力文とを対応付けた情報を保持する。
図4は、学習データ記憶部のデータ構造の一例を示す図である。図4に示すように、この学習データ記憶部111aは、入力文(固有表現抽出用)に含まれる各単語と、正解タグとを対応付ける。たとえば、入力文「L-フェニルアラニン」には、単語「L-」、「フェニル」、「アラニン」が順に含まれる。また、単語「L-」の正解タグは「B-CHEM」、単語「フェニル」の正解タグは「I-CHEM」、単語「アラニン」の正解タグは「E-CHEM」である。
また、図4に示すように、学習データ記憶部111aは、入力文と、言い換え対とを対応付ける。たとえば、入力文「L-フェニルアラニン」に対応付けられた言い換えの入力文は「(S)-フェニルアラニン」である。
モデル記憶部111bは、エンコーダ10のLSTM12のパラメータθ12、WE11のパラメータ、デコーダ20のLSTM22のパラメータθ22、WE21のパラメータを記憶する記憶部である。学習前において、モデル記憶部111bの各パラメータには、初期値が設定されている。
エンコーダ実行部112は、図1および図2で説明したエンコーダ10を実行する処理部である。たとえば、エンコーダ実行部112は、WE11、LSTM12、固有表現出力層13をワークエリア上に展開する。エンコーダ実行部112は、モデル記憶部111bに記憶されたWE11のパラメータおよびLSTM12のパラメータθ12を、WE11、LSTM12に設定する。エンコーダ実行部112は、後述する第1学習部114、第2学習部115によって、LSTM12のパラメータθ12、WE11のパラメータが更新された場合、更新されたWE11のパラメータ、LSTM12のパラメータθ12を、WE11、LSTM12にそれぞれ設定する。
デコーダ実行部113は、図2で説明したデコーダ20を実行する処理部である。たとえば、デコーダ実行部113は、WE21、LSTM22、言い換え出力層23をワークエリア上に展開する。デコーダ実行部113は、モデル記憶部111bに記憶されたWE21のパラメータおよびLSTM22のパラメータを、WE21、LSTM22に設定する。デコーダ実行部113は、後述する第1学習部114、第2学習部115によって、LSTM22のパラメータθ22、WE21のパラメータが更新された場合、更新されたWE21のパラメータ、LSTM22のパラメータθ22を、WE21、LSTM22にそれぞれ設定する。
第1学習部114は、図1で説明した第1学習フェーズの学習を実行する処理部である。第1学習部114は、学習データ記憶部111aから、学習用の入力文の各単語と、各正解タグとを取得する。第1学習部114は、エンコーダ実行部112に実行されたエンコーダ10のWE11に入力文の各単語を入力し、LSTM12を介して、固有表現出力層13aから出力される確率分布と、正解タグとを基にして、損失をそれぞれ算出する。
第1学習部114は、WE11に対して、学習用の入力文の先頭の単語から、終わりの単語までの各単語を、先頭の単語から順に入力し、各時刻の損失を算出する。第1学習部114は、各時刻に算出した各損失が最小化されるように、LSTM12のパラメータθ12およびWE11のパラメータを学習する。第1学習部114は、学習したLSTM12のパラメータθ12およびWE11のパラメータによって、モデル記憶部111bを更新する。
第2学習部115は、図2で説明した第2学習フェーズの学習を実行する処理部である。第2学習部115は、学習データ記憶部111aから、学習用の入力文の各単語と、言い換えの入力文の各単語とを取得する。
まず、第2学習部115は、エンコーダ実行部112に実行されたエンコーダ10のWE11に入力文の各単語(先頭の単語から、終わりの単語まで)を順に入力し、終わりの単語を入力した時刻におけるLSTM12の中間表現を算出する。以下の説明では、終わりの単語を入力した時刻におけるLSTM12の中間表現を「入力文中間表現」と表記する。
続いて、第2学習部115は、デコーダ実行部113に実行されたデコーダ20のLSTM22に、入力文中間表現を設定する。第2学習部115は、デコーダ20のWE21に、言い換えの入力文の各単語(先頭に単語「BOS」を追加した各単語)を入力し、LSTM22を介して、言い換え出力層23から出力される確率分布と、正解タグとを基にして、損失を算出する。第2学習部115が損失計算時に利用する各正解タグは、言い換えの入力文の各単語の最後に、単語「EOS」を加えたものとなる。
第2学習部115は、WE21に対して、言い換えの入力文の先頭の単語「BOS」から、終わりの単語までの各単語を、先頭の単語から順に入力し、各時刻の損失を算出する。第2学習部115は、各時刻に算出した各損失が最小化されるように、LSTM22のパラメータθ22およびWE21のパラメータ、LSTM12のパラメータθ12およびWE11のパラメータを同時に学習する。第2学習部115は、学習したLSTM22のパラメータθ22およびWE21のパラメータ、LSTM12のパラメータθ12およびWE11のパラメータによって、モデル記憶部111bを更新する。
上記のように、第1学習部114および第2学習部115が処理を実行することで、モデル記憶部111bの各パラメータが学習される。
抽出処理部120は、学習処理部110によって学習されたエンコーダ10のパラメータを基にして、処理対象となる入力文(テキストデータ)から、固有表現を抽出する処理部である。抽出処理部120は、取得部121、エンコーダ実行部122、抽出部123を有する。
取得部121は、固有表現の抽出対象となる入力文(テキストデータ)を取得する処理部である。取得部121は、キーボード等の入力装置から、入力文を取得してもよいし、ネットワークを介して、外部装置から、入力文を取得してもよい。また、取得部121は、USB(Universal Serial Bus)メモリ等の携帯可能な記憶装置が、情報処理装置100に接続された際に、携帯可能な記憶装置に格納された入力文を取得してもよい。取得部121は、取得した入力文の情報を、抽出部123に出力する。
エンコーダ実行部122は、エンコーダ10を実行する処理部である。たとえば、エンコーダ実行部122は、WE11、LSTM12、固有表現出力層13をワークエリア上に展開する。エンコーダ実行部122は、モデル記憶部111bに記憶されたWE11のパラメータおよびLSTM12のパラメータθ12を、WE11、LSTM12に設定する。なお、モデル記憶部111bに記憶されたWE11のパラメータおよびLSTM12のパラメータθ12は、学習処理部110によって学習済みとする。
抽出部123は、取得部121から入力文を受け付けると、入力文に含まれる各単語を順に、エンコーダ実行部122に実行されたエンコーダ10のWE11に入力する。抽出部123は、固有表現出力層13から出力される確率分布から、入力した各単語が「B-CHEM」であるか、「I-CHEM」であるか、「E-CHEM」であるか、(あるいは他の単語であるか)をそれぞれ判定する。
抽出部123は、「B-CHEM」が出力された際に、WE11に入力した単語を先頭単語と判定する。抽出部123は、「E-CHEM」が出力された際に、WE11に入力した単語を、終わりの単語と判定する。抽出部123は、入力文の先頭の単語から、終わりの単語までの各単語を、固有表現として抽出する。情報処理装置は、上記処理を繰り返し実行することで、入力文から、固有表現を抽出する。抽出部123は、抽出した各固有表現を、図示しない表示装置に出力して表示してもよいし、入力文と、抽出した各固有表現とを対応付けた情報を生成して、図示しない記憶部に格納してもよい。また、抽出部123は、入力文から抽出した各固有表現の情報を、外部装置に出力してもよい。
次に、本実施例に係る情報処理装置100の処理手順の一例について説明する。図5は、本実施例に係る学習処理を示すフローチャートである。図5の処理を行う前に、エンコーダ実行部112は、エンコーダ10を実行して、パラメータの初期値を設定する。デコーダ実行部113は、デコーダ20を実行して、パラメータの初期値を設定する。
図5に示すように、情報処理装置100の第1学習部114は、学習データ記憶部111aから、入力文(固有表現抽出用)と、正解タグとを取得する(ステップS101)。第1学習部114は、入力文(固有表現抽出用)と、正解タグとを用いて、エンコーダ10のパラメータを学習し、モデル記憶部111bのパラメータを更新する(ステップS102)。
情報処理装置100の第2学習部115は、学習データ記憶部111aから、対となる、入力文(固有表現抽出用)と、言い換え対用とを取得する(ステップS103)。第2学習部115は、入力文(固有表現抽出用)と、言い換え対とを基にして、エンコーダ10のパラメータと、デコーダ20のパラメータとを学習し、モデル記憶部111bのパラメータを更新する(ステップS104)。
情報処理装置100は、学習データ記憶部111aに未処理のデータがある場合には(ステップS105,Yes)、ステップS101に移行する。一方、情報処理装置100は、学習データ記憶部111aに未処理のデータがない場合には(ステップS105,No)、処理を終了する。
図6は、本実施例に係る抽出処理を示すフローチャートである。図6の処理を行う前に、エンコーダ実行部122は、エンコーダ10を実行して、モデル記憶部111bに格納された学習済みのパラメータを、エンコーダ10に設定する。固有表現抽出時は、学習時と同様に、文全体をエンコードし、各単語に各ラベルが付与される確率を計算する。その後、「B-CHEM」の後には、「I-CHEM」か「E-CHEM」しか接続できないといったラベルの連接制約を満たす入力に対するラベル列のうち、確率を基に計算されるスコアが最大となるものを選択する。この制約を満たしたラベル列の選択は、一般的に、Viterbiアルゴリズムを応用して計算が可能であることが知られている。
図6に示すように、情報処理装置100の取得部121は、入力文(単語列)を受け取る(ステップS201)。情報処理装置100の抽出部123は、入力文をエンコードし、各単語に各ラベルが付与される確率を計算する(ステップS202)。
抽出部123は、ビタビアルゴリズムでラベルの連接制約を考慮して、ラベル連接制約を満たす入力に対するラベル列のうち、確率を基に計算されるスコアが最大となるものを選択する(ステップS203)。なお、抽出部123は、文献(Andrew J. Viterbi. Error bounds for convolutional codes and an asymptotically optimum decoding algorithm, IEEE Transactions on Information Theory 13(2):260-269, April 1967.)に記載された技術に基づいて、ビタビアルゴリズムを実行する。
抽出部123は、B-CHEMからE-CHEMの間の単語列か、S-CHEMの単語を、科学物質名を表す固有表現として抽出する(ステップS204)。
次に、本実施例に係る情報処理装置100の効果について説明する。本実施例に係る情報処理装置100は、第1学習フェーズにおいて、入力文と、入力文に対応する正解タグとを基にして、エンコーダ10のパラメータを学習する。また、情報処理装置100は、第2学習フェーズにおいて、入力文、言い換えの入力文を用いて、エンコーダ10およびデコーダ20のパラメータを同時に学習する。情報処理装置100が、かかる学習を行うことで、固有表現抽出用の学習と、言い換え対からの異なる表記だが同一の実態のパターンを学習することができる。結果、固有表現抽出においても異なる表記で同一の実態に対応できるようになる。
情報処理装置100は、第1学習フェーズおよび第2学習フェーズで学習したエンコーダ10に入力文(テキストデータ)を入力することで、同一の意味であるが、異なる表記の複数の固有表現を抽出することができる。
ところで、本実施例では一例として、化合物に関する入力文と、言い換えの入力文とを用いて、学習処理部110が、エンコーダ10およびデコーダ20を学習する場合について説明したがこれに限定されるものではない。たとえば、対象が同じものについて、複数の固有表現が存在するもので、好ましくは、各固有表現にパターンが存在するものであれば、化合物の固有表現と同様にして、学習することが可能である。
図7および図8は、学習可能なその他の固有表現の一例を説明するための図である。図7に示すように、会社名は、略称でテキストに記載される場合がある。たとえば、学習処理部110は、入力文(会社名)と、言い換え入力文(略語)とを用いて、エンコーダ10およびデコーダ20のパラメータを学習してもよい。これの学習によって、会社名に関する固有表現を抽出することが可能になる。
図8に示すように、Webページのリンクの文字列と、対応先のページの固有表現とが対応付けられる場合がある。たとえば、「<a href=’xx.com’>>(株)CCC</a>」は、「株式会社CCC」というタイトルのページをリンクしているとする。そうすると、言い換え対、「(株)CCC</a>」」と「株式会社CCC」を獲得でき、学習処理部110は、エンコーダ10およびデコーダ20のパラメータの学習に利用できる。このように学習することで、コード50をエンコードすることで、コード50から固有表現を抽出することができる。
また、図示を省略するが、学習可能なその他の固有表現には、人物名が含まれる。たとえば、SNS(Social Network Service)等でやり取りされるテキストデータには、同一の人物に対して、正式な氏名と、ニックネームとが与えられる場合が多い。学習処理部110は、入力文(氏名)と、言い換え入力文(ニックネーム)とを用いて、エンコーダ10およびデコーダ20のパラメータを学習してもよい。
次に、本実施例に示した情報処理装置100と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図9は、本実施例に係る情報処理装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図9に示すように、コンピュータ300は、各種演算処理を実行するCPU301と、ユーザからのデータの入力を受け付ける入力装置302と、ディスプレイ303とを有する。また、コンピュータ300は、記憶媒体からプログラム等を読み取る読み取り装置304と、有線または無線ネットワークを介して、外部装置等との間でデータの授受を行うインタフェース装置305とを有する。コンピュータ300は、各種情報を一時記憶するRAM306と、ハードディスク装置307とを有する。そして、各装置301~307は、バス308に接続される。
ハードディスク装置307は、学習処理プログラム307a、抽出処理プログラム307bを有する。CPU301は、学習処理プログラム307a、抽出処理プログラム307bを読み出してRAM306に展開する。
学習処理プログラム307aは、学習処理プロセス306aとして機能する。抽出処理プログラム307bは、抽出処理プロセス306bとして機能する。
学習処理プロセス306aの処理は、学習処理部110の処理に対応する。抽出処理プロセス306bの処理は、抽出処理部120の処理に対応する。
なお、各プログラム307a、307bついては、必ずしも最初からハードディスク装置307に記憶させておかなくてもよい。例えば、コンピュータ300に挿入されるフレキシブルディスク(FD)、CD-ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ300が各プログラム307a、307bを読み出して実行するようにしてもよい。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)コンピュータが実行する学習方法であって、
所定の対象を第1の固有表現で表記した第1入力文を第1学習モデルに入力した場合、前記第1学習モデルから出力される値が、前記第1入力文に対応する正解情報に近づくように、前記第1学習モデルの第1パラメータを学習し、
前記第1入力文を前記第1学習モデルに入力した際に生成される中間表現と、前記所定の対象を第2の固有表現で表記した第2入力文とを第2学習モデルに入力した場合、前記第2学習モデルから出力される値が、前記第2入力文に対応する正解情報に近づくように、前記第1パラメータおよび前記第2学習モデルの第2パラメータを学習する
処理を実行することを特徴とする学習方法。
(付記2)学習済みの前記第1パラメータを設定した前記第1学習モデルに、固有表現の抽出対象となる入力文を入力し、前記第1学習モデルから出力される値を基にして、前記入力文から固有表現を抽出する処理を更に実行することを特徴とする付記1に記載の学習方法。
(付記3)前記第1学習モデルおよび前記第2学習モデルは、RNN(Recurrent Neural Network)を有し、前記第1パラメータを学習する処理、前記第1パラメータおよび前記第2パラメータを学習する処理は、前記RNNのパラメータを学習することを特徴とする付記1または2に記載の学習方法。
(付記4)前記所定の対象は、化合物、人物、会社を含むことを特徴とする付記1、2または3に記載の学習方法。
(付記5)コンピュータが実行する抽出方法であって、
所定の対象を第1の固有表現で表記した第1入力文を第1学習モデルに入力した場合、前記第1学習モデルから出力される値が、前記第1入力文に対応する正解情報に近づくように、前記第1学習モデルの第1パラメータを学習し、
前記第1入力文を前記第1学習モデルに入力した際に生成される中間表現と、前記所定の対象を第2の固有表現で表記した第2入力文とを第2学習モデルに入力した場合、前記第2学習モデルから出力される値が、前記第2入力文に対応する正解情報に近づくように、前記第1パラメータおよび前記第2学習モデルの第2パラメータを学習し、
学習済みの前記第1パラメータを設定した前記第1学習モデルに、固有表現の抽出対象となる入力文を入力し、前記第1学習モデルから出力される値を基にして、前記入力文から固有表現を抽出する
処理を実行することを特徴とする抽出方法。
(付記6)コンピュータに、
所定の対象を第1の固有表現で表記した第1入力文を第1学習モデルに入力した場合、前記第1学習モデルから出力される値が、前記第1入力文に対応する正解情報に近づくように、前記第1学習モデルの第1パラメータを学習し、
前記第1入力文を前記第1学習モデルに入力した際に生成される中間表現と、前記所定の対象を第2の固有表現で表記した第2入力文とを第2学習モデルに入力した場合、前記第2学習モデルから出力される値が、前記第2入力文に対応する正解情報に近づくように、前記第1パラメータおよび前記第2学習モデルの第2パラメータを学習する
処理を実行させることを特徴とする学習プログラム。
(付記7)学習済みの前記第1パラメータを設定した前記第1学習モデルに、固有表現の抽出対象となる入力文を入力し、前記第1学習モデルから出力される値を基にして、前記入力文から固有表現を抽出する処理を更に実行することを特徴とする付記6に記載の学習プログラム。
(付記8)前記第1学習モデルおよび前記第2学習モデルは、RNN(Recurrent Neural Network)を有し、前記第1パラメータを学習する処理、前記第1パラメータおよび前記第2パラメータを学習する処理は、前記RNNのパラメータを学習することを特徴とする付記6または7に記載の学習プログラム。
(付記9)前記所定の対象は、化合物、人物、会社を含むことを特徴とする付記6、7または8に記載の学習プログラム。
(付記10)所定の対象を第1の固有表現で表記した第1入力文を第1学習モデルに入力した場合、前記第1学習モデルから出力される値が、前記第1入力文に対応する正解情報に近づくように、前記第1学習モデルの第1パラメータを学習する第1学習部と、
前記第1入力文を前記第1学習モデルに入力した際に生成される中間表現と、前記所定の対象を第2の固有表現で表記した第2入力文とを第2学習モデルに入力した場合、前記第2学習モデルから出力される値が、前記第2入力文に対応する正解情報に近づくように、前記第1パラメータおよび前記第2学習モデルの第2パラメータを学習する第2学習部と
を有することを特徴とする情報処理装置。
(付記11)学習済みの前記第1パラメータを設定した前記第1学習モデルに、固有表現の抽出対象となる入力文を入力し、前記第1学習モデルから出力される値を基にして、前記入力文から固有表現を抽出する抽出部を更に有することを特徴とする付記10に記載の情報処理装置。
(付記12)前記第1学習モデルおよび前記第2学習モデルは、RNN(Recurrent Neural Network)を有し、前記第1学習部および前記第2学習部は、前記RNNのパラメータを学習することを特徴とする付記10または11に記載の情報処理装置。
(付記13)前記所定の対象は、化合物、人物、会社を含むことを特徴とする付記10、11または12に記載の情報処理装置。
100 情報処理装置
110 学習処理部
111a 学習データ記憶部
111b モデル記憶部
112,122 エンコーダ実行部
113 デコーダ実行部
114 第1学習部
115 第2学習部
120 抽出処理部
121 取得部
123 抽出部

Claims (6)

  1. コンピュータが実行する学習方法であって、
    所定の対象を第1の固有表現で表現した単語と前記第1の固有表現以外で表記した単語とを含む第1入力文を、入力文に含まれる単語が固有表現であるか否かを判定する第1学習モデルに入力した場合、前記第1学習モデルから出力される値が、前記第1入力文に対応する正解情報に近づくように、前記第1学習モデルの第1パラメータを学習し、
    前記第1入力文を前記第1学習モデルに入力した際に生成される中間表現と、前記所定の対象を第2の固有表現で表現した単語と前記第2の固有表現以外で表記した単語とを含む第2入力文と、を入力文に含まれる前記第2の固有表現で表記した単語に対応する言い換えの固有表現で表記した単語を出力する第2学習モデルに入力した場合、前記第2学習モデルから出力される値が、前記第2入力文に対応する正解情報に近づくように、前記第1パラメータおよび前記第2学習モデルの第2パラメータを学習する
    処理を実行することを特徴とする学習方法。
  2. 前記第1学習モデルおよび前記第2学習モデルは、RNN(Recurrent Neural Network)を有し、前記第1パラメータを学習する処理、前記第1パラメータおよび前記第2パラメータを学習する処理は、前記RNNのパラメータを学習することを特徴とする請求項1に記載の学習方法。
  3. 前記所定の対象は、化合物、人物、会社を含むことを特徴とする請求項1または2に記載の学習方法。
  4. コンピュータが実行する抽出方法であって、
    所定の対象を第1の固有表現で表現した単語と前記第1の固有表現以外で表記した単語とを含む第1入力文を、入力文に含まれる単語が固有表現であるか否かを判定する第1学習モデルに入力した場合、前記第1学習モデルから出力される値が、前記第1入力文に対応する正解情報に近づくように、前記第1学習モデルの第1パラメータを学習し、
    前記第1入力文を前記第1学習モデルに入力した際に生成される中間表現と、前記所定の対象を第2の固有表現で表現した単語と前記第2の固有表現以外で表記した単語とを含む第2入力文と、を入力文に含まれる前記第2の固有表現で表記した単語に対応する言い換えの固有表現で表記した単語を出力する第2学習モデルに入力した場合、前記第2学習モデルから出力される値が、前記第2入力文に対応する正解情報に近づくように、前記第1パラメータおよび前記第2学習モデルの第2パラメータを学習し、
    学習済みの前記第1パラメータを設定した前記第1学習モデルに、固有表現の抽出対象となる入力文を入力し、前記第1学習モデルから出力される値を基にして、前記入力文から固有表現を抽出する
    処理を実行することを特徴とする抽出方法。
  5. コンピュータに、
    所定の対象を第1の固有表現で表現した単語と前記第1の固有表現以外で表記した単語とを含む第1入力文を、入力文に含まれる単語が固有表現であるか否かを判定する第1学習モデルに入力した場合、前記第1学習モデルから出力される値が、前記第1入力文に対応する正解情報に近づくように、前記第1学習モデルの第1パラメータを学習し、
    前記第1入力文を前記第1学習モデルに入力した際に生成される中間表現と、前記所定の対象を第2の固有表現で表現した単語と前記第2の固有表現以外で表記した単語とを含む第2入力文と、を入力文に含まれる前記第2の固有表現で表記した単語に対応する言い換えの固有表現で表記した単語を出力する第2学習モデルに入力した場合、前記第2学習モデルから出力される値が、前記第2入力文に対応する正解情報に近づくように、前記第1パラメータおよび前記第2学習モデルの第2パラメータを学習する
    処理を実行させることを特徴とする学習プログラム。
  6. 所定の対象を第1の固有表現で表現した単語と前記第1の固有表現以外で表記した単語とを含む第1入力文を、入力文に含まれる単語が固有表現であるか否かを判定する第1学習モデルに入力した場合、前記第1学習モデルから出力される値が、前記第1入力文に対応する正解情報に近づくように、前記第1学習モデルの第1パラメータを学習する第1学習部と、
    前記第1入力文を前記第1学習モデルに入力した際に生成される中間表現と、前記所定の対象を第2の固有表現で表現した単語と前記第2の固有表現以外で表記した単語とを含む第2入力文と、を入力文に含まれる前記第2の固有表現で表記した単語に対応する言い換えの固有表現で表記した単語を出力する第2学習モデルに入力した場合、前記第2学習モデルから出力される値が、前記第2入力文に対応する正解情報に近づくように、前記第1パラメータおよび前記第2学習モデルの第2パラメータを学習する第2学習部と
    を有することを特徴とする情報処理装置。
JP2019038079A 2019-03-01 2019-03-01 学習方法、抽出方法、学習プログラムおよび情報処理装置 Active JP7358748B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019038079A JP7358748B2 (ja) 2019-03-01 2019-03-01 学習方法、抽出方法、学習プログラムおよび情報処理装置
US16/801,930 US11977975B2 (en) 2019-03-01 2020-02-26 Learning method using machine learning to generate correct sentences, extraction method, and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019038079A JP7358748B2 (ja) 2019-03-01 2019-03-01 学習方法、抽出方法、学習プログラムおよび情報処理装置

Publications (2)

Publication Number Publication Date
JP2020140676A JP2020140676A (ja) 2020-09-03
JP7358748B2 true JP7358748B2 (ja) 2023-10-11

Family

ID=72236667

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019038079A Active JP7358748B2 (ja) 2019-03-01 2019-03-01 学習方法、抽出方法、学習プログラムおよび情報処理装置

Country Status (2)

Country Link
US (1) US11977975B2 (ja)
JP (1) JP7358748B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220222489A1 (en) * 2021-01-13 2022-07-14 Salesforce.Com, Inc. Generation of training data for machine learning based models for named entity recognition for natural language processing
WO2022201309A1 (ja) * 2021-03-23 2022-09-29 日本電気株式会社 情報補完装置、情報補完方法、及びコンピュータ読み取り可能な記録媒体
CN114357176B (zh) * 2021-11-26 2023-11-21 永中软件股份有限公司 实体知识自动抽取方法和计算机装置、计算机可读介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5245255B2 (ja) * 2007-02-15 2013-07-24 富士通株式会社 固有表現抽出プログラム、固有表現抽出方法および固有表現抽出装置
JP2011501847A (ja) * 2007-10-17 2011-01-13 アイティーアイ・スコットランド・リミテッド コンピュータで実現される方法
CN105824797B (zh) * 2015-01-04 2019-11-12 华为技术有限公司 一种评价语义相似度的方法、装置和系统
JP6816421B2 (ja) * 2016-09-15 2021-01-20 富士通株式会社 学習プログラム、学習方法及び学習装置
US10915707B2 (en) * 2017-10-20 2021-02-09 MachineVantage, Inc. Word replaceability through word vectors
JP7139626B2 (ja) * 2018-03-02 2022-09-21 日本電信電話株式会社 フレーズ生成関係性推定モデル学習装置、フレーズ生成装置、方法、及びプログラム
WO2019202136A1 (en) * 2018-04-19 2019-10-24 Koninklijke Philips N.V. Machine learning model with evolving domain-specific lexicon features for text annotation
US11600194B2 (en) * 2018-05-18 2023-03-07 Salesforce.Com, Inc. Multitask learning as question answering
CN109190120B (zh) * 2018-08-31 2020-01-21 第四范式(北京)技术有限公司 神经网络训练方法和装置及命名实体识别方法和装置
US11093714B1 (en) * 2019-03-05 2021-08-17 Amazon Technologies, Inc. Dynamic transfer learning for neural network modeling

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Gamal Crichton 他3名,A neural network multi-task learning approach to biomedical named entity recognition,BMC Bioinfomatics,2017年08月15日

Also Published As

Publication number Publication date
US20200279159A1 (en) 2020-09-03
US11977975B2 (en) 2024-05-07
JP2020140676A (ja) 2020-09-03

Similar Documents

Publication Publication Date Title
US11604956B2 (en) Sequence-to-sequence prediction using a neural network model
US11972365B2 (en) Question responding apparatus, question responding method and program
KR102382499B1 (ko) 번역 방법, 타깃 정보 결정 방법, 관련 장치 및 저장 매체
Astudillo et al. Transition-based parsing with stack-transformers
KR102542914B1 (ko) 다중언어 번역 장치 및 다중언어 번역 방법
JP7358748B2 (ja) 学習方法、抽出方法、学習プログラムおよび情報処理装置
CN110264991A (zh) 语音合成模型的训练方法、语音合成方法、装置、设备及存储介质
JP6772213B2 (ja) 質問応答装置、質問応答方法及びプログラム
JP7315065B2 (ja) 質問生成装置、質問生成方法及びプログラム
CN108132932B (zh) 带有复制机制的神经机器翻译方法
CN111144110A (zh) 拼音标注方法、装置、服务器及存储介质
CN110807335B (zh) 基于机器学习的翻译方法、装置、设备及存储介质
CN111611805B (zh) 一种基于图像的辅助写作方法、装置、介质及设备
CN110352423A (zh) 序列转换神经网络
CN112395888A (zh) 机器翻译设备和方法
CN111814479A (zh) 一种企业简称生成及其模型的训练方法及装置
KR20210044559A (ko) 출력 토큰 결정 방법 및 장치
WO2019163752A1 (ja) 形態素解析学習装置、形態素解析装置、方法、及びプログラム
Nanayakkara et al. Context aware back-transliteration from english to sinhala
JP7218803B2 (ja) モデル学習装置、方法及びプログラム
CN110442706B (zh) 一种文本摘要生成的方法、系统、设备及存储介质
JP2020140674A (ja) 回答選択装置及びプログラム
US20240144025A1 (en) Information processing device, information processing method, program
JP7420180B2 (ja) 機械読解方法、装置、およびコンピュータ読み取り可能な記憶媒体
JP2019012455A (ja) 語義ベクトル生成プログラム、語義ベクトル生成方法および語義ベクトル生成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221223

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230328

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230628

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230911

R150 Certificate of patent or registration of utility model

Ref document number: 7358748

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150