JP7413630B2 - 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体 - Google Patents

要約生成モデルの訓練方法、装置、デバイス及び記憶媒体 Download PDF

Info

Publication number
JP7413630B2
JP7413630B2 JP2022033961A JP2022033961A JP7413630B2 JP 7413630 B2 JP7413630 B2 JP 7413630B2 JP 2022033961 A JP2022033961 A JP 2022033961A JP 2022033961 A JP2022033961 A JP 2022033961A JP 7413630 B2 JP7413630 B2 JP 7413630B2
Authority
JP
Japan
Prior art keywords
representation
sample
negative
document
positive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022033961A
Other languages
English (en)
Other versions
JP2023007372A (ja
Inventor
ウ、ウェンハオ
リ、ウェイ
シャオ、シンヤン
リウ、ジアチェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2023007372A publication Critical patent/JP2023007372A/ja
Application granted granted Critical
Publication of JP7413630B2 publication Critical patent/JP7413630B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/34Browsing; Visualisation therefor
    • G06F16/345Summarisation for human users
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/51Translation evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本開示は、コンピュータ技術の分野に関し、具体的に自然言語処理、ディープラーニングなどの人工知能の分野に関し、特に要約生成モデルの訓練方法、装置、デバイス及び記憶媒体に関する。
自動要約は、1つ又は複数の文書に対して簡潔な要約を自動的に生成するように設計されている。生成された当該要約は、一貫性があり、スムーズで且つ元の文書の内容に忠実である必要がある。自動要約は抽出式要約と生成式要約に分類される。生成式要約は、ビッグデータ技術により人間による文章のまとめを模倣して入力文書を理解し、言語を編成して目標要約を生成することを目的とする。生成式要約の処理手順は、入力された文書に対応する要約を得るために要約生成モデルを用いて入力された文書を処理することを含むことができる。
関連技術では、要約生成モデルを訓練する際に、損失関数として最尤確率関数を用いて訓練する。
本開示は、要約生成モデルの訓練方法、装置、電子デバイス及び記憶媒体を提供する。
本開示の一態様によれば、文書サンプルに対応する文書表現を取得し、前記文書表現に基づいて、前記文書表現に対応する、ポジティブ要約表現とネガティブ要約表現とを含む要約表現を構築し、前記文書表現、前記ポジティブ要約表現、前記ネガティブ要約表現に基づいて、総比較損失関数を構築し、前記総比較損失関数に基づいて要約生成モデルを訓練することを含む要約生成モデルの訓練方法を提供する。
本開示の別の態様によれば、文書サンプルに対応する文書表現を取得する取得モジュールと、前記文書表現に基づいて、前記文書表現に対応する、ポジティブ要約表現及びネガティブ要約表現を含む要約表現を構築する構築モジュールと、前記文書表現、前記ポジティブ要約表現、前記ネガティブ要約表現に基づいて、総比較損失関数を構築し、前記総比較損失関数に基づいて要約生成モデルを訓練する訓練モジュールとを備える要約生成モデルの訓練装置を提供する。
本開示の別の態様によれば、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサと通信可能に接続されたメモリとを備え、前記メモリに前記少なくとも1つのプロセッサにより実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに上記のいずれか1項の態様に記載の方法を実行させる電子デバイスを提供する。
本開示の別の態様によれば、コンピュータに上記のいずれか1項の態様に記載の方法を実行させるためのコンピュータコマンドを記憶した非一時的なコンピュータ可読記憶媒体を提供する。
本開示の別の態様によれば、プロセッサにより実行されると、上記のいずれか1項の態様に記載の方法を実現するコンピュータプログラムを含むコンピュータプログラム製品を提供する。
本開示の技術案によれば、要約生成モデルの精度を向上させることができる。
理解すべきなのは、本セクションで説明される内容は、本開示の実施形態の重要な又は肝心な特徴を標識することでもなく、本開示の範囲を制限することでもない。本開示の他の特徴は、以下の明細書により容易に理解されるであろう。
図面は、本技術案をより良く理解するためのものであり、本願に制限されない。図面において、
本開示の第1実施形態に係る概略図である。 本開示の第2実施形態に係る概略図である。 本開示の第3実施形態に係る概略図である。 本開示の第4実施形態に係る概略図である。 本開示の第4実施形態に係る概略図である。 本開示の第4実施形態に係る概略図である。 本開示の実施形態に係る要約生成モデルの訓練方法のいずれかを実現するための電子デバイスの概略図である。
以下、図面に基づいて、本出願の例示的な実施例を説明する。理解を容易にするために、本出願の実施例の様々な詳細が含まれており、それらは単なる例示と見なされるべきである。従って、当業者は、本出願の範囲及び精神から逸脱することなく、本明細書に記載の実施形態に対して様々な変更及び修正を行うことができることを認識するはずである。同様に、簡明のために、以下の説明では、よく知られた機能と構造の説明は省略される。
図1は、本開示の第1実施形態に係る概略図である。本実施形態は、以下のことを含む要約生成モデルの訓練方法を提供する。
101において、文書サンプルに対応する文書表現を取得する。
102において、前記文書サンプルに基づいて、前記文書サンプルに対応する、ポジティブ要約サンプルとネガティブ要約サンプルとを含む要約サンプルを取得する。
103において、前記文書サンプル、前記ポジティブ要約サンプル、及び前記ネガティブ要約サンプルに基づいて総比較損失関数を構築し、前記総比較損失関数に基づいて要約生成モデルを訓練する。
本実施形態の実行主体は、要約生成モデルの訓練装置であって良い。この訓練装置は、端末やサーバなどに配置されて良い。
文書サンプルは、既存のデータセットから取得することができる。例えば、履歴収集又は構築により、既存の文書を含み得る大量の既存データを取得することができるため、既存の文書を文書サンプルとする。
表現(representation)は、データを記述するための情報である。例えば、画素点については、その表現はRGBデータ又はHSVデータであってよい。表現(representation)は、一般的にデータをベクトル形式で記述することができる。
要約生成モデル(単にモデルと呼ぶことができる)とは、文書を処理して文書に対応する要約を得るためのモデルである。例えば、図2に示すように、適用段階では、要約生成すべき文書が要約生成モデルに入力され、要約生成モデルによりその文書を処理してその文書に対応する要約を出力する。文書に対応する要約とは、文書中のキー情報のことであり、要約生成モデルに基づいて生成された要約は、元の文書にはない新しい単語、フレーズなどを生成することができる。
ポジティブ要約表現とは、文書サンプルに対するポジティブ要約サンプルの表現であり、ネガティブ要約表現とは、文書サンプルに対するネガティブ要約サンプルの表現である。
ポジティブ要約サンプルとは、文書サンプルと語義的に一致する要約サンプルを意味し、ネガティブ要約サンプルとは、文書サンプルと語義的に一致しない要約サンプルを意味する。例えば、ある文書サンプルはある映画が良いと意味している場合、ある要約サンプルもその映画が良い、又は類似の語義、例えば素晴らしい、まあまあなどと意味すれば、その要約サンプルはポジティブ要約サンプルであり、ある要約サンプルがその映画が悪い、例えばひどいと意味すれば、その要約サンプルはネガティブ要約サンプルである。
関連技術では、要約生成モデルを訓練する際、損失関数は一般に最尤確率関数を用いる。最尤確率関数はバイナリ関数であり、サンプルの予測表現と真表現に基づいて構築されている。しかし、最尤確率関数は統計的関係のみを反映するため、語義的関係を正確に反映することができず、要約生成モデルの精度に影響を与える。
本開示実施形態では、要約生成モデルが訓練時に採用する損失関数は、ポジティブとネガティブサンプルの間の関係をよりよく比較するためにトリプルに基づいて構築された損失関数である比較損失(contrastive loss)関数である。その後に現れる比較損失関数と区別するために、モデル訓練で最終的に採用される比較損失関数を総比較損失関数と呼ぶことができる。
具体的には、総比較損失関数の基礎となるトリプルは、文書表現、ポジティブ要約表現、及びネガティブ要約表現を含む。上記のトリプルに基づく総比較損失関数の訓練目標は、語義的に関連性の強いサンプル表現の距離が近く、語義的に関連性の弱いサンプル表現の距離が遠いことである。このように、予測(即ちモデルを用いて文書の要約を生成する)を行う際に、ノイズが存在して生成される要約に多少のゆらぎがあっても、語義的に関連していないテキスト間の距離が離れているため、モデルにより語義的に関連性の良い要約を生成することができる。
図3に示すように、文書が映画Aに関する映画評価文書であり、その映画評価文書はAが良い映画(a good movie(A))であることを示しているとすると、理想的には、映画評価文書に対応する要約は白丸で表現され、即ち要約:Aは素晴らしい(movie A is great)である。ノイズがあっても生成される要約は斜線付き丸で表現され、即ち要約:Aは非常に良い(A is awesome)又はAはオーケー(The movie is Okay)である可能性がある。しかし、モデル訓練時に語義的に関連しないサンプル間の距離が離れているため、語義的に関連しない要約は生成されず、例えば黒丸で示された要約:Aは悪い(The movie is awful)は生成されない。説明を簡単にするために、図3における各丸は多様体(mainfold)空間内に表現されていることが理解できる。
上記のトリプルに基づいて、トリプルに基づく総比較損失関数を構築することができる。その後、総比較損失関数に基づいて要約生成モデルを訓練することができ、すなわち、総比較損失関数が収束するまで、総比較損失関数に基づいてモデルパラメータを調整することができる。
本実施形態では、文書表現、文書表現に対応するポジティブ要約表現、及び文書表現に対応するネガティブ要約表現に基づく総比較損失関数を構築し、この総比較損失関数に基づいて要約生成モデルを訓練することにより、モデル訓練時に比較学習を導入して要約生成モデルの精度を向上させることができる。
図2に示すように、要約生成モデルは入力が1種類のテキスト(文書)であり、出力が他の種類のテキスト(要約)である。従って、要約生成モデルはシーケンス対シーケンス(seq2seq)モデルであって良い。シーケンス対シーケンスモデルは一般的にエンコーダ(encoder)とデコーダ(decoder)を含む。
図4に示すように、要約生成モデルがエンコーダとデコーダを含む場合を例にする。適用段階では、文書をエンコーダに入力し、エンコーダにより文書を処理した後、符号化表現を取得する。その後、符号化表現をデコーダに入力し、デコーダにより処理された後に復号化表現を取得することができる。その後、復号化表現に基づいて、文書に対応する要約として、ルックアップテーブルなどの方法で復号化表現に対応するテキストを取得することができる。エンコーダ及びデコーダを含むシーケンス対シーケンスモデルは、Transformerモデルのような関連技術におけるモデル構造を採用することができる。訓練段階では、入力された文書は文書サンプルと称され、文書サンプルに対応する符号化表現及び/又は復号化表現は文書表現とすることができる。
エンコーダ及びデコーダに基づいて文書表現を取得することにより、シーケンス対シーケンスモデルのシナリオに適用することができる。
図5は、本開示の第5実施形態に係る概略図である。本実施形態は要約生成モデルの訓練方法を提供する。当該方法は、図4に示す構成に合わせて以下のことを含む。
501において、要約生成モデルにおけるエンコーダを使用して文書サンプルを処理して符号化表現を取得する。
502において、要約生成モデルにおけるデコーダを使用して前記符号化表現を処理して復号化表現を得る。
エンコーダ及びデコーダは、関連技術におけるTransformerモデルのようなシーケンス対シーケンスモデルにおけるエンコーダ及びデコーダを使用することができる。
503において、前記復号化表現に対応する生成テキストを取得する。
ここで、復号化表現は一般に多次元ベクトルであり、ベクトルとテキストとの対応関係のテーブルをあらかじめ配置しておき、このテーブルをルックアップすることにより復号化表現に対応するテキストを生成テキストとして得ることができる。
504において、前記生成テキストに基づいて、ポジティブ要約サンプル及びネガティブ要約サンプルを構築する。
ここで、ループバック翻訳の方式を用いてポジティブ要約サンプルを得ることができる。
即ち、前記生成テキストをループバック翻訳してループバック翻訳結果を得、前記ループバック翻訳結果を前記ポジティブ要約サンプルとすることができる。
たとえば、生成テキストが中国語1であり、翻訳器を用いて中国語1に対応する英訳として英語0が得られ、更に翻訳器を用いて得られた英語0に対応する中国語翻訳が中国語2となる場合に、中国語2は中国語1のループバック翻訳結果となり、即ち中国語2は中国語1のポジティブ要約サンプルとして良い。
ループバック翻訳により、構文は異なるが語義が一致するポジティブ要約サンプルを構築することができる。
ここで、ネガティブ要約サンプルは、次のいずれか1つ以上を使用して取得することができる。
(1)前記生成テキストをエンティティ置換してエンティティ置換結果を得、前記エンティティ置換結果を前記ネガティブ要約サンプルとする。
例えば、生成テキストに地名エンティティ「北京」が含まれている場合、他の地名エンティティ、例えば「天津」でその地名エンティティ「北京」を置き換えてエンティティの関係上の誤りを構築し、置き換えられた「天津」を含むテキストをネガティブ要約サンプルとすることができる。
(2)前記生成テキストに対して代名詞置換を行って代名詞置換結果を得、前記代名詞置換結果を前記ネガティブ要約サンプルとする。
例えば、生成テキストに人称代名詞「彼」が含まれている場合には、「彼女」で置き換えて人称代名詞上の誤りを構築し、置き換えられた「彼女」を含むテキストをネガティブ要約サンプルとすることができる。
(3)前記生成テキストを感情置換して感情置換結果を得、前記感情置換結果を前記ネガティブ要約サンプルとする。
例えば、肯定文を否定文に置き換え、具体的には、テキスト中の「はい」を「いいえ」に置き換えて感情的な誤りを構築し、置き換えられた「いいえ」を含むテキストをネガティブ要約サンプルとする。
(4)前記生成テキストの類似テキストを取得し、前記類似テキストを前記ネガティブ要約サンプルとする。
ここで、類似テキストとは、生成テキストと強く類似したテキストを意味することができる。具体的には、生成テキストと既存の候補テキストとの類似度を計算し、類似度が最も高い(top‐1)又はN(Nは設定可能)(top‐N)個の高い候補テキストをネガティブ要約サンプルとすることができる。
(5)前記生成テキストに仮想的な対抗処理を施して仮想的な対抗結果を得、前記仮想的な対抗結果を前記ネガティブ要約サンプルとする。
仮想的な対抗は、入力に外乱を加えることにより、モデルの出力が外乱のない入力の出力と異なるようにすることを重要な一環とするデータ強化技術である。本実施形態では仮想的な対抗により、生成テキストに対応する表現に外乱を加え、外乱を加えた表現をネガティブ要約表現とすることができる。
以上のネガティブ要約サンプルの構築技術により、事実誤りがあり表層的に区別されにくい強いネガティブ要約サンプルを構築することが可能となり、モデルの性能を有効に向上することができる。
生成テキストに基づいてポジティブ要約サンプルとネガティブ要約サンプルを構築することにより、サンプル数を豊富にし、モデル効果を向上させることができる。
505において、前記ポジティブ要約サンプルに対応するポジティブ要約表現、及び前記ネガティブ要約サンプルに対応するネガティブ要約表現を取得する。
ここで、ポジティブ要約サンプルを例にすると、word2vecモデルや他のテキストからベクトルへの変換モデルを用いて、ポジティブ要約サンプルを対応するベクトル形式に変換してポジティブ要約表現とすることができる。ネガティブ要約表現も同様の方法で取得することができる。
506において、前記符号化表現、前記ポジティブ要約表現、及び前記ネガティブ要約表現に基づいて、第1比較損失関数を構築し、前記復号化表現、前記ポジティブ要約表現、及び前記ネガティブ要約表現に基づいて、第2比較損失関数を構築し、前記第1比較損失関数と前記第2比較損失関数とに基づいて総比較損失関数を構築する。
図4に示すように、ポジティブ要約表現をPで表し、ネガティブ要約表現をNで表す。本実施形態において、2つの語義比較が含まれている。1つは入力側語義比較と呼び、もう1つは出力側語義比較と呼ぶことができる。入力側語義比較の比較トリプルは、符号化表現、ポジティブ要約表現及びネガティブ要約表現を含み、出力側語義比較の比較トリプルは、復号化表現、ポジティブ要約表現及びネガティブ要約表現を含む。
比較損失関数の具体的な形式は、必要に応じて設定できる。計算式の一つとして次のようになる。
Figure 0007413630000001
Figure 0007413630000002
Figure 0007413630000003
ここで、
Figure 0007413630000004
は総比較損失関数、
Figure 0007413630000005
は第1比較損失関数、
Figure 0007413630000006
は第2比較損失関数、
Figure 0007413630000007
は符号化表現、
Figure 0007413630000008
は復号化表現、
Figure 0007413630000009
はポジティブ要約表現、
Figure 0007413630000010
はネガティブ要約表現、nはネガティブ要約表現の総数、
Figure 0007413630000011
は予め設定されたスーパーパラメータである。
入力側語義比較により、復号化表現と符号化表現との事実の一致性を学習することができ、すなわち、1つの符号化表現と複数の復号化表現とを与えると、モデルは、正しくマッチングされた復号化表現に対してより大きな類似度を与え、誤ってマッチングされた復号化表現に対してより小さな類似度を与えることを学習することができる。出力側語義表現は、出力表現の間の類似度、即ち復号化表現と事実の一致性があるポジティブ要約表現の間の類似度が大きく、ポジティブ要約表現とネガティブ要約表現の類似度が小さいことを学習することができる。
507において、前記総比較損失関数に基づいて要約生成モデルを訓練する。
たとえば、総比較損失関数が収束するか、あらかじめ設定された反復回数に達するまで、総比較損失関数を用いて要約生成モデルのパラメータを調整する。
本実施形態では、2つの語義比較により、要約生成モデルが事実的に誤った要約を生成する現象を緩和し、通常のseq2seqモデルよる要約に比べて原文により忠実で生成品質を保証することができる。また、本実施形態の要約生成モデルを用いると、訓練時の文書サンプルや予測時の文書の前処理や後処理が不要となり、訓練や予測の効率を向上させることができる。
図6は、本開示の第4実施形態に係る概略図である。本実施形態は要約生成モデルの訓練装置を提供する。図6に示すように、要約生成モデルの訓練装置600は、取得モジュール601と、構築モジュール602と、訓練モジュール603とを備える。
取得モジュール601は、文書サンプルに対応する文書表現を取得する。構築モジュール602は、前記文書表現に基づいて、前記文書表現に対応する、ポジティブ要約表現及びネガティブ要約表現を含む要約表現を構築する。訓練モジュール603は、前記文書表現、前記ポジティブ要約表現、前記ネガティブ要約表現に基づいて総比較損失関数を構築し、前記総比較損失関数に基づいて要約生成モデルを訓練する。
幾つかの実施形態では、前記要約生成モデルは、エンコーダ及びデコーダを備え、前記取得モジュール601は、具体的には、前記エンコーダを使用して前記文書サンプルを処理して符号化表現を取得し、前記デコーダを使用して前記符号化表現を処理して復号化表現を取得し、前記符号化表現及び/又は前記復号化表現を前記文書表現とする。
幾つかの実施形態では、前記文書表現は、前記符号化表現及び前記復号化表現を含み、前記訓練モジュール603は、具体的に、前記符号化表現、前記ポジティブ要約表現、及び前記ネガティブ要約表現に基づいて第1比較損失関数を構築し、前記復号化表現、前記ポジティブ要約表現、及び前記ネガティブ要約表現に基づいて第2比較損失関数を構築し、前記第1比較損失関数と前記第2比較損失関数とに基づいて総比較損失関数を構築する。
幾つかの実施形態では、前記文書表現は、前記復号化表現を含み、前記構築モジュール602は、具体的に、前記復号化表現に対応する生成テキストを取得し、前記生成テキストに基づいてポジティブ要約サンプル及びネガティブ要約サンプルを構築し、前記ポジティブ要約サンプルに対応するポジティブ要約表現、前記ネガティブ要約サンプルに対応するネガティブ要約表現を取得する。
いくつかの実施形態では、前記構築モジュール602は、さらに具体的に、前記生成テキストをループバック翻訳してループバック翻訳結果を取得し、前記ループバック翻訳結果を前記ポジティブ要約サンプルとする。
いくつかの実施形態では、前記構築モジュール602は、更に具体的に、前記生成テキストをエンティティ置換してエンティティ置換結果を取得し、前記エンティティ置換結果を前記ネガティブ要約サンプルとすること、前記生成テキストを代名詞置換して代名詞置換結果を取得し、前記代名詞置換結果を前記ネガティブ要約サンプルとすること、前記生成テキストを感情置換して感情置換結果を取得し、前記感情置換結果を前記ネガティブ要約サンプルとすること、前記生成テキストの類似テキストを取得し、前記類似テキストを前記ネガティブ要約サンプルとすること、前記生成テキストに仮想的な対抗訓練を実行して仮想的な対抗結果を取得し、前記仮想的な対抗結果を前記ネガティブ要約サンプルとすること、のうちの少なくとも1項を実行する。
本実施形態では、文書表現、文書表現に対応するポジティブ要約表現、及び文書表現に対応するネガティブ要約表現に基づく総比較損失関数を構築し、この総比較損失関数に基づいて要約生成モデルを訓練することにより、モデル訓練時に比較学習を導入して要約生成モデルの精度を向上させることができる。
理解すべきなのは、本開示の実施形態では、異なる実施形態における同一又は類似の内容を互いに参照することができる。
理解すべきなのは、本開示の実施形態における「第1」、「第2」等は、単に区別するためのものであり、重要度の高低、タイミングの前後等を表すものではない。
本開示の実施形態によれば、本開示は更に、電子デバイス、可読記憶媒体、及びコンピュータプログラム製品を提供する。
図7は、本開示の実施形態を実施するために使用され得る例示的な電子デバイス700の模式的なブロック図である。電子デバイスは、ラップトップ、デスクトップコンピュータ、ワークベンチ、サーバ、ブレードサーバ、大型コンピュータ、及び他の適切なコンピュータのような、様々な形態のデジタルコンピュータを表す。電子デバイスは更に、PDA、携帯電話、スマートフォン、ウェアラブルデバイス、及び他の同様のコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すことができる。本明細書に示す構成要素、それらの接続及び関係、ならびにそれらの機能は、単なる一例であり、本明細書に記載及び/又は要求された本開示の実現を制限することではない。
図7に示すように、電子デバイス700は、読み取り専用メモリ(ROM)702に記憶されたコンピュータプログラム、又は記憶手段708からランダムアクセスメモリ(RAM)703にロードされたコンピュータプログラムに従って、様々な適切な動作及び処理を実行することができる演算手段701を含む。RAM703には、電子デバイス700の動作に必要な各種のプログラムやデータが記憶されてもよい。演算手段701、ROM702及びRAM703は、バス704を介して接続されている。入出力(I/O)インターフェース705もバス704に接続されている。
例えばキーボード、マウス等の入力手段706と、例えば様々なタイプのディスプレイ、スピーカ等の出力手段707と、例えば磁気ディスク、光ディスク等の記憶手段708と、例えばネットワークカード、モデム、無線通信トランシーバなどの通信手段709を含む電子デバイス700の複数の構成要素は、I/Oインターフェース705に接続される。通信手段709は、電子デバイス700が例えばインターネットのコンピュータネットワーク及び/又は様々な電気通信ネットワークを介して他のデバイスと情報/データを交換することを可能にする。
演算手段701は、処理能力及び演算能力を有する様々な汎用及び/又は専用の処理コンポーネントであってよい。演算手段701のいくつかの例は、中央処理ユニット(CPU)、グラフィック処理ユニット(GPU)、様々な専用の人工知能(AI)演算チップ、機械学習モデルアルゴリズムを実行する様々な演算ユニット、デジタル信号プロセッサ(DSP)、及び任意の適切なプロセッサ、コントローラ、マイクロコントローラなどを含むが、これらに限定されない。演算手段701は、上述した様々な方法及び処理、例えば要約生成モデルの訓練方法を実行する。例えば、幾つかの実施形態では、要約生成モデルの訓練方法は、例えば記憶手段708のような機械可読媒体に物理的に組み込まれたコンピュータソフトウェアプログラムとして実装されてもよい。幾つかの実施形態では、コンピュータプログラムの一部又は全部は、ROM702及び/又は通信手段709を介して電子デバイス700にロード及び/又はインストールすることができる。コンピュータプログラムがRAM703にロードされ、演算手段701により実行されると、上述した要約生成モデルの訓練方法の1つ又は複数のステップを実行することができる。代替的に、他の実施形態では、演算手段701は、要約生成モデルの訓練方法を実行するように、他の任意の適切な方法で(例えば、ファームウェアを介する)構成されてもよい。
本明細書で前述したシステム及び技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、フィールドプログラマブルゲートアレイ(FPGA)、専用集積回路(ASIC)、専用標準製品(ASSP)、システムオンチップシステム(SOC)、ロードプログラマブル論理デバイス(CPLD)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はこれらの組み合わせにおいて実装されてもよい。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施されることを含んで良い。当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行及び/又は解釈することができる。当該プログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであって、記憶システム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、当該記憶システム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置にデータ及び命令を転送することができる。
本開示の方法を実施するためのプログラムコードは、1つ又は複数のプログラミング言語の任意の組み合わせを用いて記述することができる。これらのプログラムコードは、汎用コンピュータ、専用コンピュータ、又は他のプログラマブルデータ処理装置のプロセッサ又はコントローラに提供することにより、プログラムコードがプロセッサ又はコントローラにより実行されると、フローチャート及び/又はブロック図に指定された機能/動作を実行するようにすることができる。プログラムコードは、全てがマシン上で実行されても良く、一部がマシン上で実行されても良く、スタンドアロンパッケージとして一部的にマシン上で実行され且つ一部的にリモートマシン上で実行され、或いは全てがリモートマシン又はサーバ上で実行されても良い。
本開示の文脈では、機械可読媒体は、有形の媒体であって、命令実行システム、装置又はデバイスにより使用され、或いは命令実行システム、装置又はデバイスと合わせて使用されるプログラムを含むか記憶することができる。機械可読媒体は、機械可読信号媒体又は機械可読記憶媒体であってよい。機械可読媒体は、電子的、磁気的、光学的、電磁気的、赤外線的、又は半導体的なシステム、装置又はデバイス、あるいはこれらの任意の適切な組み合わせを含んで良いが、これらに限定されない。機械可読記憶媒体のより具体的な例は、1つ又は複数のラインに基づく電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、携帯型コンパクトディスク読み取り専用メモリ(CD‐ROM)、光学記憶装置、磁気記憶装置、又はこれらの任意の適切な組み合わせを含む。
ユーザとのインタラクションを提供するために、本明細書に記載されたシステム及び技術は、ユーザに情報を表示するための表示装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、ユーザにより入力をコンピュータに提供するキーボード及びポインティングデバイス(例えば、マウス又はトラックボール)と備えるコンピュータ上に実施されてよい。他の種類の装置は、ユーザとのインタラクションを提供するためにも使用され得る。例えば、ユーザに提供されるフィードバックは、任意の形態のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であって良く、ユーザからの入力を任意の形式(音声入力、音声入力、又は触覚入力を含む)で受信して良い。
本明細書に記載されたシステム及び技術は、バックエンド構成要素を含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェア構成要素を含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンド構成要素を含むコンピューティングシステム(例えば、グラフィカルユーザインターフェースもしくはウェブブラウザを有するクライアントコンピュータであり、ユーザは、当該グラフィカルユーザインターフェースもしくは当該ウェブブラウザを通じて本明細書で説明されるシステムと技術の実施形態とインタラクションすることができる)、そのようなバックエンド構成要素、ミドルウェア構成要素、もしくはフロントエンド構成要素の任意の組合せを含むコンピューティングシステムに実施されることが可能である。システムの構成要素は、任意の形態又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によって相互に接続されることが可能である。通信ネットワークの例は、ローカルエリアネットワーク(「LAN」)、ワイド・エリア・ネットワーク(「WAN」)、インターネットワークを含む。
コンピュータシステムは、クライアントとサーバを含み得る。クライアントとサーバは、一般的に互いから遠く離れており、通常は、通信ネットワークを通じてインタラクトする。クライアントとサーバとの関係は、相応するコンピュータ上で実行され、互いにクライアント-サーバの関係を有するコンピュータプログラムによって生じる。サーバはクラウドサーバ、クラウドコンピューティングサーバ又はクラウドホストとも呼ばれ、従来の物理ホストとVPSサービス(「Virtual Private Server」、或いは「VPS」と略称される)において管理が難しく、ビジネスの拡張性が弱いという欠点を解決するクラウドコンピューティングサービスシステムのホスト製品の1つであって良い。サーバは、分散システムのサーバであっても良く、ブロックチェーンを組み合わせたサーバであってもよい。
以上で示された様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除できることを理解されたい。例えば、本出願に説明される各ステップは、並列の順序又は順次的な順序で実施されてもよいし、又は異なる順序で実行されてもよく、本出願で開示された技術案の望ましい結果が達成できる限り、ここで制限されない。
上記の具体的な実施形態は本出願の保護範囲に対する制限を構成しない。設計要件及び他の要因に従って、様々な修正、組み合わせ、部分的組み合わせ及び置換を行うことができることを当業者は理解するべきである。本出願の精神及び原則の範囲内で行われる修正、同等の置換、改善は、何れも本出願の保護範囲内に含まれるべきである。

Claims (11)

  1. コンピューターで実行される要約生成モデルの訓練方法であって、
    文書サンプルに対応する文書表現を取得することと、
    前記文書表現に基づいて、前記文書表現に対応する、ポジティブ要約表現とネガティブ要約表現とを含む要約表現を構築することと、
    前記文書表現と、前記ポジティブ要約表現と、前記ネガティブ要約表現とに基づいて、総比較損失関数を構築し、前記総比較損失関数に基づいて要約生成モデルを訓練することと、をみ、
    前記要約生成モデルはエンコーダとデコーダとを備え、
    前記文書サンプルに対応する文書表現を取得することは、
    前記エンコーダを使用して前記文書サンプルを処理して符号化表現を取得し、前記デコーダを使用して前記符号化表現を処理して復号化表現を取得し、
    前記符号化表現及び/又は前記復号化表現を前記文書表現とする、
    ことを含み、
    前記文書表現は前記符号化表現と前記復号化表現とを含み、
    前記文書表現と、前記ポジティブ要約表現と、前記ネガティブ要約表現とに基づいて総比較損失関数を構築することは、
    前記符号化表現、前記ポジティブ要約表現、及び前記ネガティブ要約表現に基づいて、第1比較損失関数を構築し、
    前記復号化表現、前記ポジティブ要約表現、及び前記ネガティブ要約表現に基づいて、第2比較損失関数を構築し、
    前記第1比較損失関数及び前記第2比較損失関数に基づいて、総比較損失関数を構築する、ことを含む、
    要約生成モデルの訓練方法。
  2. 前記文書表現は前記復号化表現を含み、
    前記文書表現に基づいて前記文書表現に対応するポジティブ要約表現とネガティブ要約表現とを含む要約表現を構築することは、
    前記復号化表現に対応する生成テキストを取得し、
    前記生成テキストに基づいてポジティブ要約サンプル及びネガティブ要約サンプルを構築し、
    前記ポジティブ要約サンプルに対応するポジティブ要約表現、及び、前記ネガティブ要約サンプルに対応するネガティブ要約表現を取得する、
    ことを含む請求項に記載の要約生成モデルの訓練方法。
  3. 前記生成テキストに基づいてポジティブ要約サンプルを構築することは、
    前記生成テキストをループバック翻訳してループバック翻訳結果を取得し、前記ループバック翻訳結果を前記ポジティブ要約サンプルとする、
    ことを含む請求項に記載の要約生成モデルの訓練方法。
  4. 前記生成テキストに基づいてネガティブ要約サンプルを構築することは、
    前記生成テキストにエンティティ置換を行ってエンティティ置換結果を取得し、前記エンティティ置換結果を前記ネガティブ要約サンプルとすること、
    前記生成テキストに代名詞置換を行って代名詞置換結果を取得し、前記代名詞置換結果を前記ネガティブ要約サンプルとすること、
    前記生成テキストに感情置換を行って感情置換結果を取得し、前記感情置換結果を前記ネガティブ要約サンプルとすること、
    前記生成テキストの類似テキストを取得し、前記類似テキストを前記ネガティブ要約サンプルとすること、及び
    前記生成テキストに仮想的な対抗訓練を行って仮想的な対抗結果を取得し、前記仮想的な対抗結果を前記ネガティブ要約サンプルとすること、
    のうちの少なくとも1つを含む請求項またはに記載の要約生成モデルの訓練方法。
  5. 要約生成モデルの訓練装置であって、
    文書サンプルに対応する文書表現を取得する取得モジュールと、
    前記文書表現に基づいて、前記文書表現に対応する、ポジティブ要約表現とネガティブ要約表現とを含む要約表現を構築する構築モジュールと、
    前記文書表現と、前記ポジティブ要約表現と、前記ネガティブ要約表現とに基づいて、総比較損失関数を構築し、前記総比較損失関数に基づいて要約生成モデルを訓練する訓練モジュールと、を備え
    前記要約生成モデルはエンコーダ及びデコーダを備え、
    前記取得モジュールは、
    前記エンコーダを使用して前記文書サンプルを処理して符号化表現を取得し、
    前記デコーダを使用して前記符号化表現を処理して復号化表現を取得し、
    前記符号化表現及び/又は前記復号化表現を前記文書表現とし、
    前記文書表現は前記符号化表現と前記復号化表現とを含み、
    前記訓練モジュールは、
    前記符号化表現、前記ポジティブ要約表現、及び前記ネガティブ要約表現に基づいて、第1比較損失関数を構築し、
    前記復号化表現、前記ポジティブ要約表現、及び前記ネガティブ要約表現に基づいて、第2比較損失関数を構築し、
    前記第1比較損失関数と前記第2比較損失関数とに基づいて、総比較損失関数を構築する、
    要約生成モデルの訓練装置。
  6. 前記文書表現は前記復号化表現を含み、
    前記構築モジュールは、
    前記復号化表現に対応する生成テキストを取得し、
    前記生成テキストに基づいて、ポジティブ要約サンプル及びネガティブ要約サンプルを構築し、
    前記ポジティブ要約サンプルに対応するポジティブ要約表現、及び、前記ネガティブ要約サンプルに対応するネガティブ要約表現を取得する、
    請求項に記載の要約生成モデルの訓練装置。
  7. 前記構築モジュールは、
    前記生成テキストをループバック翻訳してループバック翻訳結果を取得し、前記ループバック翻訳結果を前記ポジティブ要約サンプルとする、
    請求項に記載の要約生成モデルの訓練装置。
  8. 前記構築モジュールは、
    前記生成テキストにエンティティ置換を行ってエンティティ置換結果を取得し、前記エンティティ置換結果を前記ネガティブ要約サンプルとすること、
    前記生成テキストに代名詞置換を行って代名詞置換結果を取得し、前記代名詞置換結果を前記ネガティブ要約サンプルとすること、
    前記生成テキストに感情置換を行って感情置換結果を取得し、前記感情置換結果を前記ネガティブ要約サンプルとすること、
    前記生成テキストの類似テキストを取得し、前記類似テキストを前記ネガティブ要約サンプルとすること、及び
    前記生成テキストに仮想的な対抗訓練を行って仮想的な対抗結果を取得し、前記仮想的な対抗結果を前記ネガティブ要約サンプルとすること、
    のうちの少なくとも1つを実行する請求項またはに記載の要約生成モデルの訓練装置。
  9. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサと通信可能に接続されたメモリとを備え、
    前記メモリに前記少なくとも1つのプロセッサにより実行可能なプログラムが記憶されており、前記プログラムが前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに請求項1からのいずれか1項に記載の要約生成モデルの訓練方法を実行させる電子デバイス。
  10. コンピュータに請求項1からのいずれか1項に記載の要約生成モデルの訓練方法を実行させるためのコンピュータプログラムを記憶する非一時的なコンピュータ可読記憶媒体。
  11. プロセッサに請求項1からのいずれか1項に記載の要約生成モデルの訓練方法を実行させるためのコンピュータプログラム。
JP2022033961A 2021-06-30 2022-03-04 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体 Active JP7413630B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110734020.1A CN113408272B (zh) 2021-06-30 2021-06-30 摘要生成模型的训练方法、装置、设备和存储介质
CN202110734020.1 2021-06-30

Publications (2)

Publication Number Publication Date
JP2023007372A JP2023007372A (ja) 2023-01-18
JP7413630B2 true JP7413630B2 (ja) 2024-01-16

Family

ID=77680414

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022033961A Active JP7413630B2 (ja) 2021-06-30 2022-03-04 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体

Country Status (3)

Country Link
US (1) US12093297B2 (ja)
JP (1) JP7413630B2 (ja)
CN (1) CN113408272B (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3971732A1 (en) * 2020-09-16 2022-03-23 L & T Technology Services Limited Method and system for performing summarization of text
US11620320B1 (en) * 2021-10-13 2023-04-04 Dell Products L.P. Document summarization through iterative filtering of unstructured text data of documents
CN114625866A (zh) * 2022-03-11 2022-06-14 腾讯科技(深圳)有限公司 训练摘要生成模型的方法、装置、设备及介质
CN114997164A (zh) * 2022-05-31 2022-09-02 北京深言科技有限责任公司 文本生成方法及装置
US20230419017A1 (en) * 2022-06-24 2023-12-28 Salesforce, Inc. Systems and methods for text summarization
CN115374884B (zh) * 2022-10-26 2023-01-31 北京智源人工智能研究院 基于对比学习的摘要生成模型的训练方法和摘要生成方法
CN117332098A (zh) * 2023-10-24 2024-01-02 深圳市金大智能创新科技有限公司 一种基于交互式虚拟助手的内容生成方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019057023A (ja) 2017-09-20 2019-04-11 ヤフー株式会社 生成装置、学習装置、生成方法、学習方法、生成プログラム、学習プログラム、及びモデル
JP2019083002A (ja) 2017-10-27 2019-05-30 アドビ インコーポレイテッド トリプレット損失ニューラル・ネットワーク・トレーニングを使用するフォント認識の改善

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190287012A1 (en) * 2018-03-16 2019-09-19 Microsoft Technology Licensing, Llc Encoder-decoder network with intercommunicating encoder agents
CN108763211B (zh) * 2018-05-23 2020-07-31 中国科学院自动化研究所 融合蕴含知识的自动文摘方法及系统
CN109657051A (zh) * 2018-11-30 2019-04-19 平安科技(深圳)有限公司 文本摘要生成方法、装置、计算机设备及存储介质
US20200272791A1 (en) * 2019-02-26 2020-08-27 Conversica, Inc. Systems and methods for automated conversations with a transactional assistant
US11138378B2 (en) * 2019-02-28 2021-10-05 Qualtrics, Llc Intelligently summarizing and presenting textual responses with machine learning
CN111651996B (zh) * 2019-03-04 2023-12-08 北京嘀嘀无限科技发展有限公司 摘要生成方法、装置、电子设备及存储介质
CN110347819A (zh) * 2019-06-21 2019-10-18 同济大学 一种基于正负样本对抗训练的文本摘要生成方法
CN110427618B (zh) * 2019-07-22 2021-03-16 清华大学 对抗样本生成方法、介质、装置和计算设备
FR3102276A1 (fr) * 2019-10-17 2021-04-23 Amadeus Procedes et systemes pour résumer des document multiples en utilisant une approche d’apprentissage automatique
CN111597327B (zh) * 2020-04-22 2023-04-07 哈尔滨工业大学 一种面向舆情分析的无监督式多文档文摘生成方法
EP3905142A1 (en) * 2020-04-30 2021-11-03 Naver Corporation Abstractive multi-document summarization through self-supervision and control
US11347947B2 (en) * 2020-07-24 2022-05-31 Intuit Inc. Encoder with double decoder machine learning models
CN112560479B (zh) * 2020-12-24 2024-01-12 北京百度网讯科技有限公司 摘要抽取模型训练方法、摘要抽取方法、装置和电子设备
CN112836525B (zh) * 2021-01-13 2023-08-18 江苏金陵科技集团有限公司 一种基于人机交互机器翻译系统及其自动优化方法
CN112732902A (zh) * 2021-01-31 2021-04-30 云知声智能科技股份有限公司 跨语言摘要的生成方法、装置、电子设备及计算机可读介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019057023A (ja) 2017-09-20 2019-04-11 ヤフー株式会社 生成装置、学習装置、生成方法、学習方法、生成プログラム、学習プログラム、及びモデル
JP2019083002A (ja) 2017-10-27 2019-05-30 アドビ インコーポレイテッド トリプレット損失ニューラル・ネットワーク・トレーニングを使用するフォント認識の改善

Also Published As

Publication number Publication date
CN113408272A (zh) 2021-09-17
US12093297B2 (en) 2024-09-17
JP2023007372A (ja) 2023-01-18
US20230004589A1 (en) 2023-01-05
CN113408272B (zh) 2023-08-18

Similar Documents

Publication Publication Date Title
JP7413630B2 (ja) 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体
JP7366984B2 (ja) テキスト誤り訂正処理方法、装置、電子機器及び記憶媒体
US20230142217A1 (en) Model Training Method, Electronic Device, And Storage Medium
US8694303B2 (en) Systems and methods for tuning parameters in statistical machine translation
US20210312139A1 (en) Method and apparatus of generating semantic feature, method and apparatus of training model, electronic device, and storage medium
US20190251165A1 (en) Conversational agent
JP7358698B2 (ja) 語義表現モデルの訓練方法、装置、デバイス及び記憶媒体
US10789431B2 (en) Method and system of translating a source sentence in a first language into a target sentence in a second language
US20220318275A1 (en) Search method, electronic device and storage medium
KR102554758B1 (ko) 기계 번역에서 모델 트레이닝 방법, 장치, 전자 기기 및 기록 매체
JP7335300B2 (ja) 知識事前訓練モデルの訓練方法、装置及び電子機器
US11907671B2 (en) Role labeling method, electronic device and storage medium
JP7395553B2 (ja) 文章翻訳方法、装置、電子機器及び記憶媒体
JP7552000B2 (ja) マルチモーダル表現モデルのトレーニング方法、クロスモーダル検索方法及び装置
JP2023025126A (ja) 深層学習モデルのトレーニング方法及び装置、テキストデータ処理方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム
JP2023002690A (ja) セマンティックス認識方法、装置、電子機器及び記憶媒体
KR102608867B1 (ko) 업계 텍스트를 증분하는 방법, 관련 장치 및 매체에 저장된 컴퓨터 프로그램
US20150205788A1 (en) Machine translation apparatus, translation method, and translation system
KR102531507B1 (ko) 정보 출력 방법, 장치, 기기 및 저장 매체
AU2020343670B2 (en) Automatic preprocessing for black box translation
JP7520085B2 (ja) テキスト誤り訂正とテキスト誤り訂正モデルの生成方法、装置、機器及び媒体
US20230153550A1 (en) Machine Translation Method and Apparatus, Device and Storage Medium
JP2023078411A (ja) 情報処理方法、モデルトレーニング方法、装置、機器、媒体及びプログラム製品
US9146918B2 (en) Compressing data for natural language processing
JP2023162104A (ja) 機械翻訳方法、装置、デバイス及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231204

R150 Certificate of patent or registration of utility model

Ref document number: 7413630

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150