JP7059326B2 - 情報処理方法、装置及び記憶媒体 - Google Patents
情報処理方法、装置及び記憶媒体 Download PDFInfo
- Publication number
- JP7059326B2 JP7059326B2 JP2020130420A JP2020130420A JP7059326B2 JP 7059326 B2 JP7059326 B2 JP 7059326B2 JP 2020130420 A JP2020130420 A JP 2020130420A JP 2020130420 A JP2020130420 A JP 2020130420A JP 7059326 B2 JP7059326 B2 JP 7059326B2
- Authority
- JP
- Japan
- Prior art keywords
- feature vector
- word
- corpus data
- character
- vector sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
- G06F16/355—Class or cluster creation or modification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3347—Query execution using vector based model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Description
本願は、2020年01月19日に提出した中国特許出願第2020100592033号の優先権を主張し、ここで、該中国特許出願の全内容が援用により本願に組み込まれる。
第1コーパスデータに対して単語分離処理を行って、少なくとも1つの単語を含む第2コーパスデータを取得することと、
第1事前訓練モデルに基づいて前記第2コーパスデータに含まれる前記少なくとも1つの単語を処理して、前記第2コーパスデータに対応する第1特徴ベクトルシーケンスを取得することと、
第2事前訓練モデルに基づいて前記第1コーパスデータに含まれる文字を処理して、前記第1コーパスデータに対応する第2特徴ベクトルシーケンスを取得することと、
前記第1特徴ベクトルシーケンス及び前記第2特徴ベクトルシーケンスに基づき、ターゲット特徴ベクトルを取得することと、を含む。
畳み込みニューラルネットワークモデルに基づいて前記第1特徴ベクトルシーケンスを処理して、前記第1特徴ベクトルシーケンスから第1特徴ベクトルを抽出することと、
長期短期記憶モデルに基づいて前記第1特徴ベクトルシーケンスを処理して、前記第1特徴ベクトルシーケンスから第2特徴ベクトルを抽出することと、
前記第2事前訓練モデルに基づいて前記第2特徴ベクトルシーケンスを処理して、前記第2特徴ベクトルシーケンスから第3特徴ベクトルを抽出することと、
前記第1特徴ベクトル、前記第2特徴ベクトル及び前記第3特徴ベクトルに基づき、スプライシング処理によってターゲット特徴ベクトルを取得することと、を含む。
前記第1特徴ベクトルの末端に前記第2特徴ベクトルをスプライシングして、スプライシング後の第2特徴ベクトルの末端に前記第3特徴ベクトルをスプライシングして、スプライシング後の特徴ベクトルを取得することと、
前記スプライシング後の特徴ベクトルを次元削減処理して、前記ターゲット特徴ベクトルを取得することと、を含む。
前記第2コーパスデータに含まれる各前記単語の単語識別子を決定することと、
各前記単語の単語識別子に基づいて前記第1事前訓練モデルの設定単語ベクトルマッピングテーブルをクエリし、前記設定単語ベクトルマッピングテーブルから各前記単語の特徴ベクトルを決定することであって、前記設定単語ベクトルマッピングテーブルに各前記単語の単語識別子と各前記特徴ベクトルとのマッピング関係が含まれることと、
決定された各前記単語の特徴ベクトルを第1設定順序通りに配列して、前記第1特徴ベクトルシーケンスを取得することと、を含む。
前記第1コーパスデータに含まれる各前記文字の文字識別子を決定することと、
前記第2事前訓練モデルが前記第1コーパスデータにおける各前記文字のコンテクストを分析して、分析結果を取得することと、
前記分析結果及び前記文字の文字識別子に基づき、前記第2事前訓練モデルの設定文字ベクトルマッピングテーブルをクエリし、前記設定単語ベクトルマッピングテーブルから各前記文字の特徴ベクトルを決定することであって、前記設定文字ベクトルマッピングテーブルに各前記文字の文字識別子と各前記特徴ベクトルとのマッピング関係が含まれることと、
決定された各前記文字の特徴ベクトルを第2設定順序通りに配列して、前記第2特徴ベクトルシーケンスを取得することと、を含む。
設定分類モデルに基づいて前記ターゲット特徴ベクトルを分類処理して、分類結果を取得することを含む。
第1コーパスデータに対して単語分離処理を行って、少なくとも1つの単語を含む第2コーパスデータを取得するように構成される第1処理モジュールと、
第1事前訓練モデルに基づいて前記第2コーパスデータに含まれる前記少なくとも1つの単語を処理して、前記第2コーパスデータに対応する第1特徴ベクトルシーケンスを取得するように構成される第2処理モジュールと、
第2事前訓練モデルに基づいて前記第1コーパスデータに含まれる文字を処理して、前記第1コーパスデータに対応する第2特徴ベクトルシーケンスを取得するように構成される第3処理モジュールと、
前記第1特徴ベクトルシーケンス及び前記第2特徴ベクトルシーケンスに基づき、ターゲット特徴ベクトルを取得するように構成される取得モジュールと、を備える。
畳み込みニューラルネットワークモデルに基づいて前記第1特徴ベクトルシーケンスを処理して、前記第1特徴ベクトルシーケンスから第1特徴ベクトルを抽出し、
長期短期記憶モデルに基づいて前記第1特徴ベクトルシーケンスを処理して、前記第1特徴ベクトルシーケンスから第2特徴ベクトルを抽出し、
前記第2事前訓練モデルに基づいて前記第2特徴ベクトルシーケンスを処理して、前記第2特徴ベクトルシーケンスから第3特徴ベクトルを抽出し、
前記第1特徴ベクトル、前記第2特徴ベクトル及び前記第3特徴ベクトルに基づき、スプライシング処理によってターゲット特徴ベクトルを取得するように構成される。
前記第1特徴ベクトルの末端に前記第2特徴ベクトルをスプライシングして、スプライシング後の第2特徴ベクトルの末端に前記第3特徴ベクトルをスプライシングして、スプライシング後の特徴ベクトルを取得し、
前記スプライシング後の特徴ベクトルを次元削減処理して、前記ターゲット特徴ベクトルを取得するように構成される。
前記第2コーパスデータに含まれる各前記単語の単語識別子を決定し、
各前記単語の単語識別子に基づいて前記第1事前訓練モデルの設定単語ベクトルマッピングテーブルをクエリし、前記設定単語ベクトルマッピングテーブルから各前記単語の特徴ベクトルを決定し、前記設定単語ベクトルマッピングテーブルに各前記単語の単語識別子と各前記特徴ベクトルとのマッピング関係が含まれており、
決定された各前記単語の特徴ベクトルを第1設定順序通りに配列して、前記第1特徴ベクトルシーケンスを取得するように構成される。
前記第1コーパスデータに含まれる各前記文字の文字識別子を決定し、
前記第2事前訓練モデルが前記第1コーパスデータにおける各前記文字のコンテクストを分析して、分析結果を取得し、
前記分析結果及び前記文字の文字識別子に基づき、前記第2事前訓練モデルの設定文字ベクトルマッピングテーブルをクエリし、前記設定単語ベクトルマッピングテーブルから各前記文字の特徴ベクトルを決定し、前記設定文字ベクトルマッピングテーブルに各前記文字の文字識別子と各前記特徴ベクトルとのマッピング関係が含まれており、
決定された各前記文字の特徴ベクトルを第2設定順序通りに配列して、前記第2特徴ベクトルシーケンスを取得するように構成される。
設定分類モデルに基づいて前記ターゲット特徴ベクトルを分類処理して、分類結果を取得するように構成される分類モジュールを備える。
プロセッサと、
プロセッサ実行可能命令を記憶するように構成されるメモリと、を備え、
前記プロセッサは実行時に上記第1態様における情報処理方法のステップを実現するように構成される。
(項目1)
情報処理方法であって、
第1コーパスデータに対して単語分離処理を行って、少なくとも1つの単語を含む第2コーパスデータを取得することと、
第1事前訓練モデルに基づいて上記第2コーパスデータに含まれる上記少なくとも1つの単語を処理して、上記第2コーパスデータに対応する第1特徴ベクトルシーケンスを取得することと、
第2事前訓練モデルに基づいて上記第1コーパスデータに含まれる文字を処理して、上記第1コーパスデータに対応する第2特徴ベクトルシーケンスを取得することと、
上記第1特徴ベクトルシーケンス及び上記第2特徴ベクトルシーケンスに基づき、ターゲット特徴ベクトルを取得することと、を含むことを特徴とする、上記情報処理方法。
(項目2)
上記第1特徴ベクトルシーケンス及び上記第2特徴ベクトルシーケンスにそれぞれ少なくとも1つの特徴ベクトルが含まれており、上記第1特徴ベクトルシーケンス及び上記第2特徴ベクトルシーケンスに基づいてターゲット特徴ベクトルを取得することは、
畳み込みニューラルネットワークモデルに基づいて上記第1特徴ベクトルシーケンスを処理して、上記第1特徴ベクトルシーケンスから第1特徴ベクトルを抽出することと、
長期短期記憶モデルに基づいて上記第1特徴ベクトルシーケンスを処理して、上記第1特徴ベクトルシーケンスから第2特徴ベクトルを抽出することと、
上記第2事前訓練モデルに基づいて上記第2特徴ベクトルシーケンスを処理して、上記第2特徴ベクトルシーケンスから第3特徴ベクトルを抽出することと、
上記第1特徴ベクトル、上記第2特徴ベクトル及び上記第3特徴ベクトルに基づき、スプライシング処理によってターゲット特徴ベクトルを取得することと、を含むことを特徴とする
上記項目に記載の方法。
(項目3)
上記第1特徴ベクトル、上記第2特徴ベクトル及び上記第3特徴ベクトルに基づいてスプライシング処理によってターゲット特徴ベクトルを取得することは、
上記第1特徴ベクトルの末端に上記第2特徴ベクトルをスプライシングして、スプライシング後の第2特徴ベクトルの末端に上記第3特徴ベクトルをスプライシングして、スプライシング後の特徴ベクトルを取得することと、
上記スプライシング後の特徴ベクトルを次元削減処理して、上記ターゲット特徴ベクトルを取得することと、を含むことを特徴とする
上記項目のいずれか一項に記載の方法。
(項目4)
上記第2コーパスデータに含まれる単語が単語識別子を有し、第1事前訓練モデルに基づいて上記第2コーパスデータを処理して、上記第2コーパスデータに対応する第1特徴ベクトルシーケンスを取得することは、
上記第2コーパスデータに含まれる各上記単語の単語識別子を決定することと、
各上記単語の単語識別子に基づいて上記第1事前訓練モデルの設定単語ベクトルマッピングテーブルをクエリし、上記設定単語ベクトルマッピングテーブルから各上記単語の特徴ベクトルを決定することであって、上記設定単語ベクトルマッピングテーブルに各上記単語の単語識別子と各上記特徴ベクトルとのマッピング関係が含まれることと、
決定された各上記単語の特徴ベクトルを第1設定順序通りに配列して、上記第1特徴ベクトルシーケンスを取得することと、を含むことを特徴とする
上記項目のいずれか一項に記載の方法。
(項目5)
上記第1コーパスデータに含まれる文字が文字識別子を有し、第2事前訓練モデルに基づいて上記第1コーパスデータを処理して、上記第1コーパスデータに対応する第2特徴ベクトルシーケンスを取得することは、
上記第1コーパスデータに含まれる各上記文字の文字識別子を決定することと、
上記第2事前訓練モデルが上記第1コーパスデータにおける各上記文字のコンテクストを分析して、分析結果を取得することと、
上記分析結果及び上記文字の文字識別子に基づき、上記第2事前訓練モデルの設定文字ベクトルマッピングテーブルをクエリし、上記設定単語ベクトルマッピングテーブルから各上記文字の特徴ベクトルを決定することであって、上記設定文字ベクトルマッピングテーブルに各上記文字の文字識別子と各上記特徴ベクトルとのマッピング関係が含まれることと、
決定された各上記文字の特徴ベクトルを第2設定順序通りに配列して、上記第2特徴ベクトルシーケンスを取得することと、を含むことを特徴とする
上記項目のいずれか一項に記載の方法。
(項目6)
上記方法は、更に、
設定分類モデルに基づいて上記ターゲット特徴ベクトルを分類処理して、分類結果を取得することを含むことを特徴とする
上記項目のいずれか一項に記載の方法。
(項目7)
情報処理装置であって、
第1コーパスデータに対して単語分離処理を行って、少なくとも1つの単語を含む第2コーパスデータを取得するように構成される第1処理モジュールと、
第1事前訓練モデルに基づいて上記第2コーパスデータに含まれる上記少なくとも1つの単語を処理して、上記第2コーパスデータに対応する第1特徴ベクトルシーケンスを取得するように構成される第2処理モジュールと、
第2事前訓練モデルに基づいて上記第1コーパスデータに含まれる文字を処理して、上記第1コーパスデータに対応する第2特徴ベクトルシーケンスを取得するように構成される第3処理モジュールと、
上記第1特徴ベクトルシーケンス及び上記第2特徴ベクトルシーケンスに基づき、ターゲット特徴ベクトルを取得するように構成される取得モジュールと、を備えることを特徴とする、上記情報処理装置。
(項目8)
上記第1特徴ベクトルシーケンス及び上記第2特徴ベクトルシーケンスにそれぞれ少なくとも1つの特徴ベクトルが含まれており、上記取得モジュールは、更に、
畳み込みニューラルネットワークモデルに基づいて上記第1特徴ベクトルシーケンスを処理して、上記第1特徴ベクトルシーケンスから第1特徴ベクトルを抽出し、
長期短期記憶モデルに基づいて上記第1特徴ベクトルシーケンスを処理して、上記第1特徴ベクトルシーケンスから第2特徴ベクトルを抽出し、
上記第2事前訓練モデルに基づいて上記第2特徴ベクトルシーケンスを処理して、上記第2特徴ベクトルシーケンスから第3特徴ベクトルを抽出し、
上記第1特徴ベクトル、上記第2特徴ベクトル及び上記第3特徴ベクトルに基づき、スプライシング処理によってターゲット特徴ベクトルを取得するように構成されることを特徴とする
上記項目に記載の装置。
(項目9)
上記取得モジュールは、更に、
上記第1特徴ベクトルの末端に上記第2特徴ベクトルをスプライシングして、スプライシング後の第2特徴ベクトルの末端に上記第3特徴ベクトルをスプライシングして、スプライシング後の特徴ベクトルを取得し、
上記スプライシング後の特徴ベクトルを次元削減処理して、上記ターゲット特徴ベクトルを取得するように構成されることを特徴とする
上記項目のいずれか一項に記載の装置。
(項目10)
上記第2処理モジュールは、更に、
上記第2コーパスデータに含まれる各上記単語の単語識別子を決定し、
各上記単語の単語識別子に基づいて上記第1事前訓練モデルの設定単語ベクトルマッピングテーブルをクエリし、上記設定単語ベクトルマッピングテーブルから各上記単語の特徴ベクトルを決定し、上記設定単語ベクトルマッピングテーブルに各上記単語の単語識別子と各上記特徴ベクトルとのマッピング関係が含まれており、
決定された各上記単語の特徴ベクトルを第1設定順序通りに配列して、上記第1特徴ベクトルシーケンスを取得するように構成されることを特徴とする
上記項目のいずれか一項に記載の装置。
(項目11)
上記第3処理モジュールは、更に、
上記第1コーパスデータに含まれる各上記文字の文字識別子を決定し、
上記第2事前訓練モデルが上記第1コーパスデータにおける各上記文字のコンテクストを分析して、分析結果を取得し、
上記分析結果及び上記文字の文字識別子に基づき、上記第2事前訓練モデルの設定文字ベクトルマッピングテーブルをクエリし、上記設定単語ベクトルマッピングテーブルから各上記文字の特徴ベクトルを決定し、上記設定文字ベクトルマッピングテーブルに各上記文字の文字識別子と各上記特徴ベクトルとのマッピング関係が含まれており、
決定された各上記文字の特徴ベクトルを第2設定順序通りに配列して、上記第2特徴ベクトルシーケンスを取得するように構成されることを特徴とする
上記項目のいずれか一項に記載の装置。
(項目12)
上記装置は、更に、
設定分類モデルに基づいて上記ターゲット特徴ベクトルを分類処理して、分類結果を取得するように構成される分類モジュールを備えることを特徴とする
上記項目のいずれか一項に記載の装置。
(項目13)
情報処理装置であって、
プロセッサと、
プロセッサ実行可能命令を記憶するように構成されるメモリと、を備え、
上記プロセッサは実行時に上記項目のいずれか一項に記載の情報処理方法のステップを実現するように構成されることを特徴とする、上記情報処理装置。
(項目14)
非一時的コンピュータ可読記憶媒体であって、
上記記憶媒体における命令が情報処理装置のプロセッサにより実行されるとき、上記装置が上記項目のいずれか一項に記載の情報処理方法を実行することを可能にする、上記非一時的コンピュータ可読記憶媒体。
(項目15)
記憶媒体に記憶されるコンピュータプログラムであって、
情報処理装置のプロセッサにより実行される時に、上記コンピュータプログラムは上記項目のいずれか一項に記載の情報処理方法を実行できる、上記コンピュータプログラム。
本開示は情報処理方法、装置及び記憶媒体に関し、該方法は、第1コーパスデータに対して単語分離処理を行って、少なくとも1つの単語を含む第2コーパスデータを取得することと、第1事前訓練モデルに基づいて前記第2コーパスデータに含まれる前記少なくとも1つの単語を処理して、前記第2コーパスデータに対応する第1特徴ベクトルシーケンスを取得することと、第2事前訓練モデルに基づいて前記第1コーパスデータに含まれる文字を処理して、前記第1コーパスデータに対応する第2特徴ベクトルシーケンスを取得することと、前記第1特徴ベクトルシーケンス及び前記第2特徴ベクトルシーケンスに基づき、ターゲット特徴ベクトルを取得することと、を含む。
第1コーパスデータに対して単語分離処理を行って、少なくとも1つの単語を含む第2コーパスデータを取得するステップ101と、
第1事前訓練モデルに基づいて第2コーパスデータに含まれる前記少なくとも1つの単語を処理して、第2コーパスデータに対応する第1特徴ベクトルシーケンスを取得するステップ102と、
第2事前訓練モデルに基づいて第1コーパスデータに含まれる文字を処理して、第1コーパスデータに対応する第2特徴ベクトルシーケンスを取得するステップ103と、
第1特徴ベクトルシーケンス及び第2特徴ベクトルシーケンスに基づき、ターゲット特徴ベクトルを取得するステップ104と、を含む。
畳み込みニューラルネットワークモデルに基づいて第1特徴ベクトルシーケンスを処理し、第1特徴ベクトルシーケンスから第1特徴ベクトルを抽出することと、
長期短期記憶モデルに基づいて第1特徴ベクトルシーケンスを処理し、第1特徴ベクトルシーケンスから第2特徴ベクトルを抽出することと、
第2事前訓練モデルに基づいて第2特徴ベクトルシーケンスを処理し、第2特徴ベクトルシーケンスから第3特徴ベクトルを抽出することと、
第1特徴ベクトル、第2特徴ベクトル及び第3特徴ベクトルに基づき、ターゲット特徴ベクトルを取得することと、を含む。
第1特徴ベクトルの末端に前記第2特徴ベクトルをスプライシングして、スプライシング後の第2特徴ベクトルの末端に第3特徴ベクトルをスプライシングして、スプライシング後の特徴ベクトルを取得することと、
スプライシング後の特徴ベクトルを次元削減処理して、ターゲット特徴ベクトルを取得することと、を含む。
ここで、Wが変換マトリックスであり、Xがスプライシング後の特徴ベクトルであり、X′がターゲット特徴ベクトルであり、変換マトリックスWがd′個のd次元ベクトルであると見なされてもよい。
第2コーパスデータに含まれる各単語の単語識別子を決定することと、
各単語の単語識別子に基づいて第1事前訓練モデルの設定単語ベクトルマッピングテーブルをクエリし、設定単語ベクトルマッピングテーブルから各単語の特徴ベクトルを決定し、設定単語ベクトルマッピングテーブルに各単語の単語識別子と各特徴ベクトルとのマッピング関係が含まれることと、
決定された各単語の特徴ベクトルを第1設定順序通りに配列して、第1特徴ベクトルシーケンスを取得することと、を含む。
第1コーパスデータに含まれる各文字の文字識別子を決定することと、
第2事前訓練モデルが第1コーパスデータにおける各文字のコンテクストを分析して、分析結果を取得することと、
分析結果及び文字の文字識別子に基づき、第2事前訓練モデルの設定文字ベクトルマッピングテーブルをクエリし、設定単語ベクトルマッピングテーブルから各文字の特徴ベクトルを決定し、設定文字ベクトルマッピングテーブルに各文字の文字識別子と各特徴ベクトルとのマッピング関係が含まれることと、
決定された各文字の特徴ベクトルを第2設定順序通りに配列して、第2特徴ベクトルシーケンスを取得することと、を含む。
設定分類モデルに基づいてターゲット特徴ベクトルを分類処理して、分類結果を取得することを含む。
第1コーパスデータに対して単語分離処理を行って、少なくとも1つの単語を含む第2コーパスデータを取得するように構成される第1処理モジュール401と、
第1事前訓練モデルに基づいて第2コーパスデータに含まれる前記少なくとも1つの単語を処理して、第2コーパスデータに対応する第1特徴ベクトルシーケンスを取得するように構成される第2処理モジュール402と、
第2事前訓練モデルに基づいて第1コーパスデータに含まれる文字を処理して、第1コーパスデータに対応する第2特徴ベクトルシーケンスを取得するように構成される第3処理モジュール403と、
第1特徴ベクトルシーケンス及び第2特徴ベクトルシーケンスに基づき、ターゲット特徴ベクトルを取得するように構成される取得モジュール404と、を備える。
畳み込みニューラルネットワークモデルに基づいて第1特徴ベクトルシーケンスを処理して、第1特徴ベクトルシーケンスから第1特徴ベクトルを抽出し、
長期短期記憶モデルに基づいて第1特徴ベクトルシーケンスを処理して、第1特徴ベクトルシーケンスから第2特徴ベクトルを抽出し、
第2事前訓練モデルに基づいて第2特徴ベクトルシーケンスを処理して、第2特徴ベクトルシーケンスから第3特徴ベクトルを抽出し、
第1特徴ベクトル、第2特徴ベクトル及び第3特徴ベクトルに基づき、スプライシング処理によってターゲット特徴ベクトルを取得するように構成される。
第1特徴ベクトルの末端に前記第2特徴ベクトルをスプライシングして、スプライシング後の第2特徴ベクトルの末端に第3特徴ベクトルをスプライシングして、スプライシング後の特徴ベクトルを取得し、
スプライシング後の特徴ベクトルを次元削減処理して、ターゲット特徴ベクトルを取得するように構成される。
第2コーパスデータに含まれる各単語の単語識別子を決定し、
各単語の単語識別子に基づいて第1事前訓練モデルの設定単語ベクトルマッピングテーブルをクエリし、設定単語ベクトルマッピングテーブルから各単語の特徴ベクトルを決定し、設定単語ベクトルマッピングテーブルに各単語の単語識別子と各特徴ベクトルとのマッピング関係が含まれており、
決定された各単語の特徴ベクトルを第1設定順序通りに配列して、第1特徴ベクトルシーケンスを取得するように構成される。
第1コーパスデータに含まれる各文字の文字識別子を決定し、
第2事前訓練モデルが第1コーパスデータにおける各文字のコンテクストを分析して、分析結果を取得し、
分析結果及び文字の文字識別子に基づき、第2事前訓練モデルの設定文字ベクトルマッピングテーブルをクエリし、設定単語ベクトルマッピングテーブルから各文字の特徴ベクトルを決定し、設定文字ベクトルマッピングテーブルに各文字の文字識別子と各特徴ベクトルとのマッピング関係が含まれており、
決定された各文字の特徴ベクトルを第2設定順序通りに配列して、第2特徴ベクトルシーケンスを取得するように構成される。
設定分類モデルに基づいてターゲット特徴ベクトルを分類処理して、分類結果を取得するように構成される分類モジュールを備える。
第1コーパスデータに対して単語分離処理を行って、単語で示される第2コーパスデータを取得することと、
第1事前訓練モデルに基づいて前記第2コーパスデータに含まれる単語を処理して、前記第2コーパスデータに対応する第1特徴ベクトルシーケンスを取得することと、
第2事前訓練モデルに基づいて前記第1コーパスデータに含まれる文字を処理して、前記第1コーパスデータに対応する第2特徴ベクトルシーケンスを取得することと、
前記第1特徴ベクトルシーケンス及び前記第2特徴ベクトルシーケンスに基づき、ターゲット特徴ベクトルを取得することと、を含む。
第1コーパスデータに対して単語分離処理を行って、単語で示される第2コーパスデータを取得することと、
第1事前訓練モデルに基づいて前記第2コーパスデータに含まれる単語を処理して、前記第2コーパスデータに対応する第1特徴ベクトルシーケンスを取得することと、
第2事前訓練モデルに基づいて前記第1コーパスデータに含まれる文字を処理して、前記第1コーパスデータに対応する第2特徴ベクトルシーケンスを取得することと、
前記第1特徴ベクトルシーケンス及び前記第2特徴ベクトルシーケンスに基づき、ターゲット特徴ベクトルを取得することと、を含む。
Claims (13)
- 情報処理方法であって、前記情報処理方法は、
第1コーパスデータに対して単語分離処理を行って、少なくとも1つの単語を含む第2コーパスデータを取得することと、
第1事前訓練モデルに基づいて前記第2コーパスデータに含まれる前記少なくとも1つの単語を処理して、前記第2コーパスデータに対応する第1特徴ベクトルシーケンスを取得することと、
第2事前訓練モデルに基づいて前記第1コーパスデータに含まれる文字を処理して、前記第1コーパスデータに対応する第2特徴ベクトルシーケンスを取得することと、
前記第1特徴ベクトルシーケンス及び前記第2特徴ベクトルシーケンスに基づき、ターゲット特徴ベクトルを取得することと
を含み、
前記第1特徴ベクトルシーケンス及び前記第2特徴ベクトルシーケンスにそれぞれ少なくとも1つの特徴ベクトルが含まれており、前記第1特徴ベクトルシーケンス及び前記第2特徴ベクトルシーケンスに基づいてターゲット特徴ベクトルを取得することは、
畳み込みニューラルネットワークモデルに基づいて前記第1特徴ベクトルシーケンスを処理して、前記第1特徴ベクトルシーケンスから第1特徴ベクトルを抽出することと、
長期短期記憶モデルに基づいて前記第1特徴ベクトルシーケンスを処理して、前記第1特徴ベクトルシーケンスから第2特徴ベクトルを抽出することと、
前記第2事前訓練モデルに基づいて前記第2特徴ベクトルシーケンスを処理して、前記第2特徴ベクトルシーケンスから第3特徴ベクトルを抽出することと、
前記第1特徴ベクトル、前記第2特徴ベクトル及び前記第3特徴ベクトルに基づき、スプライシング処理によってターゲット特徴ベクトルを取得することと
を含む、情報処理方法。 - 前記第1特徴ベクトル、前記第2特徴ベクトル及び前記第3特徴ベクトルに基づいてスプライシング処理によってターゲット特徴ベクトルを取得することは、
前記第1特徴ベクトルの末端に前記第2特徴ベクトルをスプライシングして、スプライシング後の第2特徴ベクトルの末端に前記第3特徴ベクトルをスプライシングして、スプライシング後の特徴ベクトルを取得することと、
前記スプライシング後の特徴ベクトルを次元削減処理して、前記ターゲット特徴ベクトルを取得することと
を含む、請求項1に記載の方法。 - 前記第2コーパスデータに含まれる単語が単語識別子を有し、第1事前訓練モデルに基づいて前記第2コーパスデータを処理して、前記第2コーパスデータに対応する第1特徴ベクトルシーケンスを取得することは、
前記第2コーパスデータに含まれる各前記単語の単語識別子を決定することと、
各前記単語の単語識別子に基づいて前記第1事前訓練モデルの設定単語ベクトルマッピングテーブルをクエリし、前記設定単語ベクトルマッピングテーブルから各前記単語の特徴ベクトルを決定することであって、前記設定単語ベクトルマッピングテーブルに各前記単語の単語識別子と各前記特徴ベクトルとのマッピング関係が含まれている、ことと、
決定された各前記単語の特徴ベクトルを第1設定順序通りに配列して、前記第1特徴ベクトルシーケンスを取得することと
を含む、請求項1に記載の方法。 - 前記第1コーパスデータに含まれる文字が文字識別子を有し、第2事前訓練モデルに基づいて前記第1コーパスデータを処理して、前記第1コーパスデータに対応する第2特徴ベクトルシーケンスを取得することは、
前記第1コーパスデータに含まれる各前記文字の文字識別子を決定することと、
前記第2事前訓練モデルが前記第1コーパスデータにおける各前記文字のコンテクストを分析して、分析結果を取得することと、
前記分析結果及び前記文字の文字識別子に基づき、前記第2事前訓練モデルの設定文字ベクトルマッピングテーブルをクエリし、前記設定単語ベクトルマッピングテーブルから各前記文字の特徴ベクトルを決定することであって、前記設定文字ベクトルマッピングテーブルに各前記文字の文字識別子と各前記特徴ベクトルとのマッピング関係が含まれている、ことと、
決定された各前記文字の特徴ベクトルを第2設定順序通りに配列して、前記第2特徴ベクトルシーケンスを取得することと
を含む、請求項1に記載の方法。 - 前記方法は、設定分類モデルに基づいて前記ターゲット特徴ベクトルを分類処理して、分類結果を取得することを更に含む、請求項1に記載の方法。
- 情報処理装置であって、前記情報処理装置は、
第1コーパスデータに対して単語分離処理を行って、少なくとも1つの単語を含む第2コーパスデータを取得するように構成される第1処理モジュールと、
第1事前訓練モデルに基づいて前記第2コーパスデータに含まれる前記少なくとも1つの単語を処理して、前記第2コーパスデータに対応する第1特徴ベクトルシーケンスを取得するように構成される第2処理モジュールと、
第2事前訓練モデルに基づいて前記第1コーパスデータに含まれる文字を処理して、前記第1コーパスデータに対応する第2特徴ベクトルシーケンスを取得するように構成される第3処理モジュールと、
前記第1特徴ベクトルシーケンス及び前記第2特徴ベクトルシーケンスに基づき、ターゲット特徴ベクトルを取得するように構成される取得モジュールと
を備え、
前記第1特徴ベクトルシーケンス及び前記第2特徴ベクトルシーケンスにそれぞれ少なくとも1つの特徴ベクトルが含まれており、前記取得モジュールは、
畳み込みニューラルネットワークモデルに基づいて前記第1特徴ベクトルシーケンスを処理して、前記第1特徴ベクトルシーケンスから第1特徴ベクトルを抽出し、
長期短期記憶モデルに基づいて前記第1特徴ベクトルシーケンスを処理して、前記第1特徴ベクトルシーケンスから第2特徴ベクトルを抽出することと、
前記第2事前訓練モデルに基づいて前記第2特徴ベクトルシーケンスを処理して、前記第2特徴ベクトルシーケンスから第3特徴ベクトルを抽出することと、
前記第1特徴ベクトル、前記第2特徴ベクトル及び前記第3特徴ベクトルに基づき、スプライシング処理によってターゲット特徴ベクトルを取得することと
を行うように更に構成される、情報処理装置。 - 前記取得モジュールは、
前記第1特徴ベクトルの末端に前記第2特徴ベクトルをスプライシングして、スプライシング後の第2特徴ベクトルの末端に前記第3特徴ベクトルをスプライシングして、スプライシング後の特徴ベクトルを取得することと、
前記スプライシング後の特徴ベクトルを次元削減処理して、前記ターゲット特徴ベクトルを取得することと
を行うように更に構成される、請求項6に記載の装置。 - 前記第2処理モジュールは、
前記第2コーパスデータに含まれる各前記単語の単語識別子を決定することと、
各前記単語の単語識別子に基づいて前記第1事前訓練モデルの設定単語ベクトルマッピングテーブルをクエリし、前記設定単語ベクトルマッピングテーブルから各前記単語の特徴ベクトルを決定することであって、前記設定単語ベクトルマッピングテーブルに各前記単語の単語識別子と各前記特徴ベクトルとのマッピング関係が含まれている、ことと、
決定された各前記単語の特徴ベクトルを第1設定順序通りに配列して、前記第1特徴ベクトルシーケンスを取得することと
を行うように更に構成される、請求項6に記載の装置。 - 前記第3処理モジュールは、
前記第1コーパスデータに含まれる各前記文字の文字識別子を決定することと、
前記第2事前訓練モデルが前記第1コーパスデータにおける各前記文字のコンテクストを分析して、分析結果を取得することと、
前記分析結果及び前記文字の文字識別子に基づき、前記第2事前訓練モデルの設定文字ベクトルマッピングテーブルをクエリし、前記設定単語ベクトルマッピングテーブルから各前記文字の特徴ベクトルを決定することであって、前記設定文字ベクトルマッピングテーブルに各前記文字の文字識別子と各前記特徴ベクトルとのマッピング関係が含まれている、ことと、
決定された各前記文字の特徴ベクトルを第2設定順序通りに配列して、前記第2特徴ベクトルシーケンスを取得することと
を行うように更に構成される、請求項6に記載の装置。 - 前記装置は、設定分類モデルに基づいて前記ターゲット特徴ベクトルを分類処理して、分類結果を取得するように構成される分類モジュールを更に備える、請求項6に記載の装置。
- 情報処理装置であって、前記情報処理装置は、
プロセッサと、
プロセッサ実行可能な命令を記憶するように構成されるメモリと
を備え、
前記プロセッサは、前記命令を実行することにより、請求項1~5のいずれか1項に記載の情報処理方法を実現するように構成される、情報処理装置。 - 非一時的なコンピュータ読み取り可能な記憶媒体であって、
前記記憶媒体には命令が記憶されており、前記命令は、情報処理装置のプロセッサによって実行されると、前記情報処理装置が請求項1~5のいずれか1項に記載の情報処理方法を実行することを可能にする、非一時的なコンピュータ読み取り可能な記憶媒体。 - 記憶媒体に記憶されるコンピュータプログラムであって、
前記コンピュータプログラムは、情報処理装置のプロセッサによって実行されると、請求項1~5のいずれか1項に記載の情報処理方法を実行することを前記情報処理装置に行わせる、コンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010059203.3A CN111259148B (zh) | 2020-01-19 | 2020-01-19 | 信息处理方法、装置及存储介质 |
CN202010059203.3 | 2020-01-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021114277A JP2021114277A (ja) | 2021-08-05 |
JP7059326B2 true JP7059326B2 (ja) | 2022-04-25 |
Family
ID=70949304
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020130420A Active JP7059326B2 (ja) | 2020-01-19 | 2020-07-31 | 情報処理方法、装置及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11475219B2 (ja) |
EP (1) | EP3851997A1 (ja) |
JP (1) | JP7059326B2 (ja) |
KR (1) | KR102544453B1 (ja) |
CN (1) | CN111259148B (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112016295B (zh) * | 2020-09-04 | 2024-02-23 | 平安科技(深圳)有限公司 | 症状数据处理方法、装置、计算机设备及存储介质 |
CN112528668A (zh) * | 2020-11-27 | 2021-03-19 | 湖北大学 | 深层情感语义识别方法、系统、介质、计算机设备及终端 |
KR102564692B1 (ko) * | 2021-01-04 | 2023-08-08 | 충남대학교 산학협력단 | 관계성 학습을 이용한 자연어 처리 시스템 및 방법 |
CN113821652A (zh) * | 2021-01-21 | 2021-12-21 | 北京沃东天骏信息技术有限公司 | 模型数据处理方法、装置、电子设备以及计算机可读介质 |
CN113807540A (zh) * | 2021-09-17 | 2021-12-17 | 北京搜狗科技发展有限公司 | 一种数据处理方法及装置 |
CN113902098B (zh) * | 2021-09-30 | 2024-09-13 | 云天弈(广州)智能科技有限公司 | 多类型数据并行学习方法、装置、计算机设备及介质 |
CN114330474B (zh) * | 2021-10-20 | 2024-04-26 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置、计算机设备以及存储介质 |
CN113988949A (zh) * | 2021-11-15 | 2022-01-28 | 北京有竹居网络技术有限公司 | 一种推广信息处理方法、装置、设备及介质、程序产品 |
CN114385784A (zh) * | 2021-12-23 | 2022-04-22 | 沈阳东软智能医疗科技研究院有限公司 | 命名实体识别方法、装置、介质及电子设备 |
CN115358231A (zh) * | 2022-08-30 | 2022-11-18 | 北京龙智数科科技服务有限公司 | 自然语言预训练模型训练方法、装置、设备及存储介质 |
CN117152157B (zh) * | 2023-10-31 | 2023-12-29 | 南通三喜电子有限公司 | 基于人工智能的电子元件识别方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018081298A (ja) | 2016-11-16 | 2018-05-24 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 自然語処理方法及び装置と自然語処理モデルを学習する方法及び装置 |
WO2019082362A1 (ja) | 2017-10-26 | 2019-05-02 | 三菱電機株式会社 | 単語意味関係推定装置および単語意味関係推定方法 |
JP2019533259A (ja) | 2016-11-03 | 2019-11-14 | セールスフォース ドット コム インコーポレイティッド | 逐次正則化を用いた同時多タスクニューラルネットワークモデルのトレーニング |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101785000B (zh) * | 2007-06-25 | 2013-04-24 | 谷歌股份有限公司 | 词概率确定方法和系统 |
CN103650002B (zh) * | 2011-05-06 | 2018-02-23 | 西尔股份有限公司 | 基于文本的视频生成 |
US20150149461A1 (en) * | 2013-11-24 | 2015-05-28 | Interstack, Inc | System and method for analyzing unstructured data on applications, devices or networks |
US20180025303A1 (en) * | 2016-07-20 | 2018-01-25 | Plenarium Inc. | System and method for computerized predictive performance analysis of natural language |
US11205103B2 (en) * | 2016-12-09 | 2021-12-21 | The Research Foundation for the State University | Semisupervised autoencoder for sentiment analysis |
CN107423284B (zh) * | 2017-06-14 | 2020-03-06 | 中国科学院自动化研究所 | 融合中文单词内部结构信息的句子表示的构建方法及系统 |
CN108334605B (zh) * | 2018-02-01 | 2020-06-16 | 腾讯科技(深圳)有限公司 | 文本分类方法、装置、计算机设备及存储介质 |
CN108804512B (zh) * | 2018-04-20 | 2020-11-24 | 平安科技(深圳)有限公司 | 文本分类模型的生成装置、方法及计算机可读存储介质 |
CN109036375B (zh) * | 2018-07-25 | 2023-03-24 | 腾讯科技(深圳)有限公司 | 语音合成方法、模型训练方法、装置和计算机设备 |
CN110287328B (zh) * | 2019-07-03 | 2021-03-16 | 广东工业大学 | 一种文本分类方法、装置、设备及计算机可读存储介质 |
CN110705294B (zh) * | 2019-09-11 | 2023-06-23 | 苏宁云计算有限公司 | 命名实体识别模型训练方法、命名实体识别方法及装置 |
-
2020
- 2020-01-19 CN CN202010059203.3A patent/CN111259148B/zh active Active
- 2020-07-29 US US16/942,087 patent/US11475219B2/en active Active
- 2020-07-29 EP EP20188312.1A patent/EP3851997A1/en not_active Ceased
- 2020-07-31 JP JP2020130420A patent/JP7059326B2/ja active Active
- 2020-07-31 KR KR1020200095607A patent/KR102544453B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019533259A (ja) | 2016-11-03 | 2019-11-14 | セールスフォース ドット コム インコーポレイティッド | 逐次正則化を用いた同時多タスクニューラルネットワークモデルのトレーニング |
JP2018081298A (ja) | 2016-11-16 | 2018-05-24 | 三星電子株式会社Samsung Electronics Co.,Ltd. | 自然語処理方法及び装置と自然語処理モデルを学習する方法及び装置 |
WO2019082362A1 (ja) | 2017-10-26 | 2019-05-02 | 三菱電機株式会社 | 単語意味関係推定装置および単語意味関係推定方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2021114277A (ja) | 2021-08-05 |
EP3851997A1 (en) | 2021-07-21 |
KR102544453B1 (ko) | 2023-06-16 |
KR20210094445A (ko) | 2021-07-29 |
US11475219B2 (en) | 2022-10-18 |
CN111259148B (zh) | 2024-03-26 |
CN111259148A (zh) | 2020-06-09 |
US20210224479A1 (en) | 2021-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7059326B2 (ja) | 情報処理方法、装置及び記憶媒体 | |
CN111191078B (zh) | 基于视频信息处理模型的视频信息处理方法及装置 | |
CN107766426B (zh) | 一种文本分类方法、装置及电子设备 | |
CN110008401B (zh) | 关键词提取方法、关键词提取装置和计算机可读存储介质 | |
EP3896598A1 (en) | Method deciding whether to reject audio for processing and corresponding device and storage medium | |
US11394675B2 (en) | Method and device for commenting on multimedia resource | |
US11455491B2 (en) | Method and device for training image recognition model, and storage medium | |
CN113590881B (zh) | 视频片段检索方法、视频片段检索模型的训练方法及装置 | |
JP2017535007A (ja) | 分類器トレーニング方法、種類認識方法及び装置 | |
CN113792207B (zh) | 一种基于多层次特征表示对齐的跨模态检索方法 | |
WO2019165832A1 (zh) | 文字信息处理方法、装置及终端 | |
CN111209970A (zh) | 视频分类方法、装置、存储介质及服务器 | |
CN112148980B (zh) | 基于用户点击的物品推荐方法、装置、设备和存储介质 | |
CN110619357B (zh) | 一种图片处理方法、装置和电子设备 | |
CN111753091B (zh) | 分类方法、分类模型的训练方法、装置、设备及存储介质 | |
CN114266840A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN108304412A (zh) | 一种跨语言搜索方法和装置、一种用于跨语言搜索的装置 | |
CN108345612A (zh) | 一种问题处理方法和装置、一种用于问题处理的装置 | |
CN110389667A (zh) | 一种输入方法及装置 | |
CN110825164A (zh) | 基于儿童专用穿戴智能设备的交互方法及系统 | |
CN111046203A (zh) | 图像检索方法、装置、存储介质及电子设备 | |
WO2024012289A1 (zh) | 视频生成方法、装置、电子设备及介质 | |
CN112328809A (zh) | 实体分类方法、装置及计算机可读存储介质 | |
CN112036307A (zh) | 图像处理方法及装置、电子设备和存储介质 | |
KR20210050484A (ko) | 정보 처리 방법, 장치 및 저장 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200731 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220407 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220413 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7059326 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |