JP7194150B2 - ドキュメントのベクトル化表現方法、ドキュメントのベクトル化表現装置及びコンピュータ機器 - Google Patents
ドキュメントのベクトル化表現方法、ドキュメントのベクトル化表現装置及びコンピュータ機器 Download PDFInfo
- Publication number
- JP7194150B2 JP7194150B2 JP2020108873A JP2020108873A JP7194150B2 JP 7194150 B2 JP7194150 B2 JP 7194150B2 JP 2020108873 A JP2020108873 A JP 2020108873A JP 2020108873 A JP2020108873 A JP 2020108873A JP 7194150 B2 JP7194150 B2 JP 7194150B2
- Authority
- JP
- Japan
- Prior art keywords
- document
- segment
- training
- vector
- level semantic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
ドキュメントを分割して複数のテキストセグメントを取得し、各テキストセグメント内のキャラクタとセグメントベクトルとのマッピング関係を学習して取得する第1レベルのセマンティックモデルを用いて、各テキストセグメントを対応するテキストセグメントのセグメントベクトルとしてベクトル化表現し、ここで、セグメントベクトルは、対応するテキストセグメントのセマンティックを示し、さらに、セグメントベクトルとドキュメントベクトルとのマッピング関係を学習して取得する第2レベルのセマンティックモデルを用いて、各テキストセグメントのセグメントベクトルに対してドキュメントのセマンティック認識を行って、ドキュメントのトピックを示すためのドキュメントベクトルを取得する。これにより、二つのレベルのセマンティックモデルによって、段落レベル及びドキュメントレベルの各レベルの情報を取得することができるとともに、生成された、ドキュメントのトピックを示すためのドキュメントベクトルは、完全なテキスト情報を取得しており、情報の損失を低減させている。
まず、LSAは、行列分解によって取得されるため、空間における次元の物理的な意味が明確ではなく、解明することができない。また、モデル計算范式複雑で、理解し難く、トピック数の設定を手動に設定する必要があるため、不合理でテキスト内の情報損失が大きくなる可能性がある。
ステップ101において、ドキュメントを分割して複数のテキストセグメントを取得する。
ステップ201において、第1のトレーニングタスクを用いて、第1レベルのセマンティックモデルと第2レベルのセマンティックモデルとをトレーニングする。
ステップ401において、第2のトレーニングタスクを用いて、第1レベルのセマンティックモデルと第2レベルのセマンティックモデルとをトレーニングする。
Claims (12)
- ドキュメントのベクトル化表現装置によって実行され、
ドキュメントを分割して複数のテキストセグメントを取得するステップと、
各テキストセグメント内のキャラクタとセグメントベクトルとのマッピング関係を学習して取得する第1レベルのセマンティックモデルを用いて、各テキストセグメントを対応するテキストセグメントのセグメントベクトルとしてベクトル化表現するステップであって、前記セグメントベクトルが、対応するテキストセグメントのセマンティックを示すステップと、
セグメントベクトルとドキュメントベクトルとのマッピング関係を学習して取得する第2レベルのセマンティックモデルを用いて、各テキストセグメントのセグメントベクトルに対してドキュメントのセマンティック認識を行って、前記ドキュメントのトピックを示すためのドキュメントベクトルを取得するステップと、
を含み、
前記第1レベルのセマンティックモデルを用いて、各テキストセグメントを対応するテキストセグメントのセグメントベクトルとしてベクトル化表現するステップが、
各テキストセグメントに対して末尾に終了キャラクタを追加した後、第1レベルのセマンティックモデルに入力して、前記第1レベルのセマンティックモデルによって出力された対応するテキストセグメントにおける各キャラクタのベクトル化表現を取得するステップと、
各テキストセグメントにおける終了キャラクタのベクトル化表現を対応するテキストセグメントのセグメントベクトルとするステップと、
を含み、
前記第2レベルのセマンティックモデルを用いて、各テキストセグメントのセグメントベクトルに対してドキュメントのセマンティック認識を行って、前記ドキュメントのトピックを示すためのドキュメントベクトルを取得するステップが、
各テキストセグメントのセグメントベクトルについて、対応するセグメントベクトルに位置要素を追加して、各テキストセグメントの入力ベクトルを取得するステップであって、前記位置要素は、対応するテキストセグメントの前記ドキュメント内の位置を示すステップと、
前記第2レベルのセマンティックモデルが各入力ベクトルに基づいて、参照ベクトルの値を調整するように、各テキストセグメントの入力ベクトルと、値が初期値である前記参照ベクトルとを第2レベルのセマンティックモデルに入力するステップと、
値が調整された参照ベクトルを前記ドキュメントベクトルとするステップと、
を含み、
各セグメントは独立した位置符号化を採用し、値が初期値である参照ベクトルは、予め設定された学習可能なベクトルである、ドキュメントのベクトル化表現方法。 - 前記ドキュメントを分割して複数のテキストセグメントを取得するステップの前に、
第1のトレーニングタスクを用いて、前記第1レベルのセマンティックモデルと前記第2レベルのセマンティックモデルとをトレーニングするステップを含み、
前記第1のトレーニングタスクが、
いずれかのテキストセグメント内の一つのキャラクタのベクトル化表現を取得することと、
前記一つのキャラクタのベクトル化表現と前記ドキュメントベクトルとに基づいて、予測キャラクタを予測して取得することと、
前記予測キャラクタと前記一つのキャラクタとの差異に基づいて、前記第1レベルのセマンティックモデルと前記第2レベルのセマンティックモデルとのパラメータを調整することと、
を含む請求項1に記載のドキュメントのベクトル化表現方法。 - 前記ドキュメントを分割して複数のテキストセグメントを取得するステップの前に、
第2のトレーニングタスクを用いて、前記第1レベルのセマンティックモデルと前記第2レベルのセマンティックモデルとをトレーニングするステップを含み、
前記第2のトレーニングタスクが、
トレーニング本文とトレーニングタイトルとをつなぎ合わせたトレーニングドキュメントのドキュメントベクトルを取得することと、
前記ドキュメントベクトルに基づいて、トレーニングサンプルにおけるトレーニングドキュメントとトレーニングタイトルとのセマンティックがマッチングしているか否かを予測することと、
予測されたマッチング結果と実際のマッチング結果との差異に基づいて、前記第1レベルのセマンティックモデルと前記第2レベルのセマンティックモデルとのパラメータを調整することと、
を含む請求項1に記載のドキュメントのベクトル化表現方法。 - 前記トレーニングドキュメントが複数であり、正例と負例とを含み、
前記正例としてのトレーニングドキュメントは、トレーニング本文と、対応するトレーニングタイトルとをつなぎ合わせたものであり、
負例としてのトレーニングドキュメントは、トレーニング本文と、他のトレーニング本文に対応するトレーニングタイトルとをつなぎ合わせたものである請求項3に記載のドキュメントのベクトル化表現方法。 - 前記第1レベルのセマンティックモデルが複数であり、各第1レベルのセマンティックモデルが、対応する一つのテキストセグメントを対応するセグメントベクトルとしてベクトル化表現し、
複数の前記第1レベルのセマンティックモデルが、パラメータを共有する請求項1から4のいずれか一項に記載のドキュメントのベクトル化表現方法。 - ドキュメントを分割して複数のテキストセグメントを取得するように構成される分割モジュールと、
各テキストセグメント内のキャラクタとセグメントベクトルとのマッピング関係を学習して取得する第1レベルのセマンティックモデルを用いて、各テキストセグメントを対応するテキストセグメントのセグメントベクトルとしてベクトル化表現するように構成される表現モジュールであって、前記セグメントベクトルは、対応するテキストセグメントのセマンティックを示す表現モジュールと、
セグメントベクトルとドキュメントベクトルとのマッピング関係を学習して取得する第2レベルのセマンティックモデルを用いて、各テキストセグメントのセグメントベクトルに対してドキュメントのセマンティック認識を行って、前記ドキュメントのトピックを示すためのドキュメントベクトルを取得するように構成される認識モジュールと、を備え、
前記表現モジュールが、
各テキストセグメントに対して末尾に終了キャラクタを追加した後、第1レベルのセマンティックモデルに入力して、前記第1レベルのセマンティックモデルによって出力された対応するテキストセグメントにおける各キャラクタのベクトル化表現を取得し、
各テキストセグメントにおける終了キャラクタのベクトル化表現を対応するテキストセグメントのセグメントベクトルとするように構成され、
前記認識モジュールは、
各テキストセグメントのセグメントベクトルについて、対応するセグメントベクトルに位置要素を追加して、各テキストセグメントの入力ベクトルを取得するように構成され、前記位置要素が、対応するテキストセグメントの前記ドキュメント内の位置を示し、
前記第2レベルのセマンティックモデルが各入力ベクトルに基づいて、参照ベクトルの値を調整するように、各テキストセグメントの入力ベクトルと、値が初期値である前記参照ベクトルとを第2レベルのセマンティックモデルに入力し、
値が調整された参照ベクトルを前記ドキュメントベクトルとするように構成され、
各セグメントは独立した位置符号化を採用し、値が初期値である参照ベクトルは、予め設定された学習可能なベクトルである、ドキュメントのベクトル化表現装置。 - 第1のトレーニングタスクを用いて、前記第1レベルのセマンティックモデルと前記第2レベルのセマンティックモデルとをトレーニングするように構成される第1のトレーニングモジュールを備え、
前記第1のトレーニングタスクが、
いずれかのテキストセグメント内の一つのキャラクタのベクトル化表現を取得することと、
前記一つのキャラクタのベクトル化表現と前記ドキュメントベクトルとに基づいて、予測キャラクタを予測して取得することと、
前記予測キャラクタと前記一つのキャラクタとの差異に基づいて、前記第1レベルのセマンティックモデルと前記第2レベルのセマンティックモデルとのパラメータを調整することと、
を含む請求項6に記載のドキュメントのベクトル化表現装置。 - 第2のトレーニングタスクを用いて、前記第1レベルのセマンティックモデルと前記第2レベルのセマンティックモデルとをトレーニングするように構成される第2のトレーニングモジュールを備え、
前記第2のトレーニングタスクが、
トレーニング本文とトレーニングタイトルとをつなぎ合わせたトレーニングドキュメントのドキュメントベクトルを取得することと、
前記ドキュメントベクトルに基づいて、トレーニングサンプルにおけるトレーニングドキュメントとトレーニングタイトルとのセマンティックがマッチングしているか否かを予測することと、
予測されたマッチング結果と実際のマッチング結果との差異に基づいて、前記第1レベルのセマンティックモデルと前記第2レベルのセマンティックモデルとのパラメータを調整することと、
を含む請求項6に記載のドキュメントのベクトル化表現装置。 - 前記トレーニングドキュメントが複数であり、正例と負例とを含み、
前記正例としてのトレーニングドキュメントは、トレーニング本文と、対応するトレーニングタイトルとをつなぎ合わせたものであり、
負例のトレーニングドキュメントとしては、トレーニング本文と、他のトレーニング本文に対応するトレーニングタイトルとをつなぎ合わせたものである請求項8に記載のドキュメントのベクトル化表現装置。 - 前記第1レベルのセマンティックモデルが複数であり、各第1レベルのセマンティックモデルが、対応する一つのテキストセグメントを対応するセグメントベクトルとしてベクトル化表現し、
複数の前記第1レベルのセマンティックモデルが、パラメータを共有する請求項6から9のいずれか一項に記載のドキュメントのベクトル化表現装置。 - メモリと、プロセッサと、メモリに記憶されプロセッサで実行可能なコンピュータプログラムとを備えるコンピュータ機器であって、
前記プロセッサが前記プログラムを実行する場合に、請求項1から5のいずれか一項に記載のドキュメントのベクトル化表現方法を実現するコンピュータ機器。 - コンピュータプログラムが記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
当該プログラムがプロセッサによって実行される場合に、請求項1から5のいずれか一項に記載のドキュメントのベクトル化表現方法が実現される非一時的なコンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911334964.9 | 2019-12-20 | ||
CN201911334964.9A CN111079442B (zh) | 2019-12-20 | 2019-12-20 | 文档的向量化表示方法、装置和计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021099774A JP2021099774A (ja) | 2021-07-01 |
JP7194150B2 true JP7194150B2 (ja) | 2022-12-21 |
Family
ID=70316968
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020108873A Active JP7194150B2 (ja) | 2019-12-20 | 2020-06-24 | ドキュメントのベクトル化表現方法、ドキュメントのベクトル化表現装置及びコンピュータ機器 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11403468B2 (ja) |
JP (1) | JP7194150B2 (ja) |
CN (1) | CN111079442B (ja) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111753167B (zh) * | 2020-06-22 | 2024-01-12 | 北京百度网讯科技有限公司 | 搜索处理方法、装置、计算机设备和介质 |
CN111950291B (zh) * | 2020-06-22 | 2024-02-23 | 北京百度网讯科技有限公司 | 语义表示模型的生成方法、装置、电子设备及存储介质 |
CN112395385B (zh) * | 2020-11-17 | 2023-07-25 | 中国平安人寿保险股份有限公司 | 基于人工智能的文本生成方法、装置、计算机设备及介质 |
CN112560501B (zh) * | 2020-12-25 | 2022-02-25 | 北京百度网讯科技有限公司 | 语义特征的生成方法、模型训练方法、装置、设备及介质 |
CN112784033B (zh) * | 2021-01-29 | 2023-11-03 | 北京百度网讯科技有限公司 | 一种时效等级识别模型训练及应用的方法、及电子设备 |
CN113011126B (zh) * | 2021-03-11 | 2023-06-30 | 腾讯科技(深圳)有限公司 | 文本处理方法、装置、电子设备及计算机可读存储介质 |
CN113361712B (zh) * | 2021-06-30 | 2023-07-21 | 北京百度网讯科技有限公司 | 特征确定模型的训练方法、语义分析方法、装置及电子设备 |
CN113239705B (zh) * | 2021-07-12 | 2021-10-29 | 北京百度网讯科技有限公司 | 语义表示模型的预训练方法、装置、电子设备和存储介质 |
CN113609864B (zh) * | 2021-08-06 | 2022-02-11 | 珠海市鸿瑞信息技术股份有限公司 | 一种基于工业控制系统的文本语义识别处理系统及方法 |
CN114792097B (zh) * | 2022-05-14 | 2022-12-06 | 北京百度网讯科技有限公司 | 预训练模型提示向量的确定方法、装置及电子设备 |
CN116189193B (zh) * | 2023-04-25 | 2023-11-10 | 杭州镭湖科技有限公司 | 一种基于样本信息的数据存储可视化方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105653671A (zh) | 2015-12-29 | 2016-06-08 | 畅捷通信息技术股份有限公司 | 相似信息推荐方法及系统 |
CN108829818A (zh) | 2018-06-12 | 2018-11-16 | 中国科学院计算技术研究所 | 一种文本分类方法 |
CN109243616A (zh) | 2018-06-29 | 2019-01-18 | 东华大学 | 基于深度学习的乳腺电子病历联合关系抽取与结构化系统 |
US20190258700A1 (en) | 2018-02-22 | 2019-08-22 | Verint Americas Inc. | System and method of highlighting influential samples in sequential analysis |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9576023B2 (en) * | 2014-07-14 | 2017-02-21 | International Business Machines Corporation | User interface for summarizing the relevance of a document to a query |
US10216724B2 (en) * | 2017-04-07 | 2019-02-26 | Conduent Business Services, Llc | Performing semantic analyses of user-generated textual and voice content |
CN107491547B (zh) * | 2017-08-28 | 2020-11-10 | 北京百度网讯科技有限公司 | 基于人工智能的搜索方法和装置 |
CN110119505A (zh) * | 2018-02-05 | 2019-08-13 | 阿里巴巴集团控股有限公司 | 词向量生成方法、装置以及设备 |
CN108920929B (zh) * | 2018-05-07 | 2022-03-01 | 深圳壹账通智能科技有限公司 | 验证图处理方法、装置、计算机设备和存储介质 |
CN108733653B (zh) * | 2018-05-18 | 2020-07-10 | 华中科技大学 | 一种基于融合词性和语义信息的Skip-gram模型的情感分析方法 |
WO2019232645A1 (en) * | 2018-06-07 | 2019-12-12 | Element Ai Inc. | Unsupervised classification of documents using a labeled data set of other documents |
US20200110882A1 (en) * | 2018-10-09 | 2020-04-09 | Ca, Inc. | Bipartite graph-based topic categorization system |
CN110399606B (zh) * | 2018-12-06 | 2023-04-07 | 国网信息通信产业集团有限公司 | 一种无监督电力文档主题生成方法及系统 |
CN109635116B (zh) * | 2018-12-17 | 2023-03-24 | 腾讯科技(深圳)有限公司 | 文本词向量模型的训练方法、电子设备及计算机存储介质 |
CN109815339B (zh) * | 2019-01-02 | 2022-02-08 | 平安科技(深圳)有限公司 | 基于TextCNN知识抽取方法、装置、计算机设备及存储介质 |
CN109933667A (zh) * | 2019-03-19 | 2019-06-25 | 中国联合网络通信集团有限公司 | 文本分类模型训练方法、文本分类方法及设备 |
CN110298035B (zh) * | 2019-06-04 | 2023-12-01 | 平安科技(深圳)有限公司 | 基于人工智能的字向量定义方法、装置、设备及存储介质 |
CN110413992A (zh) * | 2019-06-26 | 2019-11-05 | 重庆兆光科技股份有限公司 | 一种语义分析识别方法、系统、介质和设备 |
CN110532381B (zh) * | 2019-07-15 | 2023-09-26 | 中国平安人寿保险股份有限公司 | 一种文本向量获取方法、装置、计算机设备及存储介质 |
-
2019
- 2019-12-20 CN CN201911334964.9A patent/CN111079442B/zh active Active
-
2020
- 2020-06-24 JP JP2020108873A patent/JP7194150B2/ja active Active
- 2020-07-27 US US16/939,947 patent/US11403468B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105653671A (zh) | 2015-12-29 | 2016-06-08 | 畅捷通信息技术股份有限公司 | 相似信息推荐方法及系统 |
US20190258700A1 (en) | 2018-02-22 | 2019-08-22 | Verint Americas Inc. | System and method of highlighting influential samples in sequential analysis |
CN108829818A (zh) | 2018-06-12 | 2018-11-16 | 中国科学院计算技术研究所 | 一种文本分类方法 |
CN109243616A (zh) | 2018-06-29 | 2019-01-18 | 东华大学 | 基于深度学习的乳腺电子病历联合关系抽取与结构化系统 |
Non-Patent Citations (1)
Title |
---|
YANG, Zichao 外5名,Hierarchical Attention Networks for Document Classification,インターネット,The 15th annual Conference of the North American Chapter: Human Language Technologies (HAACL HLT 2016),2016年06月17日,pp.1-10 |
Also Published As
Publication number | Publication date |
---|---|
US20210192141A1 (en) | 2021-06-24 |
US11403468B2 (en) | 2022-08-02 |
JP2021099774A (ja) | 2021-07-01 |
CN111079442A (zh) | 2020-04-28 |
CN111079442B (zh) | 2021-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7194150B2 (ja) | ドキュメントのベクトル化表現方法、ドキュメントのベクトル化表現装置及びコンピュータ機器 | |
JP7122365B2 (ja) | テキスト認識処理方法、装置、電子機器及び記憶媒体 | |
KR102350543B1 (ko) | 시맨틱 표현 모델의 처리 방법, 장치, 전자 기기 및 저장 매체 | |
JP7317791B2 (ja) | エンティティ・リンキング方法、装置、機器、及び記憶媒体 | |
KR102451496B1 (ko) | 텍스트 주제 생성 방법, 장치 및 전자기기 | |
JP7398402B2 (ja) | 実体リンキング方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
KR102532396B1 (ko) | 데이터 세트 처리 방법, 장치, 전자 기기 및 저장 매체 | |
KR102541053B1 (ko) | 언어 모델에 기반한 단어 벡터 획득 방법, 장치, 기기 및 기록매체 | |
JP7264866B2 (ja) | イベント関係の生成方法、装置、電子機器及び記憶媒体 | |
KR102565673B1 (ko) | 시멘틱 표현 모델의 생성 방법, 장치, 전자 기기 및 저장 매체 | |
KR102573637B1 (ko) | 엔티티 링킹 방법, 장치, 전자 기기 및 기록 매체 | |
JP7179123B2 (ja) | 言語モデルの訓練方法、装置、電子デバイス及び可読記憶媒体 | |
KR102431568B1 (ko) | 엔티티 단어 인식 방법 및 장치 | |
US20210200813A1 (en) | Human-machine interaction method, electronic device, and storage medium | |
JP2021197133A (ja) | 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
JP2022014429A (ja) | 語義表現モデルの訓練方法、装置、デバイス及びコンピュータ記憶媒体 | |
JP7269972B2 (ja) | 事前トレーニングのセマンティックモデルに基づくモデル改良方法及び装置 | |
JP7106802B2 (ja) | リソースソート方法、ソートモデルをトレーニングする方法及び対応する装置 | |
US11321370B2 (en) | Method for generating question answering robot and computer device | |
JP2022003537A (ja) | 対話意図の認識方法及び装置、電子機器並びに記憶媒体 | |
JP7163440B2 (ja) | テキストクエリ方法、装置、電子機器、記憶媒体及びコンピュータプログラム製品 | |
JP7139028B2 (ja) | 目標内容の確定方法、装置、機器及びコンピュータ可読記憶媒体 | |
JP2021192283A (ja) | 情報照会方法、装置及び電子機器 | |
CN114444462B (zh) | 模型训练方法及人机交互方法、装置 | |
JP7262519B2 (ja) | 質問の答えの決定方法、装置、機器及び記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200624 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211005 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211227 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220927 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220927 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20221004 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20221011 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221206 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221209 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7194150 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |