JP7358698B2 - 語義表現モデルの訓練方法、装置、デバイス及び記憶媒体 - Google Patents
語義表現モデルの訓練方法、装置、デバイス及び記憶媒体 Download PDFInfo
- Publication number
- JP7358698B2 JP7358698B2 JP2022031735A JP2022031735A JP7358698B2 JP 7358698 B2 JP7358698 B2 JP 7358698B2 JP 2022031735 A JP2022031735 A JP 2022031735A JP 2022031735 A JP2022031735 A JP 2022031735A JP 7358698 B2 JP7358698 B2 JP 7358698B2
- Authority
- JP
- Japan
- Prior art keywords
- sample
- sentence
- anchor
- word
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
Claims (15)
- コンピュータにより実行される、語義表現モデルの訓練方法であって、
文に対して依存構文解析を行って前記文の構文情報を得ることと、
文に基づいてアンカサンプルを取得し、前記文の構文情報に基づいてポジティブサンプル及びネガティブサンプルを取得することと、
語義表現モデルを用いて、前記アンカサンプル、前記ポジティブサンプル、及び前記ネガティブサンプルをそれぞれ処理して、アンカサンプル語義表現、ポジティブサンプル語義表現、及びネガティブサンプル語義表現を得ることと、
前記アンカサンプル語義表現、前記ポジティブサンプル語義表現、及び前記ネガティブサンプル語義表現に基づいて、比較損失関数を構築することと、
前記比較損失関数に基づいて前記語義表現モデルを訓練することと、
を含む語義表現モデルの訓練方法。 - 前記文の構文情報に基づいてポジティブサンプル及びネガティブサンプルを取得することは、
前記文の構文情報に基づいて構文木を構築することと、
前記構文木に含まれる部分木に対応する第1テキストを取得し、前記第1テキストをポジティブサンプルとすることと、
前記部分木における単語に基づいて前記単語を含み且つ前記部分木に対応するテキストと異なる第2テキストを取得し、前記第2テキストをネガティブサンプルとすることと、
を含む請求項1に記載の語義表現モデルの訓練方法。 - コンピュータにより実行される、語義表現モデルの訓練方法であって、
文に基づいてアンカサンプルを取得し、前記文の構文情報に基づいてポジティブサンプル及びネガティブサンプルを取得することと、
語義表現モデルを用いて、前記アンカサンプル、前記ポジティブサンプル、及び前記ネガティブサンプルをそれぞれ処理して、アンカサンプル語義表現、ポジティブサンプル語義表現、及びネガティブサンプル語義表現を得ることと、
前記アンカサンプル語義表現、前記ポジティブサンプル語義表現、及び前記ネガティブサンプル語義表現に基づいて、比較損失関数を構築することと、
前記比較損失関数に基づいて前記語義表現モデルを訓練することと、
を含み、
前記文の構文情報に基づいてポジティブサンプル及びネガティブサンプルを取得することは、
前記文の構文情報に基づいて構文木を構築することと、
前記構文木に含まれる部分木に対応する第1テキストを取得し、前記第1テキストをポジティブサンプルとすることと、
前記部分木における単語に基づいて前記単語を含み且つ前記部分木に対応するテキストと異なる第2テキストを取得し、前記第2テキストをネガティブサンプルとすることと、
を含む、語義表現モデルの訓練方法。 - 前記部分木における単語に基づいて前記単語を含み且つ前記部分木に対応するテキストと異なる第2テキストを取得することは、
前記部分木における単語に基づいて、前記文から単語が連続し且つ単語の数が前記ポジティブサンプルに含まれる単語の数と同じであるテキストを第2テキストとして選択する、
ことを含む請求項2または3に記載の語義表現モデルの訓練方法。 - 文に基づいてアンカサンプルを取得することは、
前記文をアンカサンプルとし、あるいは、
前記文に対応する構文木に含まれる部分木における単語をアンカサンプルとする、
ことを含む請求項1から4のいずれか1項に記載の語義表現モデルの訓練方法。 - コンピュータにより実行される、語義表現モデルの訓練方法であって、
文に基づいてアンカサンプルを取得し、前記文の構文情報に基づいてポジティブサンプル及びネガティブサンプルを取得することと、
語義表現モデルを用いて、前記アンカサンプル、前記ポジティブサンプル、及び前記ネガティブサンプルをそれぞれ処理して、アンカサンプル語義表現、ポジティブサンプル語義表現、及びネガティブサンプル語義表現を得ることと、
前記アンカサンプル語義表現、前記ポジティブサンプル語義表現、及び前記ネガティブサンプル語義表現に基づいて、比較損失関数を構築することと、
前記比較損失関数に基づいて前記語義表現モデルを訓練することと、
を含み、
文に基づいてアンカサンプルを取得することは、
前記文をアンカサンプルとし、あるいは、
前記文に対応する構文木に含まれる部分木における単語をアンカサンプルとする、
ことを含む、語義表現モデルの訓練方法。 - 語義表現モデルの訓練装置であって、
文に対して依存構文解析を行って前記文の構文情報を得る解析モジュールと、
前記文に基づいてアンカサンプルを取得し、前記文の構文情報に基づいてポジティブサンプル及びネガティブサンプルを取得する取得モジュールと、
語義表現モデルを用いて、前記アンカサンプル、前記ポジティブサンプル、及び前記ネガティブサンプルをそれぞれ処理して、アンカサンプル語義表現、ポジティブサンプル語義表現、及びネガティブサンプル語義表現を得る符号化モジュールと、
前記アンカサンプル語義表現、前記ポジティブサンプル語義表現、及び前記ネガティブサンプル語義表現に基づいて、比較損失関数を構築する構築モジュールと、
前記比較損失関数に基づいて前記語義表現モデルを訓練する訓練モジュールと、
を備える語義表現モデルの訓練装置。 - 前記取得モジュールは、具体的に、
前記文の構文情報に基づいて構文木を構築し、
前記構文木に含まれる部分木に対応する第1テキストを取得し、前記第1テキストをポジティブサンプルとし、
前記部分木における単語に基づいて、前記単語を含み且つ前記部分木に対応するテキストと異なる第2テキストを取得し、前記第2テキストをネガティブサンプルとする、
請求項7に記載の語義表現モデルの訓練装置。 - 語義表現モデルの訓練装置であって、
文に基づいてアンカサンプルを取得し、前記文の構文情報に基づいてポジティブサンプル及びネガティブサンプルを取得する取得モジュールと、
語義表現モデルを用いて、前記アンカサンプル、前記ポジティブサンプル、及び前記ネガティブサンプルをそれぞれ処理して、アンカサンプル語義表現、ポジティブサンプル語義表現、及びネガティブサンプル語義表現を得る符号化モジュールと、
前記アンカサンプル語義表現、前記ポジティブサンプル語義表現、及び前記ネガティブサンプル語義表現に基づいて、比較損失関数を構築する構築モジュールと、
前記比較損失関数に基づいて前記語義表現モデルを訓練する訓練モジュールと、
を備え、
前記取得モジュールは、具体的に、
前記文の構文情報に基づいて構文木を構築し、
前記構文木に含まれる部分木に対応する第1テキストを取得し、前記第1テキストをポジティブサンプルとし、
前記部分木における単語に基づいて、前記単語を含み且つ前記部分木に対応するテキストと異なる第2テキストを取得し、前記第2テキストをネガティブサンプルとする、
語義表現モデルの訓練装置。 - 前記取得モジュールは、さらに具体的に、
前記部分木における単語に基づいて、前記文から単語が連続し且つ単語の数が前記ポジティブサンプルに含まれると同じであるテキストを第2テキストとして選択する、
請求項8または9に記載の語義表現モデルの訓練装置。 - 前記取得モジュールは、具体的に、
前記文をアンカサンプルとし、あるいは、
前記文に対応する構文木に含まれる部分木における単語をアンカサンプルとする、
請求項7から10のいずれか1項に記載の語義表現モデルの訓練装置。 - 語義表現モデルの訓練装置であって、
文に基づいてアンカサンプルを取得し、前記文の構文情報に基づいてポジティブサンプル及びネガティブサンプルを取得する取得モジュールと、
語義表現モデルを用いて、前記アンカサンプル、前記ポジティブサンプル、及び前記ネガティブサンプルをそれぞれ処理して、アンカサンプル語義表現、ポジティブサンプル語義表現、及びネガティブサンプル語義表現を得る符号化モジュールと、
前記アンカサンプル語義表現、前記ポジティブサンプル語義表現、及び前記ネガティブサンプル語義表現に基づいて、比較損失関数を構築する構築モジュールと、
前記比較損失関数に基づいて前記語義表現モデルを訓練する訓練モジュールと、
を備え、
前記取得モジュールは、具体的に、
前記文をアンカサンプルとし、あるいは、
前記文に対応する構文木に含まれる部分木における単語をアンカサンプルとする、
語義表現モデルの訓練装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信可能に接続されたメモリとを備え、
前記メモリに前記少なくとも1つのプロセッサにより実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに請求項1から6のいずれか1項に記載の語義表現モデルの訓練方法を実行させる電子デバイス。 - コンピュータに請求項1から6のいずれか1項に記載の語義表現モデルの訓練方法を実行させるためのコンピュータコマンドを記憶した非一時的なコンピュータ可読記憶媒体。
- プロセッサにより実行されると、請求項1から6のいずれか1項に記載の語義表現モデルの訓練方法を実現するコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110738680.7A CN113408299B (zh) | 2021-06-30 | 2021-06-30 | 语义表示模型的训练方法、装置、设备和存储介质 |
CN202110738680.7 | 2021-06-30 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023007367A JP2023007367A (ja) | 2023-01-18 |
JP7358698B2 true JP7358698B2 (ja) | 2023-10-11 |
Family
ID=77680695
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022031735A Active JP7358698B2 (ja) | 2021-06-30 | 2022-03-02 | 語義表現モデルの訓練方法、装置、デバイス及び記憶媒体 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230004721A1 (ja) |
JP (1) | JP7358698B2 (ja) |
CN (1) | CN113408299B (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114186548B (zh) * | 2021-12-15 | 2023-08-15 | 平安科技(深圳)有限公司 | 基于人工智能的句子向量生成方法、装置、设备及介质 |
CN114417879B (zh) * | 2021-12-29 | 2022-12-27 | 北京百度网讯科技有限公司 | 跨语言文本语义模型的生成方法、装置及电子设备 |
CN114444462B (zh) * | 2022-01-26 | 2022-11-29 | 北京百度网讯科技有限公司 | 模型训练方法及人机交互方法、装置 |
CN114580442B (zh) * | 2022-02-28 | 2023-04-18 | 北京百度网讯科技有限公司 | 一种模型训练方法、装置、电子设备及存储介质 |
CN114676227B (zh) * | 2022-04-06 | 2023-07-18 | 北京百度网讯科技有限公司 | 样本生成方法、模型的训练方法以及检索方法 |
CN114861651B (zh) * | 2022-05-05 | 2023-05-30 | 北京百度网讯科技有限公司 | 一种模型训练优化方法、计算设备、电子设备及存储介质 |
CN116304560B (zh) * | 2023-01-17 | 2023-11-24 | 北京信息科技大学 | 一种轨迹表征模型训练方法、表征方法及装置 |
CN116151892B (zh) * | 2023-04-20 | 2023-08-29 | 中国科学技术大学 | 物品推荐方法、系统、设备及存储介质 |
CN116364055B (zh) * | 2023-05-31 | 2023-09-01 | 中国科学院自动化研究所 | 基于预训练语言模型的语音生成方法、装置、设备及介质 |
CN116579320B (zh) * | 2023-07-07 | 2023-09-15 | 航天宏康智能科技(北京)有限公司 | 句向量模型的训练方法、文本语义增强的方法及装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006031198A (ja) | 2004-07-14 | 2006-02-02 | Nec Corp | テキストマイニング装置及びそれに用いるテキストマイニング方法並びにそのプログラム |
JP2017049681A (ja) | 2015-08-31 | 2017-03-09 | 国立研究開発法人情報通信研究機構 | 質問応答システムの訓練装置及びそのためのコンピュータプログラム |
JP2019509551A (ja) | 2016-02-04 | 2019-04-04 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | Nペア損失による距離計量学習の改善 |
CN109918663A (zh) | 2019-03-04 | 2019-06-21 | 腾讯科技(深圳)有限公司 | 一种语义匹配方法、装置及存储介质 |
US20200097742A1 (en) | 2018-09-20 | 2020-03-26 | Nvidia Corporation | Training neural networks for vehicle re-identification |
CN111143530A (zh) | 2019-12-24 | 2020-05-12 | 平安健康保险股份有限公司 | 一种智能答复方法及装置 |
JP2020181486A (ja) | 2019-04-26 | 2020-11-05 | 株式会社日立製作所 | 特徴ベクトルを生成するシステム |
US20200380298A1 (en) | 2019-05-30 | 2020-12-03 | Adobe Inc. | Text-to-Visual Machine Learning Embedding Techniques |
CN112733550A (zh) | 2020-12-31 | 2021-04-30 | 科大讯飞股份有限公司 | 基于知识蒸馏的语言模型训练方法、文本分类方法及装置 |
US20210182662A1 (en) | 2019-12-17 | 2021-06-17 | Adobe Inc. | Training of neural network based natural language processing models using dense knowledge distillation |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830385B (zh) * | 2018-07-10 | 2021-01-26 | 京东数字科技控股有限公司 | 深度学习模型训练方法和装置及计算机可读存储介质 |
CN111325223B (zh) * | 2018-12-13 | 2023-10-24 | 中国电信股份有限公司 | 深度学习模型的训练方法、装置和计算机可读存储介质 |
CN111832312B (zh) * | 2020-05-15 | 2024-05-17 | 北京嘀嘀无限科技发展有限公司 | 文本处理方法、装置、设备和存储介质 |
CN112560496B (zh) * | 2020-12-09 | 2024-02-02 | 北京百度网讯科技有限公司 | 语义分析模型的训练方法、装置、电子设备及存储介质 |
CN113033194B (zh) * | 2021-03-09 | 2023-10-24 | 北京百度网讯科技有限公司 | 语义表示图模型的训练方法、装置、设备和存储介质 |
-
2021
- 2021-06-30 CN CN202110738680.7A patent/CN113408299B/zh active Active
-
2022
- 2022-03-02 JP JP2022031735A patent/JP7358698B2/ja active Active
- 2022-03-21 US US17/655,770 patent/US20230004721A1/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006031198A (ja) | 2004-07-14 | 2006-02-02 | Nec Corp | テキストマイニング装置及びそれに用いるテキストマイニング方法並びにそのプログラム |
JP2017049681A (ja) | 2015-08-31 | 2017-03-09 | 国立研究開発法人情報通信研究機構 | 質問応答システムの訓練装置及びそのためのコンピュータプログラム |
JP2019509551A (ja) | 2016-02-04 | 2019-04-04 | エヌイーシー ラボラトリーズ アメリカ インクNEC Laboratories America, Inc. | Nペア損失による距離計量学習の改善 |
US20200097742A1 (en) | 2018-09-20 | 2020-03-26 | Nvidia Corporation | Training neural networks for vehicle re-identification |
CN109918663A (zh) | 2019-03-04 | 2019-06-21 | 腾讯科技(深圳)有限公司 | 一种语义匹配方法、装置及存储介质 |
JP2020181486A (ja) | 2019-04-26 | 2020-11-05 | 株式会社日立製作所 | 特徴ベクトルを生成するシステム |
US20200380298A1 (en) | 2019-05-30 | 2020-12-03 | Adobe Inc. | Text-to-Visual Machine Learning Embedding Techniques |
US20210182662A1 (en) | 2019-12-17 | 2021-06-17 | Adobe Inc. | Training of neural network based natural language processing models using dense knowledge distillation |
CN111143530A (zh) | 2019-12-24 | 2020-05-12 | 平安健康保险股份有限公司 | 一种智能答复方法及装置 |
CN112733550A (zh) | 2020-12-31 | 2021-04-30 | 科大讯飞股份有限公司 | 基于知识蒸馏的语言模型训练方法、文本分类方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
US20230004721A1 (en) | 2023-01-05 |
JP2023007367A (ja) | 2023-01-18 |
CN113408299A (zh) | 2021-09-17 |
CN113408299B (zh) | 2022-03-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7358698B2 (ja) | 語義表現モデルの訓練方法、装置、デバイス及び記憶媒体 | |
US20220350965A1 (en) | Method for generating pre-trained language model, electronic device and storage medium | |
JP7412060B2 (ja) | 自然言語分類のための訓練データの拡張 | |
CN112507040B (zh) | 多元关系生成模型的训练方法、装置、电子设备及介质 | |
JP7283009B2 (ja) | 対話理解モデルの訓練方法、装置、デバイス及び記憶媒体 | |
US20210312139A1 (en) | Method and apparatus of generating semantic feature, method and apparatus of training model, electronic device, and storage medium | |
JP7301922B2 (ja) | 意味検索方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
CN110140133A (zh) | 机器学习任务的隐式桥接 | |
EP3971761A1 (en) | Method and apparatus for generating summary, electronic device and storage medium thereof | |
JP7413630B2 (ja) | 要約生成モデルの訓練方法、装置、デバイス及び記憶媒体 | |
JP7335300B2 (ja) | 知識事前訓練モデルの訓練方法、装置及び電子機器 | |
JP2023012493A (ja) | 言語モデルの事前トレーニング方法、装置、デバイスおよび記憶媒体 | |
CN111488742B (zh) | 用于翻译的方法和装置 | |
KR102561951B1 (ko) | 모델링 매개 변수의 설정 방법, 장치, 전자 기기 및 기록 매체 | |
EP4123474A1 (en) | Method for acquiring structured question-answering model, question-answering method and corresponding apparatus | |
JP2023015215A (ja) | テキスト情報の抽出方法、装置、電子機器及び記憶媒体 | |
JP2023002690A (ja) | セマンティックス認識方法、装置、電子機器及び記憶媒体 | |
JP7357114B2 (ja) | 生体検出モデルのトレーニング方法、装置、電子機器および記憶媒体 | |
JP2023007376A (ja) | 情報抽出方法、装置、電子デバイス及び可読記憶媒体 | |
JP7369228B2 (ja) | ユーザ興味画像の生成方法、装置、電子機器及び記憶媒体 | |
JP2023025126A (ja) | 深層学習モデルのトレーニング方法及び装置、テキストデータ処理方法及び装置、電子機器、記憶媒体、並びにコンピュータプログラム | |
US10460044B2 (en) | Methods and systems for translating natural language requirements to a semantic modeling language statement | |
JP2023078411A (ja) | 情報処理方法、モデルトレーニング方法、装置、機器、媒体及びプログラム製品 | |
JP7242797B2 (ja) | 語句処理方法、機器及び記憶媒体 | |
CN114255427B (zh) | 视频理解方法、装置、设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230807 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230901 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7358698 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |