JP2021179978A - 語義類似度モデルの訓練方法、装置、電子デバイス及び記憶媒体 - Google Patents
語義類似度モデルの訓練方法、装置、電子デバイス及び記憶媒体 Download PDFInfo
- Publication number
- JP2021179978A JP2021179978A JP2021075224A JP2021075224A JP2021179978A JP 2021179978 A JP2021179978 A JP 2021179978A JP 2021075224 A JP2021075224 A JP 2021075224A JP 2021075224 A JP2021075224 A JP 2021075224A JP 2021179978 A JP2021179978 A JP 2021179978A
- Authority
- JP
- Japan
- Prior art keywords
- training data
- training
- data sets
- similarity model
- relevance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
- G06F18/2148—Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
Description
Claims (13)
- 語義類似度モデルの訓練方法であって、
訓練待ちの語義類似度モデルが使用する目標分野を取得し、
前記目標分野と既知の複数の訓練データセットにおける前記複数の訓練データセットの各々に対応する応用分野との関連度を計算し、
目標分野と前記複数の訓練データセットの各々に対応する応用分野との関連度に基づいて、前記複数の訓練データセットの各々を順次に用いて前記語義類似度モデルを訓練する、
ことを含む語義類似度モデルの訓練方法。 - 目標分野と前記複数の訓練データセットの各々に対応する応用分野との関連度に基づいて、前記複数の訓練データセットの各々を順次に用いて前記語義類似度モデルを訓練することは、
前記目標分野と前記複数の訓練データセットの各々に対応する応用分野との関連度に基づいて、前記複数の訓練データセットを高関連度の訓練データセットの集合と低関連度の訓練データセットの集合とに分割し、
前記低関連度の訓練データセットの集合における前記複数の訓練データセットの各々を用いて前記語義類似度モデルを順次に訓練し、
前記高関連度の訓練データセットの集合における前記複数の訓練データセットの各々を用いて前記語義類似度モデルを順次に訓練する、
ことを含む請求項1に記載の語義類似度モデルの訓練方法。 - 前記低関連度の訓練データセットの集合における各訓練データセットを用いて前記語義類似度モデルを順次に訓練することは、
前記目標分野と前記低関連度の訓練データセットの集合における前記複数の訓練データセットの各々に対応する応用分野との関連度の低い順に従って、対応する前記訓練データセットを順次に用いて前記語義類似度モデルをそれぞれ訓練し、或いは、
前記低関連度の訓練データセットの集合における各訓練データセットをランダムにソートし、前記ランダムにソートされた順に従って対応する前記訓練データセットを順次に用いて前記語義類似度モデルをそれぞれ訓練する、
ことを含む請求項2に記載の語義類似度モデルの訓練方法。 - 前記目標分野と前記複数の訓練データセットの各々に対応する応用分野との関連度に基づいて、前記複数の訓練データセットを高関連度の訓練データセットの集合と低関連度の訓練データセットの集合とに分割することは、
前記目標分野と最も関連性の高いN個の応用分野の前記訓練データセットを前記高関連度の訓練データセットの集合に分割し、
残りの前記訓練データセットを前記低関連度の訓練データセットの集合に分割する、
ことを含む請求項2または3に記載の語義類似度モデルの訓練方法。 - 前記高関連度の訓練データセットの集合における各訓練データセットを用いて前記語義類似度モデルを順次に訓練することは、
Nが1より大きければ、前記目標分野と前記高関連度の訓練データセットの集合における各訓練データセットに対応する応用分野との関連度の低い順に従って、対応する前記訓練データセットを順次に用いて前記語義類似度モデルをそれぞれ訓練する、
ことを含む請求項4に記載の語義類似度モデルの訓練方法。 - 語義類似度モデルの訓練装置であって、
訓練待ちの語義類似度モデルが使用する目標分野を取得する取得モジュールと、
前記目標分野と既知の複数の訓練データセットにおける前記複数の訓練データセットの各々に対応する応用分野との関連度を計算する計算モジュールと、
目標分野と前記複数の訓練データセットの各々に対応する応用分野との関連度に基づいて、前記複数の訓練データセットの各々を順次に用いて前記語義類似度モデルを訓練する訓練モジュールと、
を備える語義類似度モデルの訓練装置。 - 訓練モジュールは、
前記目標分野と前記複数の訓練データセットの各々に対応する応用分野との関連度に基づいて、前記複数の訓練データセットを高関連度の訓練データセットの集合と低関連度の訓練データセットの集合とに分割する分割ユニットと、
前記低関連度の訓練データセットの集合における前記複数の訓練データセットの各々を用いて前記語義類似度モデルを順次に訓練する第1訓練ユニットと、
前記高関連度の訓練データセットの集合における前記複数の訓練データセットの各々を用いて前記語義類似度モデルを順次に訓練する第2訓練ユニットと、
を備える請求項6に記載の語義類似度モデルの訓練装置。 - 前記第1訓練ユニットは、
前記目標分野と前記低関連度の訓練データセットの集合における前記複数の訓練データセットの各々に対応する応用分野との関連度の低い順に従って、対応する前記訓練データセットを順次に用いて前記語義類似度モデルをそれぞれ訓練し、或いは、
前記低関連度の訓練データセットの集合における前記複数の訓練データセットの各々をランダムにソートし、前記ランダムにソートされた順に従って対応する前記訓練データセットを順次に用いて前記語義類似度モデルをそれぞれ訓練する、
請求項7に記載の語義類似度モデルの訓練装置。 - 前記分割ユニットは、
前記目標分野と最も関連性の高いN個の応用分野の前記訓練データセットを前記高関連度の訓練データセットの集合に分割し、
残りの前記訓練データセットを前記低関連度の訓練データセットの集合に分割する、
請求項7または8に記載の語義類似度モデルの訓練装置。 - 前記第2訓練ユニットは、
Nが1より大きければ、前記目標分野と前記高関連度の訓練データセットの集合における前記複数の訓練データセットの各々に対応する応用分野との関連度の低い順に従って、対応する前記訓練データセットを順次に用いて前記語義類似度モデルをそれぞれ訓練する、
請求項9に記載の語義類似度モデルの訓練装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されたメモリと、を備え、
前記メモリに前記少なくとも1つのプロセッサにより実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに請求項1〜5のいずれか1項に記載の語義類似度モデルの訓練方法を実行させる電子デバイス。 - コンピュータに請求項1〜5のいずれか1項に記載の語義類似度モデルの訓練方法を実行させるためのコンピュータコマンドが記憶された非一時的なコンピュータ可読記憶媒体。
- コンピュータに請求項1〜5のいずれか1項に記載の語義類似度モデルの訓練方法を実行させるためのコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010399048.X | 2020-05-12 | ||
CN202010399048.XA CN111539220B (zh) | 2020-05-12 | 2020-05-12 | 语义相似度模型的训练方法、装置、电子设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021179978A true JP2021179978A (ja) | 2021-11-18 |
JP7192192B2 JP7192192B2 (ja) | 2022-12-20 |
Family
ID=71979346
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021075224A Active JP7192192B2 (ja) | 2020-05-12 | 2021-04-27 | 語義類似度モデルの訓練方法、装置、電子デバイス及び記憶媒体 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230004753A9 (ja) |
EP (1) | EP3910526A1 (ja) |
JP (1) | JP7192192B2 (ja) |
KR (1) | KR20210139152A (ja) |
CN (1) | CN111539220B (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112669816B (zh) * | 2020-12-24 | 2023-06-02 | 北京有竹居网络技术有限公司 | 模型的训练方法、语音识别方法、装置、介质及设备 |
CN113746899B (zh) * | 2021-07-29 | 2023-04-07 | 济南浪潮数据技术有限公司 | 一种云平台访问方法及装置 |
CN116167455B (zh) * | 2022-12-27 | 2023-12-22 | 北京百度网讯科技有限公司 | 模型训练及数据去重方法、装置、设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120203539A1 (en) * | 2011-02-08 | 2012-08-09 | Microsoft Corporation | Selection of domain-adapted translation subcorpora |
JP2019125343A (ja) * | 2018-01-17 | 2019-07-25 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 曖昧なエンティティワードに基づくテキスト処理方法及び装置 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9311390B2 (en) * | 2008-01-29 | 2016-04-12 | Educational Testing Service | System and method for handling the confounding effect of document length on vector-based similarity scores |
US9846836B2 (en) * | 2014-06-13 | 2017-12-19 | Microsoft Technology Licensing, Llc | Modeling interestingness with deep neural networks |
CN109543036A (zh) * | 2018-11-20 | 2019-03-29 | 四川长虹电器股份有限公司 | 基于语义相似度的文本聚类方法 |
CN109753566B (zh) * | 2019-01-09 | 2020-11-24 | 大连民族大学 | 基于卷积神经网络的跨领域情感分析的模型训练方法 |
CN109960805A (zh) * | 2019-03-26 | 2019-07-02 | 北京博瑞彤芸文化传播股份有限公司 | 一种基于语义领域划分的智能语义匹配方法 |
CN110991195B (zh) * | 2019-12-13 | 2023-09-29 | 北京小米智能科技有限公司 | 机器翻译模型训练方法、装置及存储介质 |
-
2020
- 2020-05-12 CN CN202010399048.XA patent/CN111539220B/zh active Active
-
2021
- 2021-03-22 US US17/209,051 patent/US20230004753A9/en active Pending
- 2021-03-22 EP EP21163971.1A patent/EP3910526A1/en not_active Ceased
- 2021-04-27 JP JP2021075224A patent/JP7192192B2/ja active Active
- 2021-04-28 KR KR1020210055235A patent/KR20210139152A/ko not_active Application Discontinuation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120203539A1 (en) * | 2011-02-08 | 2012-08-09 | Microsoft Corporation | Selection of domain-adapted translation subcorpora |
JP2019125343A (ja) * | 2018-01-17 | 2019-07-25 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 曖昧なエンティティワードに基づくテキスト処理方法及び装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111539220A (zh) | 2020-08-14 |
KR20210139152A (ko) | 2021-11-22 |
US20220300763A1 (en) | 2022-09-22 |
US20230004753A9 (en) | 2023-01-05 |
EP3910526A1 (en) | 2021-11-17 |
JP7192192B2 (ja) | 2022-12-20 |
CN111539220B (zh) | 2022-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7214954B2 (ja) | 言語モデルのトレーニング方法、装置、電子機器、プログラム及び可読記憶媒体 | |
JP7098853B2 (ja) | ラベルラベリングモデルを確立する方法、装置、電子機器、プログラム及び可読記憶媒体 | |
JP7126542B2 (ja) | データセット処理方法、装置、電子機器及び記憶媒体 | |
JP2021190087A (ja) | テキスト認識処理方法、装置、電子機器及び記憶媒体 | |
JP7192192B2 (ja) | 語義類似度モデルの訓練方法、装置、電子デバイス及び記憶媒体 | |
JP7264866B2 (ja) | イベント関係の生成方法、装置、電子機器及び記憶媒体 | |
EP3822842A2 (en) | Method and apparatus for generating semantic representation model, electronic device, and storage medium | |
JP2022018095A (ja) | マルチモーダル事前訓練モデル取得方法、装置、電子デバイス及び記憶媒体 | |
US20210374343A1 (en) | Method and apparatus for obtaining word vectors based on language model, device and storage medium | |
KR102538467B1 (ko) | 모델의 증류 방법, 장치, 전자기기 및 저장매체 | |
KR102573637B1 (ko) | 엔티티 링킹 방법, 장치, 전자 기기 및 기록 매체 | |
JP7179123B2 (ja) | 言語モデルの訓練方法、装置、電子デバイス及び可読記憶媒体 | |
JP2021197131A (ja) | 機械翻訳におけるモデルトレーニング方法、装置、電子機器、プログラム及び記憶媒体 | |
JP2021174516A (ja) | ナレッジグラフ構築方法、装置、電子機器、記憶媒体およびコンピュータプログラム | |
JP2022008207A (ja) | トリプルサンプルの生成方法、装置、電子デバイス及び記憶媒体 | |
CN111709252B (zh) | 基于预训练的语义模型的模型改进方法及装置 | |
CN111079945B (zh) | 端到端模型的训练方法及装置 | |
JP7279138B2 (ja) | 多言語モデルの訓練方法、装置、電子デバイス及び可読記憶媒体 | |
JP2021099890A (ja) | 因果関係の判別方法、装置、電子機器及び記憶媒体 | |
JP7230304B2 (ja) | 対話生成方法、装置、電子機器、プログラム及び記憶媒体 | |
CN111950293B (zh) | 语义表示模型的生成方法、装置、电子设备及存储介质 | |
JP2021192289A (ja) | 機械学習モデルの敵対的訓練方法、装置、電子機器及び媒体 | |
JP7201654B2 (ja) | 意味表現に基づくテキスト生成方法、意味表現に基づくテキスト生成装置、電子機器、非一時的なコンピュータ読み取り可能な記憶媒体及びコンピュータプログラム | |
JP2021111400A (ja) | ビデオセグメント記述の生成方法、装置、プログラム、電子デバイス及び記憶媒体 | |
CN118113293A (zh) | 深度学习框架的代码处理方法及其装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210427 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220531 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220818 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221116 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7192192 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |