JP2022020582A - 自然言語処理モデルの訓練方法、装置、デバイス及び記憶媒体 - Google Patents
自然言語処理モデルの訓練方法、装置、デバイス及び記憶媒体 Download PDFInfo
- Publication number
- JP2022020582A JP2022020582A JP2021117352A JP2021117352A JP2022020582A JP 2022020582 A JP2022020582 A JP 2022020582A JP 2021117352 A JP2021117352 A JP 2021117352A JP 2021117352 A JP2021117352 A JP 2021117352A JP 2022020582 A JP2022020582 A JP 2022020582A
- Authority
- JP
- Japan
- Prior art keywords
- natural language
- language processing
- processing model
- training
- training corpus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
Claims (13)
- 自然言語処理モデルの訓練方法であって、
予め設定されたコーパスセットに基づいて、それぞれ照応解析タスクのポジティブサンプルとネガティブサンプルが含まれる各訓練コーパスペアを構築することと、
各前記訓練コーパスペアを用いて、対応する前記ポジティブサンプルと前記ネガティブサンプルとを識別する能力を学習するように、前記自然言語処理モデルを訓練することと、
各前記訓練コーパスペアのポジティブサンプルを用いて、照応解析タスクの能力を学習するように、前記自然言語処理モデルを訓練することと、を含む、
方法。 - 予め設定されたコーパスセットに基づいて、照応解析タスクの各訓練コーパスペアを構築することは、
前記予め設定されたコーパスセットにおける各コーパスについて、対応する前記コーパスのうち非初出の目的名詞を代名詞に置き換えて訓練コーパスとすることと、
前記訓練コーパスから他の名詞を取得することと、
前記訓練コーパス及び前記代名詞が前記目的名詞を照応する照応関係を前記訓練コーパスペアのポジティブサンプルとすることと、
前記訓練コーパス及び前記代名詞が前記他の名詞を照応する照応関係を前記訓練コーパスペアのネガティブサンプルとすることと、を含む、
請求項1に記載の方法。 - 各前記訓練コーパスペアを用いて、対応する前記ポジティブサンプルと前記ネガティブサンプルとを識別する能力を学習するように前記自然言語処理モデルを訓練することは、
前記自然言語処理モデルが前記ポジティブサンプル及び前記ネガティブサンプルにおける照応関係が正しいかどうかをそれぞれ予測することを学習するように、各前記訓練コーパスペアを前記自然言語処理モデルに入力することと、
予測が誤る場合に、前記自然言語処理モデルが前記ポジティブサンプルと前記ネガティブサンプルにおける照応関係を正しく予測する傾向に調整されるように、前記自然言語処理モデルのパラメータを調整することと、を含む、
請求項1又は2に記載の方法。 - 各前記訓練コーパスペアのポジティブサンプルを用いて、照応解析タスクの能力を学習するように前記自然言語処理モデルを訓練することは、
各前記訓練コーパスペアの前記ポジティブサンプルの訓練コーパスにおける代名詞をマスキングすることと、
前記自然言語処理モデルが前記代名詞が前記訓練コーパスにおける各名詞に属する確率を予測するように、前記代名詞がマスキングされた前記訓練コーパスを前記自然言語処理モデルに入力することと、
前記自然言語処理モデルにより予測された前記代名詞が前記訓練コーパスにおける各名詞に属する確率と、前記ポジティブサンプルにおいて標識された前記代名詞が照応する目的名詞とに基づいて目標損失関数を生成することと、
前記目標損失関数が収束しているか否かを判定することと、
収束しない場合に、勾配降下法に基づいて前記自然言語処理モデルのパラメータを調整することと、を含む、
請求項1又は2に記載の方法。 - 前記自然言語処理モデルにより予測された前記代名詞が前記訓練コーパスにおける各名詞に属する確率と、前記ポジティブサンプルにおいて標識された前記代名詞が照応する目的名詞とに基づいて目標損失関数を生成することは、
前記ポジティブサンプルにおいて標識された前記代名詞が照応する目的名詞に基づいて、前記自然言語処理モデルにより予測された前記代名詞が前記目的名詞に属する確率を取得することと、
前記自然言語処理モデルにより予測された前記代名詞が前記目的名詞に属する確率に基づいて第1損失関数を構築することと、
前記自然言語処理モデルにより予測された前記代名詞が前記目的名詞以外の他の名詞に属する確率に基づいて第2損失関数を構築することと、
前記第1損失関数及び前記第2損失関数に基づいて前記目標損失関数を生成することと、を含む、
請求項4に記載の方法。 - 自然言語処理モデルの訓練装置であって、
予め設定されたコーパスセットに基づいて、それぞれ照応解析タスクのポジティブサンプルとネガティブサンプルが含まれる各訓練コーパスペアを構築する構築モジュールと、
各前記訓練コーパスペアを用いて、対応する前記ポジティブサンプル及び前記ネガティブサンプルを識別する能力を学習するように前記自然言語処理モデルを訓練する第1訓練モジュールと、
各前記訓練コーパスペアのポジティブサンプルを用いて、照応解析タスクの能力を学習するように前記自然言語処理モデルを訓練する第2訓練モジュールと、を備える、
装置。 - 前記構築モジュールは、
前記予め設定されたコーパスセットにおける各コーパスについて、対応する前記コーパスのうち非初出の目的名詞を代名詞に置き換えて訓練コーパスとする置換部と、
前記訓練コーパスから他の名詞を取得する取得部と、
前記訓練コーパスと前記代名詞が前記目的名詞を照応する照応関係とを前記訓練コーパスペアのポジティブサンプルとする設置部と、を備え、
前記設置部は、更に、前記訓練コーパス及び前記代名詞が前記他の名詞に照応する照応関係を前記訓練コーパスペアのネガティブサンプルとする、
請求項6に記載の装置。 - 前記第1訓練モジュールは、
前記自然言語処理モデルが前記ポジティブサンプル及び前記ネガティブサンプルにおける照応関係が正しいか否かをそれぞれ予測することを学習するように、各前記訓練コーパスペアを前記自然言語処理モデルに入力する第1予測部と、
予測が誤る場合に、前記自然言語処理モデルが前記ポジティブサンプル及び前記ネガティブサンプルにおける照応関係を正しく予測する傾向に調整されるように、前記自然言語処理モデルのパラメータを調整する第1調整部と、を備える、
請求項6又は7に記載の装置。 - 前記第2訓練モジュールは、
各前記訓練コーパスペアの前記ポジティブサンプルの訓練コーパスにおける代名詞をマスキングするマスキング部と、
前記自然言語処理モデルが前記代名詞が前記訓練コーパスにおける各名詞に属する確率を予測するように、前記代名詞がマスキングされた前記訓練コーパスを前記自然言語処理モデルに入力する第2予測部と、
前記自然言語処理モデルにより予測された前記代名詞が前記訓練コーパスにおける各名詞に属する確率と、前記ポジティブサンプルにおいて標識された前記代名詞が照応する目的名詞とに基づいて、目標損失関数を生成する生成部と、
前記目標損失関数が収束しているか否かを判定する検出部と、
収束しない場合に、勾配降下法に基づいて前記自然言語処理モデルのパラメータを調整する第2調整部と、を備える、
請求項6又は7に記載の装置。 - 前記生成部は、
前記ポジティブサンプルにおいて標識された前記代名詞が照応する目的名詞に基づいて、前記自然言語処理モデルにより予測された前記代名詞が前記目的名詞に属する確率を取得し、
前記自然言語処理モデルにより予測された前記代名詞が前記目的名詞に属する確率に基づいて第1損失関数を構築し、
前記自然言語処理モデルにより予測された前記代名詞が前記目的名詞以外の他の名詞に属する確率に基づいて第2損失関数を構築し、
前記第1損失関数及び前記第2損失関数に基づいて前記目標損失関数を生成する、
請求項9に記載の装置。 - 少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサと通信接続されたメモリと、を備え、
前記メモリに前記少なくとも1つのプロセッサにより実行可能なコマンドが記憶されており、前記コマンドが前記少なくとも1つのプロセッサにより実行されると、前記少なくとも1つのプロセッサに請求項1~5のいずれか1項に記載の方法を実行させる電子デバイス。 - コンピュータに請求項1~5のいずれか1項に記載の方法を実行させるためのコンピュータコマンドが記憶された非一時的なコンピュータ可読記憶媒体。
- コンピュータに請求項1~5のいずれか1項に記載の方法を実行させるためのプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010699284.3A CN112001190B (zh) | 2020-07-20 | 2020-07-20 | 自然语言处理模型的训练方法、装置、设备及存储介质 |
CN202010699284.3 | 2020-07-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022020582A true JP2022020582A (ja) | 2022-02-01 |
JP7293543B2 JP7293543B2 (ja) | 2023-06-20 |
Family
ID=73467685
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021117352A Active JP7293543B2 (ja) | 2020-07-20 | 2021-07-15 | 自然言語処理モデルの訓練方法、装置、電子デバイス、コンピュータ可読記憶媒体及びプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20220019736A1 (ja) |
EP (1) | EP3944128A1 (ja) |
JP (1) | JP7293543B2 (ja) |
KR (1) | KR102549972B1 (ja) |
CN (1) | CN112001190B (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112989043B (zh) * | 2021-03-17 | 2024-03-12 | 中国平安人寿保险股份有限公司 | 指代消解方法、装置、电子设备及可读存储介质 |
CN113011162B (zh) * | 2021-03-18 | 2023-07-28 | 北京奇艺世纪科技有限公司 | 一种指代消解方法、装置、电子设备及介质 |
CN113409884B (zh) * | 2021-06-30 | 2022-07-22 | 北京百度网讯科技有限公司 | 排序学习模型的训练方法及排序方法、装置、设备及介质 |
CN114091467A (zh) * | 2021-10-27 | 2022-02-25 | 北京奇艺世纪科技有限公司 | 指代消解模型的训练方法及装置、电子设备 |
CN114091468A (zh) * | 2021-10-27 | 2022-02-25 | 北京奇艺世纪科技有限公司 | 指代消解模型的训练方法及装置、电子设备 |
CN114444462B (zh) * | 2022-01-26 | 2022-11-29 | 北京百度网讯科技有限公司 | 模型训练方法及人机交互方法、装置 |
CN115035890B (zh) * | 2022-06-23 | 2023-12-05 | 北京百度网讯科技有限公司 | 语音识别模型的训练方法、装置、电子设备及存储介质 |
CN115470781B (zh) * | 2022-11-01 | 2023-03-14 | 北京红棉小冰科技有限公司 | 语料生成方法、装置和电子设备 |
CN116050433B (zh) * | 2023-02-13 | 2024-03-26 | 北京百度网讯科技有限公司 | 自然语言处理模型的场景适配方法、装置、设备及介质 |
CN116629235B (zh) * | 2023-07-25 | 2024-01-05 | 深圳须弥云图空间科技有限公司 | 大规模预训练语言模型微调方法、装置、电子设备及介质 |
CN117708601B (zh) * | 2024-02-06 | 2024-04-26 | 智慧眼科技股份有限公司 | 一种相似度计算模型训练方法、装置、设备及存储介质 |
CN117892828B (zh) * | 2024-03-18 | 2024-05-31 | 青岛市勘察测绘研究院 | 一种地理信息系统自然语言交互方法、装置、设备及介质 |
CN118551751A (zh) * | 2024-07-26 | 2024-08-27 | 北京神州泰岳软件股份有限公司 | 基于大语言模型的多智能体协同方法、装置、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012150586A (ja) * | 2011-01-18 | 2012-08-09 | Toshiba Corp | 学習装置、判定装置、学習方法、判定方法、学習プログラム及び判定プログラム |
WO2014002172A1 (ja) * | 2012-06-25 | 2014-01-03 | 株式会社東芝 | 文脈解析装置および文脈解析方法 |
WO2018174816A1 (en) * | 2017-03-24 | 2018-09-27 | Agency For Science, Technology And Research | Method and apparatus for semantic coherence analysis of texts |
US20190197109A1 (en) * | 2017-12-26 | 2019-06-27 | The Allen Institute For Artificial Intelligence | System and methods for performing nlp related tasks using contextualized word representations |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7016829B2 (en) * | 2001-05-04 | 2006-03-21 | Microsoft Corporation | Method and apparatus for unsupervised training of natural language processing units |
CN101901213A (zh) * | 2010-07-29 | 2010-12-01 | 哈尔滨工业大学 | 一种基于实例动态泛化的共指消解方法 |
US9514098B1 (en) * | 2013-12-09 | 2016-12-06 | Google Inc. | Iteratively learning coreference embeddings of noun phrases using feature representations that include distributed word representations of the noun phrases |
CN105988990B (zh) * | 2015-02-26 | 2021-06-01 | 索尼公司 | 汉语零指代消解装置和方法、模型训练方法和存储介质 |
US9898460B2 (en) * | 2016-01-26 | 2018-02-20 | International Business Machines Corporation | Generation of a natural language resource using a parallel corpus |
US11704552B2 (en) * | 2018-10-29 | 2023-07-18 | Microsoft Technology Licensing, Llc | Task detection in communications using domain adaptation |
CN110765235B (zh) * | 2019-09-09 | 2023-09-05 | 深圳市人马互动科技有限公司 | 训练数据的生成方法、装置、终端及可读介质 |
CN111160006B (zh) * | 2019-12-06 | 2023-06-02 | 北京明略软件系统有限公司 | 一种实现指代消解的方法及装置 |
CN110717339B (zh) * | 2019-12-12 | 2020-06-30 | 北京百度网讯科技有限公司 | 语义表示模型的处理方法、装置、电子设备及存储介质 |
CN111428490B (zh) * | 2020-01-17 | 2021-05-18 | 北京理工大学 | 一种利用语言模型的指代消解弱监督学习方法 |
CN113806646A (zh) * | 2020-06-12 | 2021-12-17 | 上海智臻智能网络科技股份有限公司 | 序列标注系统及序列标注模型的训练系统 |
-
2020
- 2020-07-20 CN CN202010699284.3A patent/CN112001190B/zh active Active
-
2021
- 2021-03-24 EP EP21164450.5A patent/EP3944128A1/en not_active Ceased
- 2021-03-24 US US17/211,669 patent/US20220019736A1/en not_active Abandoned
- 2021-07-08 KR KR1020210089985A patent/KR102549972B1/ko active IP Right Grant
- 2021-07-15 JP JP2021117352A patent/JP7293543B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012150586A (ja) * | 2011-01-18 | 2012-08-09 | Toshiba Corp | 学習装置、判定装置、学習方法、判定方法、学習プログラム及び判定プログラム |
WO2014002172A1 (ja) * | 2012-06-25 | 2014-01-03 | 株式会社東芝 | 文脈解析装置および文脈解析方法 |
CN104169909A (zh) * | 2012-06-25 | 2014-11-26 | 株式会社东芝 | 上下文解析装置及上下文解析方法 |
US20150032444A1 (en) * | 2012-06-25 | 2015-01-29 | Kabushiki Kaisha Toshiba | Contextual analysis device and contextual analysis method |
WO2018174816A1 (en) * | 2017-03-24 | 2018-09-27 | Agency For Science, Technology And Research | Method and apparatus for semantic coherence analysis of texts |
US20190197109A1 (en) * | 2017-12-26 | 2019-06-27 | The Allen Institute For Artificial Intelligence | System and methods for performing nlp related tasks using contextualized word representations |
Non-Patent Citations (1)
Title |
---|
飯田 龍,外3名: "文脈的手がかりを考慮した機械学習によるゼロ照応解析", 言語処理学会 第9回年次大会 発表論文集, JPN6022042110, 20 March 2003 (2003-03-20), JP, pages 585 - 588, ISSN: 0004893599 * |
Also Published As
Publication number | Publication date |
---|---|
CN112001190B (zh) | 2024-09-20 |
EP3944128A1 (en) | 2022-01-26 |
CN112001190A (zh) | 2020-11-27 |
KR20220011082A (ko) | 2022-01-27 |
KR102549972B1 (ko) | 2023-06-29 |
JP7293543B2 (ja) | 2023-06-20 |
US20220019736A1 (en) | 2022-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2022020582A (ja) | 自然言語処理モデルの訓練方法、装置、デバイス及び記憶媒体 | |
JP7247441B2 (ja) | セマンティック表現モデルの処理方法、装置、電子機器、及び記憶媒体 | |
KR102497945B1 (ko) | 텍스트 인식 처리 방법, 장치, 전자 기기 및 저장매체 | |
Uc-Cetina et al. | Survey on reinforcement learning for language processing | |
JP7317791B2 (ja) | エンティティ・リンキング方法、装置、機器、及び記憶媒体 | |
KR102577514B1 (ko) | 텍스트 창작 방법, 텍스트 창작 장치, 전자 기기 및 저장 매체 | |
JP2022031804A (ja) | イベント抽出方法、装置、電子機器及び記憶媒体 | |
KR102573637B1 (ko) | 엔티티 링킹 방법, 장치, 전자 기기 및 기록 매체 | |
KR102472708B1 (ko) | 감정 분석 모델을 사전 트레이닝하는 방법, 장치 및 전자 기기 | |
JP7242993B2 (ja) | 多言語語義表現モデルの訓練方法、装置、デバイス及び記憶媒体 | |
JP2021149916A (ja) | ラベルラベリングモデルを確立する方法、装置、電子機器、プログラム及び可読記憶媒体 | |
Sha | Gradient-guided unsupervised lexically constrained text generation | |
EP3055789A1 (en) | Smart selection of text spans | |
CN111079945B (zh) | 端到端模型的训练方法及装置 | |
US20210406467A1 (en) | Method and apparatus for generating triple sample, electronic device and computer storage medium | |
CN111831814A (zh) | 摘要生成模型的预训练方法、装置、电子设备和存储介质 | |
JP7286737B2 (ja) | テキスト誤り訂正方法、装置、電子デバイス、記憶媒体及びプログラム | |
US11562150B2 (en) | Language generation method and apparatus, electronic device and storage medium | |
CA3191100A1 (en) | Automatically identifying multi-word expressions | |
Wang et al. | Learning morpheme representation for mongolian named entity recognition | |
JP2024526395A (ja) | エンドツーエンドセンシティブテキストリコールモデルのトレーニング方法、センシティブテキストリコール方法 | |
Vo | Se4exsum: An integrated semantic-aware neural approach with graph convolutional network for extractive text summarization | |
Zhou et al. | An attention-based model for joint extraction of entities and relations with implicit entity features | |
Ibraheem et al. | Learning an interactive attention policy for neural machine translation | |
Gölman | ElektroCHAT: A Knowledge Base-Driven Dialogue System for Electrical Engineering Students: A Proposal for Interactive Tutoring |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210715 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220824 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221011 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230105 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230509 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230515 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7293543 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |