JP7358748B2 - 学習方法、抽出方法、学習プログラムおよび情報処理装置 - Google Patents
学習方法、抽出方法、学習プログラムおよび情報処理装置 Download PDFInfo
- Publication number
- JP7358748B2 JP7358748B2 JP2019038079A JP2019038079A JP7358748B2 JP 7358748 B2 JP7358748 B2 JP 7358748B2 JP 2019038079 A JP2019038079 A JP 2019038079A JP 2019038079 A JP2019038079 A JP 2019038079A JP 7358748 B2 JP7358748 B2 JP 7358748B2
- Authority
- JP
- Japan
- Prior art keywords
- learning
- input sentence
- named entity
- word
- learning model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Machine Translation (AREA)
Description
所定の対象を第1の固有表現で表記した第1入力文を第1学習モデルに入力した場合、前記第1学習モデルから出力される値が、前記第1入力文に対応する正解情報に近づくように、前記第1学習モデルの第1パラメータを学習し、
前記第1入力文を前記第1学習モデルに入力した際に生成される中間表現と、前記所定の対象を第2の固有表現で表記した第2入力文とを第2学習モデルに入力した場合、前記第2学習モデルから出力される値が、前記第2入力文に対応する正解情報に近づくように、前記第1パラメータおよび前記第2学習モデルの第2パラメータを学習する
処理を実行することを特徴とする学習方法。
所定の対象を第1の固有表現で表記した第1入力文を第1学習モデルに入力した場合、前記第1学習モデルから出力される値が、前記第1入力文に対応する正解情報に近づくように、前記第1学習モデルの第1パラメータを学習し、
前記第1入力文を前記第1学習モデルに入力した際に生成される中間表現と、前記所定の対象を第2の固有表現で表記した第2入力文とを第2学習モデルに入力した場合、前記第2学習モデルから出力される値が、前記第2入力文に対応する正解情報に近づくように、前記第1パラメータおよび前記第2学習モデルの第2パラメータを学習し、
学習済みの前記第1パラメータを設定した前記第1学習モデルに、固有表現の抽出対象となる入力文を入力し、前記第1学習モデルから出力される値を基にして、前記入力文から固有表現を抽出する
処理を実行することを特徴とする抽出方法。
所定の対象を第1の固有表現で表記した第1入力文を第1学習モデルに入力した場合、前記第1学習モデルから出力される値が、前記第1入力文に対応する正解情報に近づくように、前記第1学習モデルの第1パラメータを学習し、
前記第1入力文を前記第1学習モデルに入力した際に生成される中間表現と、前記所定の対象を第2の固有表現で表記した第2入力文とを第2学習モデルに入力した場合、前記第2学習モデルから出力される値が、前記第2入力文に対応する正解情報に近づくように、前記第1パラメータおよび前記第2学習モデルの第2パラメータを学習する
処理を実行させることを特徴とする学習プログラム。
前記第1入力文を前記第1学習モデルに入力した際に生成される中間表現と、前記所定の対象を第2の固有表現で表記した第2入力文とを第2学習モデルに入力した場合、前記第2学習モデルから出力される値が、前記第2入力文に対応する正解情報に近づくように、前記第1パラメータおよび前記第2学習モデルの第2パラメータを学習する第2学習部と
を有することを特徴とする情報処理装置。
110 学習処理部
111a 学習データ記憶部
111b モデル記憶部
112,122 エンコーダ実行部
113 デコーダ実行部
114 第1学習部
115 第2学習部
120 抽出処理部
121 取得部
123 抽出部
Claims (6)
- コンピュータが実行する学習方法であって、
所定の対象を第1の固有表現で表現した単語と前記第1の固有表現以外で表記した単語とを含む第1入力文を、入力文に含まれる単語が固有表現であるか否かを判定する第1学習モデルに入力した場合、前記第1学習モデルから出力される値が、前記第1入力文に対応する正解情報に近づくように、前記第1学習モデルの第1パラメータを学習し、
前記第1入力文を前記第1学習モデルに入力した際に生成される中間表現と、前記所定の対象を第2の固有表現で表現した単語と前記第2の固有表現以外で表記した単語とを含む第2入力文と、を入力文に含まれる前記第2の固有表現で表記した単語に対応する言い換えの固有表現で表記した単語を出力する第2学習モデルに入力した場合、前記第2学習モデルから出力される値が、前記第2入力文に対応する正解情報に近づくように、前記第1パラメータおよび前記第2学習モデルの第2パラメータを学習する
処理を実行することを特徴とする学習方法。 - 前記第1学習モデルおよび前記第2学習モデルは、RNN(Recurrent Neural Network)を有し、前記第1パラメータを学習する処理、前記第1パラメータおよび前記第2パラメータを学習する処理は、前記RNNのパラメータを学習することを特徴とする請求項1に記載の学習方法。
- 前記所定の対象は、化合物、人物、会社を含むことを特徴とする請求項1または2に記載の学習方法。
- コンピュータが実行する抽出方法であって、
所定の対象を第1の固有表現で表現した単語と前記第1の固有表現以外で表記した単語とを含む第1入力文を、入力文に含まれる単語が固有表現であるか否かを判定する第1学習モデルに入力した場合、前記第1学習モデルから出力される値が、前記第1入力文に対応する正解情報に近づくように、前記第1学習モデルの第1パラメータを学習し、
前記第1入力文を前記第1学習モデルに入力した際に生成される中間表現と、前記所定の対象を第2の固有表現で表現した単語と前記第2の固有表現以外で表記した単語とを含む第2入力文と、を入力文に含まれる前記第2の固有表現で表記した単語に対応する言い換えの固有表現で表記した単語を出力する第2学習モデルに入力した場合、前記第2学習モデルから出力される値が、前記第2入力文に対応する正解情報に近づくように、前記第1パラメータおよび前記第2学習モデルの第2パラメータを学習し、
学習済みの前記第1パラメータを設定した前記第1学習モデルに、固有表現の抽出対象となる入力文を入力し、前記第1学習モデルから出力される値を基にして、前記入力文から固有表現を抽出する
処理を実行することを特徴とする抽出方法。 - コンピュータに、
所定の対象を第1の固有表現で表現した単語と前記第1の固有表現以外で表記した単語とを含む第1入力文を、入力文に含まれる単語が固有表現であるか否かを判定する第1学習モデルに入力した場合、前記第1学習モデルから出力される値が、前記第1入力文に対応する正解情報に近づくように、前記第1学習モデルの第1パラメータを学習し、
前記第1入力文を前記第1学習モデルに入力した際に生成される中間表現と、前記所定の対象を第2の固有表現で表現した単語と前記第2の固有表現以外で表記した単語とを含む第2入力文と、を入力文に含まれる前記第2の固有表現で表記した単語に対応する言い換えの固有表現で表記した単語を出力する第2学習モデルに入力した場合、前記第2学習モデルから出力される値が、前記第2入力文に対応する正解情報に近づくように、前記第1パラメータおよび前記第2学習モデルの第2パラメータを学習する
処理を実行させることを特徴とする学習プログラム。 - 所定の対象を第1の固有表現で表現した単語と前記第1の固有表現以外で表記した単語とを含む第1入力文を、入力文に含まれる単語が固有表現であるか否かを判定する第1学習モデルに入力した場合、前記第1学習モデルから出力される値が、前記第1入力文に対応する正解情報に近づくように、前記第1学習モデルの第1パラメータを学習する第1学習部と、
前記第1入力文を前記第1学習モデルに入力した際に生成される中間表現と、前記所定の対象を第2の固有表現で表現した単語と前記第2の固有表現以外で表記した単語とを含む第2入力文と、を入力文に含まれる前記第2の固有表現で表記した単語に対応する言い換えの固有表現で表記した単語を出力する第2学習モデルに入力した場合、前記第2学習モデルから出力される値が、前記第2入力文に対応する正解情報に近づくように、前記第1パラメータおよび前記第2学習モデルの第2パラメータを学習する第2学習部と
を有することを特徴とする情報処理装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019038079A JP7358748B2 (ja) | 2019-03-01 | 2019-03-01 | 学習方法、抽出方法、学習プログラムおよび情報処理装置 |
US16/801,930 US11977975B2 (en) | 2019-03-01 | 2020-02-26 | Learning method using machine learning to generate correct sentences, extraction method, and information processing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019038079A JP7358748B2 (ja) | 2019-03-01 | 2019-03-01 | 学習方法、抽出方法、学習プログラムおよび情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020140676A JP2020140676A (ja) | 2020-09-03 |
JP7358748B2 true JP7358748B2 (ja) | 2023-10-11 |
Family
ID=72236667
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019038079A Active JP7358748B2 (ja) | 2019-03-01 | 2019-03-01 | 学習方法、抽出方法、学習プログラムおよび情報処理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11977975B2 (ja) |
JP (1) | JP7358748B2 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220222489A1 (en) * | 2021-01-13 | 2022-07-14 | Salesforce.Com, Inc. | Generation of training data for machine learning based models for named entity recognition for natural language processing |
WO2022201309A1 (ja) * | 2021-03-23 | 2022-09-29 | 日本電気株式会社 | 情報補完装置、情報補完方法、及びコンピュータ読み取り可能な記録媒体 |
CN114357176B (zh) * | 2021-11-26 | 2023-11-21 | 永中软件股份有限公司 | 实体知识自动抽取方法和计算机装置、计算机可读介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5245255B2 (ja) * | 2007-02-15 | 2013-07-24 | 富士通株式会社 | 固有表現抽出プログラム、固有表現抽出方法および固有表現抽出装置 |
JP2011501847A (ja) * | 2007-10-17 | 2011-01-13 | アイティーアイ・スコットランド・リミテッド | コンピュータで実現される方法 |
CN105824797B (zh) * | 2015-01-04 | 2019-11-12 | 华为技术有限公司 | 一种评价语义相似度的方法、装置和系统 |
JP6816421B2 (ja) * | 2016-09-15 | 2021-01-20 | 富士通株式会社 | 学習プログラム、学習方法及び学習装置 |
US10915707B2 (en) * | 2017-10-20 | 2021-02-09 | MachineVantage, Inc. | Word replaceability through word vectors |
JP7139626B2 (ja) * | 2018-03-02 | 2022-09-21 | 日本電信電話株式会社 | フレーズ生成関係性推定モデル学習装置、フレーズ生成装置、方法、及びプログラム |
WO2019202136A1 (en) * | 2018-04-19 | 2019-10-24 | Koninklijke Philips N.V. | Machine learning model with evolving domain-specific lexicon features for text annotation |
US11600194B2 (en) * | 2018-05-18 | 2023-03-07 | Salesforce.Com, Inc. | Multitask learning as question answering |
CN109190120B (zh) * | 2018-08-31 | 2020-01-21 | 第四范式(北京)技术有限公司 | 神经网络训练方法和装置及命名实体识别方法和装置 |
US11093714B1 (en) * | 2019-03-05 | 2021-08-17 | Amazon Technologies, Inc. | Dynamic transfer learning for neural network modeling |
-
2019
- 2019-03-01 JP JP2019038079A patent/JP7358748B2/ja active Active
-
2020
- 2020-02-26 US US16/801,930 patent/US11977975B2/en active Active
Non-Patent Citations (1)
Title |
---|
Gamal Crichton 他3名,A neural network multi-task learning approach to biomedical named entity recognition,BMC Bioinfomatics,2017年08月15日 |
Also Published As
Publication number | Publication date |
---|---|
US20200279159A1 (en) | 2020-09-03 |
US11977975B2 (en) | 2024-05-07 |
JP2020140676A (ja) | 2020-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11604956B2 (en) | Sequence-to-sequence prediction using a neural network model | |
US11972365B2 (en) | Question responding apparatus, question responding method and program | |
KR102382499B1 (ko) | 번역 방법, 타깃 정보 결정 방법, 관련 장치 및 저장 매체 | |
Astudillo et al. | Transition-based parsing with stack-transformers | |
KR102542914B1 (ko) | 다중언어 번역 장치 및 다중언어 번역 방법 | |
JP7358748B2 (ja) | 学習方法、抽出方法、学習プログラムおよび情報処理装置 | |
CN110264991A (zh) | 语音合成模型的训练方法、语音合成方法、装置、设备及存储介质 | |
JP6772213B2 (ja) | 質問応答装置、質問応答方法及びプログラム | |
JP7315065B2 (ja) | 質問生成装置、質問生成方法及びプログラム | |
CN108132932B (zh) | 带有复制机制的神经机器翻译方法 | |
CN111144110A (zh) | 拼音标注方法、装置、服务器及存储介质 | |
CN110807335B (zh) | 基于机器学习的翻译方法、装置、设备及存储介质 | |
CN111611805B (zh) | 一种基于图像的辅助写作方法、装置、介质及设备 | |
CN110352423A (zh) | 序列转换神经网络 | |
CN112395888A (zh) | 机器翻译设备和方法 | |
CN111814479A (zh) | 一种企业简称生成及其模型的训练方法及装置 | |
KR20210044559A (ko) | 출력 토큰 결정 방법 및 장치 | |
WO2019163752A1 (ja) | 形態素解析学習装置、形態素解析装置、方法、及びプログラム | |
Nanayakkara et al. | Context aware back-transliteration from english to sinhala | |
JP7218803B2 (ja) | モデル学習装置、方法及びプログラム | |
CN110442706B (zh) | 一种文本摘要生成的方法、系统、设备及存储介质 | |
JP2020140674A (ja) | 回答選択装置及びプログラム | |
US20240144025A1 (en) | Information processing device, information processing method, program | |
JP7420180B2 (ja) | 機械読解方法、装置、およびコンピュータ読み取り可能な記憶媒体 | |
JP2019012455A (ja) | 語義ベクトル生成プログラム、語義ベクトル生成方法および語義ベクトル生成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20211208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221028 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221223 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230328 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230628 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230911 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7358748 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |