JPWO2020261002A5 - - Google Patents
Download PDFInfo
- Publication number
- JPWO2020261002A5 JPWO2020261002A5 JP2021575889A JP2021575889A JPWO2020261002A5 JP WO2020261002 A5 JPWO2020261002 A5 JP WO2020261002A5 JP 2021575889 A JP2021575889 A JP 2021575889A JP 2021575889 A JP2021575889 A JP 2021575889A JP WO2020261002 A5 JPWO2020261002 A5 JP WO2020261002A5
- Authority
- JP
- Japan
- Prior art keywords
- training
- emphasized
- text
- emphasis
- new
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003058 natural language processing Methods 0.000 claims 10
- 238000006243 chemical reaction Methods 0.000 claims 4
- 238000000034 method Methods 0.000 claims 2
- 238000004590 computer program Methods 0.000 claims 1
Claims (21)
第1の複数のトレーニング・ノードを含む強調付きトレーニング・テキストをインポートすることと、
第2の複数のトレーニング・ノードを含む強調なしトレーニング・テキストをインポートすることと、
前記強調付きおよび強調なしトレーニング・テキストをワンホット・エンコードすることと、
前記強調付きおよび強調なしトレーニング・テキストを用いて投影モデルをトレーニングすることと、
前記投影モデルを用いて前記強調付きトレーニング・テキストを処理することと、
処理された前記強調付きトレーニング・テキストを用いて分類器モデルをトレーニングすることと、
複数の新たなノードを含む新たなテキストをインポートすることと、
前記新たなテキストをワンホット・エンコードすることと、
前記投影モデルを用いて前記新たなテキストを処理することと、
前記分類器モデルを用いて、前記複数の新たなノードの1つが求められるクラスにあるかどうかを判定することと
を含む、方法。 A processor- implemented method, the method comprising:
importing a training text with emphasis that includes a first plurality of training nodes;
importing a non-emphasized training text containing a second plurality of training nodes;
one-hot encoding the emphasized and non-emphasized training text;
training a projection model using the emphasized and non-emphasized training text;
processing the training text with emphasis using the projection model;
training a classifier model using the processed emphasized training text;
importing new text containing a plurality of new nodes;
one-hot encoding the new text;
processing the new text using the projection model;
and determining whether one of the plurality of new nodes is in a desired class using the classifier model.
各ノードが前記求められるクラスにあるかどうかの前記判定と、各ノードの前記強調とを比較することと、
前記強調と同じである判定の数を増加させるように前記分類器モデルを調整することと
をさらに含む、請求項1から請求項4のいずれか一項に記載の方法。 processing the processed stressed training text with the classifier model to determine whether each node is in the desired class;
comparing the determination of whether each node is in the required class and the emphasis of each node;
5. The method of any one of claims 1-4 , further comprising: adjusting the classifier model to increase the number of decisions that are the same as the emphasis.
前記投影モデルをトレーニングする前に、前記特徴選択に基づいて前記強調付きおよび強調なしトレーニング・テキストからノードを除去することと
をさらに含む、請求項1から請求項5のいずれか一項に記載の方法。 performing feature selection;
6. The method of claim 1, further comprising: removing nodes from the emphasized and unemphasized training texts based on the feature selection prior to training the projection model. Method.
第1の複数のトレーニング・ノードを含む強調付きトレーニング・テキストをインポートすることと、
第2の複数のトレーニング・ノードを含む強調なしトレーニング・テキストをインポートすることと、
前記強調付きトレーニング・テキストを強調付きトレーニング変換テーブルに変換することと、
前記強調なしトレーニング・テキストを強調なしトレーニング変換テーブルに変換することと、
前記強調付きおよび強調なしトレーニング変換テーブルを用いてワンホット・エンコーダをトレーニングすることと、
前記強調付きトレーニング変換テーブルをワンホット・エンコードして強調付きトレーニング・ベクトルを生成することと、
前記強調なしトレーニング変換テーブルをワンホット・エンコードして強調なしトレーニング・ベクトルを生成することと、
前記強調付きおよび強調なしトレーニング・ベクトルを用いて投影モデルをトレーニングすることと、
前記投影モデルを用いて前記強調付きトレーニング・ベクトルを処理して処理された強調付きトレーニング・ベクトルを生成することと、
前記処理された強調付きトレーニング・ベクトルを用いて分類器モデルをトレーニングすることとを含み、前記分類器モデルはノードが求められるクラスにあるかどうかを判定する、方法。 A training method executed by a processor , the method comprising:
importing a training text with emphasis that includes a first plurality of training nodes;
importing a non-emphasized training text containing a second plurality of training nodes;
converting the emphasized training text into an emphasized training conversion table;
converting the non-emphasized training text into a non-emphasized training conversion table;
training a one-hot encoder with the emphasized and non-emphasized training transform tables;
one-hot encoding the emphasized training transform table to generate an emphasized training vector;
one-hot encoding the unemphasized training transform table to generate unemphasized training vectors;
training a projection model using the enhanced and unenhanced training vectors;
processing the stressed training vectors using the projection model to generate processed stressed training vectors;
and training a classifier model using the processed training vectors with emphasis, wherein the classifier model determines whether a node is in a desired class.
前記強調なしトレーニング・テキストを強調なし解析木に変換することと
をさらに含む、請求項7または請求項8に記載の方法。 converting the emphasized training text into an emphasized parse tree;
9. The method of claim 7 or claim 8 , further comprising: converting the unemphasized training text into an unemphasized parse tree.
各ノードが前記求められるクラスにあるかどうかの前記判定と、各ノードの前記強調とを比較することと、
前記強調と同じである判定の数を増加させるように前記分類器モデルを調整することと
をさらに含む、請求項7から請求項9のいずれか一項に記載の方法。 processing the processed training vector with emphasis with the classifier model to determine whether each node is in the desired class;
comparing the determination of whether each node is in the required class and the emphasis of each node;
10. The method of any one of claims 7-9, further comprising: adjusting the classifier model to increase the number of decisions that are the same as the emphasis.
前記投影モデルをトレーニングする前に、前記特徴選択に基づいて前記強調付きおよび強調なしトレーニング・ベクトルから列を除去することと
をさらに含む、請求項7から請求項10のいずれか一項に記載の方法。 performing feature selection;
and removing columns from the enhanced and unenhanced training vectors based on the feature selection prior to training the projection model. Method.
ラベル付き自然言語テキストを表す複数の強調付き解析木と、
ラベルなし自然言語テキストを表す複数の強調なし解析木と、
新たな自然言語テキストを表す新たな解析木と、
前記複数の強調付き解析木、前記複数の強調なし解析木、および前記新たな解析木を処理するように構成された自然言語処理(NLP)ラーニング・マシンであって、前記NLPラーニング・マシンはコンピューティング・プロセッサを含む、前記自然言語処理(NLP)ラーニング・マシンと、
前記コンピューティング・プロセッサに結合されたメモリとを含み、前記メモリは命令を含み、前記命令は前記コンピューティング・プロセッサに
第1の複数のトレーニング・ノードを含む強調付きトレーニング・テキストをインポートすることと、
第2の複数のトレーニング・ノードを含む強調なしトレーニング・テキストをインポートすることと、
前記強調付きおよび強調なしトレーニング・テキストをワンホット・エンコードすることと、
前記強調付きおよび強調なしトレーニング・テキストを用いて投影モデルをトレーニングすることと、
前記投影モデルを用いて前記強調付きトレーニング・テキストを処理することと、
処理された前記強調付きトレーニング・テキストを用いて分類器モデルをトレーニングすることと、
複数の新たなノードを含む新たなテキストをインポートすることと、
前記新たなテキストをワンホット・エンコードすることと、
前記投影モデルを用いて前記新たなテキストを処理することと、
前記分類器モデルを用いて、前記複数の新たなノードの1つが求められるクラスにあるかどうかを判定することと
を行わせる、システム。 A system for finding nodes in a span, said system comprising:
a plurality of stressed parse trees representing labeled natural language text;
a plurality of unstressed parse trees representing unlabeled natural language text;
a new parse tree representing the new natural language text;
A natural language processing (NLP) learning machine configured to process the plurality of stressed parse trees, the plurality of unstressed parse trees, and the new parse trees, wherein the NLP learning machine comprises a computer. the natural language processing (NLP) learning machine comprising a learning processor;
and a memory coupled to said computing processor, said memory including instructions, said instructions for importing into said computing processor training text with emphasis including a first plurality of training nodes. When,
importing a non-emphasized training text containing a second plurality of training nodes;
one-hot encoding the emphasized and non-emphasized training text;
training a projection model using the emphasized and non-emphasized training text;
processing the training text with emphasis using the projection model;
training a classifier model using the processed emphasized training text;
importing new text containing a plurality of new nodes;
one-hot encoding the new text;
processing the new text using the projection model;
using the classifier model to determine whether one of the plurality of new nodes is in a desired class.
前記複数の新たなノードの各々が前記求められるクラスにあることを示す、強調付きの新たなテキストを出力することを行わせる命令をさらに含む、請求項12または請求項13に記載のシステム。 3. The memory further comprises instructions for causing the computing processor to output new text with emphasis indicating that each of the plurality of new nodes is in the sought class. 14. A system according to claim 12 or 13 .
前記強調付きおよび強調なしトレーニング・テキストを用いてワンホット・エンコーダをトレーニングすることを行わせる命令をさらに含む、請求項12から請求項14のいずれか一項に記載のシステム。 15. The memory of any one of claims 12-14 , wherein the memory further comprises instructions for causing the computing processor to train a one-hot encoder using the emphasized and non-emphasized training texts. A system as described in .
各ノードが前記求められるクラスにあるかどうかを判定するために、前記処理された強調付きトレーニング・ベクトルを前記分類器モデルを用いて処理することと、
各ノードが前記求められるクラスにあるかどうかの前記判定と、各ノードの前記強調とを比較することと、
前記強調と同じである判定の数を増加させるように前記分類器モデルを調整することと
を行わせる命令をさらに含む、請求項12から請求項15のいずれか一項に記載のシステム。 processing the processed stressed training vector with the classifier model to determine whether each node is in the desired class;
comparing the determination of whether each node is in the required class and the emphasis of each node;
16. The system of any one of claims 12-15, further comprising instructions for: adjusting the classifier model to increase the number of decisions that are the same as the emphasis.
ラベル付き自然言語テキストを表す複数の強調付き解析木と、
ラベルなし自然言語テキストを表す複数の強調なし解析木と、
新たな自然言語テキストを表す新たな解析木と、
前記複数の強調付き解析木、前記複数の強調なし解析木、および前記新たな解析木を処理するように構成された自然言語処理(NLP)ラーニング・マシンであって、前記NLPラーニング・マシンはコンピューティング・プロセッサを含む、前記自然言語処理(NLP)ラーニング・マシンと、
前記コンピューティング・プロセッサに結合されたメモリとを含み、前記メモリは命令を含み、前記命令は前記コンピューティング・プロセッサに
強調付きトレーニング・テキストを強調付きトレーニング変換テーブルに変換することと、
強調なしトレーニング・テキストを強調なしトレーニング変換テーブルに変換することと、
前記強調付きおよび強調なしトレーニング変換テーブルを用いてワンホット・エンコーダをトレーニングすることと、
前記強調付きトレーニング変換テーブルをワンホット・エンコードして強調付きトレーニング・ベクトルを生成することと、
前記強調なしトレーニング変換テーブルをワンホット・エンコードして強調なしトレーニング・ベクトルを生成することと、
前記強調付きおよび強調なしトレーニング・ベクトルを用いて投影モデルをトレーニングすることと、
前記投影モデルを用いて前記強調付きトレーニング・ベクトルを処理して処理された強調付きトレーニング・ベクトルを生成することと、
前記処理された強調付きトレーニング・ベクトルを用いて分類器モデルをトレーニングすることとを行わせ、前記分類器モデルはノードが求められるクラスにあるかどうかを判定する、システム。 A system for finding nodes in a span, said system comprising:
a plurality of stressed parse trees representing labeled natural language text;
a plurality of unstressed parse trees representing unlabeled natural language text;
a new parse tree representing the new natural language text;
A natural language processing (NLP) learning machine configured to process the plurality of stressed parse trees, the plurality of unstressed parse trees, and the new parse trees, wherein the NLP learning machine comprises a computer. the natural language processing (NLP) learning machine comprising a learning processor;
and a memory coupled to said computing processor, said memory containing instructions, said instructions being transmitted to said computing processor.
converting the emphasized training text into an emphasized training conversion table;
converting the non- emphasized training text into a non-emphasized training conversion table;
training a one-hot encoder with the emphasized and non-emphasized training transform tables;
one-hot encoding the emphasized training transform table to generate an emphasized training vector;
one-hot encoding the unemphasized training transform table to generate unemphasized training vectors;
training a projection model using the enhanced and unenhanced training vectors;
processing the stressed training vectors using the projection model to generate processed stressed training vectors;
and training a classifier model using the processed training vectors with emphasis, wherein the classifier model determines whether a node is in a desired class.
前記強調付きトレーニング・テキストを強調付き解析木に変換することと、
前記強調なしトレーニング・テキストを強調なし解析木に変換することと
を行わせる命令をさらに含む、請求項17または請求項18に記載のシステム。 the memory instructs the computing processor to convert the emphasized training text into an emphasized parse tree;
19. The system of claim 17 or claim 18 , further comprising instructions for: converting the unemphasized training text into an unemphasized parse tree.
各ノードが前記求められるクラスにあるかどうかを判定するために、前記処理された強調付きトレーニング・ベクトルを前記分類器モデルを用いて処理することと、
各ノードが前記求められるクラスにあるかどうかの前記判定と、各ノードの前記強調とを比較することと、
前記強調と同じである判定の数を増加させるように前記分類器モデルを調整することと
を行わせる命令を含む、請求項17から請求項19のいずれか一項に記載のシステム。 processing the processed stressed training vector with the classifier model to determine whether each node is in the desired class;
comparing the determination of whether each node is in the required class and the emphasis of each node;
20. The system of any one of claims 17-19, comprising instructions for: adjusting the classifier model to increase the number of decisions that are the same as the emphasis.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/454,311 US11379660B2 (en) | 2019-06-27 | 2019-06-27 | Deep learning approach to computing spans |
US16/454,311 | 2019-06-27 | ||
PCT/IB2020/055332 WO2020261002A1 (en) | 2019-06-27 | 2020-06-05 | Deep learning approach to computing spans |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022537759A JP2022537759A (en) | 2022-08-29 |
JPWO2020261002A5 true JPWO2020261002A5 (en) | 2022-10-25 |
Family
ID=74044096
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021575889A Pending JP2022537759A (en) | 2019-06-27 | 2020-06-05 | A Deep Learning Approach to Computing Span |
Country Status (6)
Country | Link |
---|---|
US (1) | US11379660B2 (en) |
JP (1) | JP2022537759A (en) |
CN (1) | CN113892150A (en) |
DE (1) | DE112020002129T5 (en) |
GB (1) | GB2598879A (en) |
WO (1) | WO2020261002A1 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11087087B1 (en) * | 2017-02-15 | 2021-08-10 | Robert Mayer | Comparative expression processing |
CN111259112B (en) * | 2020-01-14 | 2023-07-04 | 北京百度网讯科技有限公司 | Medical fact verification method and device |
US11755822B2 (en) | 2020-08-04 | 2023-09-12 | International Business Machines Corporation | Promised natural language processing annotations |
US11520972B2 (en) * | 2020-08-04 | 2022-12-06 | International Business Machines Corporation | Future potential natural language processing annotations |
US11977836B1 (en) * | 2021-11-26 | 2024-05-07 | Amazon Technologies, Inc. | Global explanations of machine learning model predictions for input containing text attributes |
JP7454090B1 (en) | 2023-07-12 | 2024-03-21 | 医療法人社団梅華会 | medical support equipment |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6574633B1 (en) | 1999-11-01 | 2003-06-03 | Honeywell International Inc. | Method for dynamically grouping limited range physical entities in a topological space |
US9471559B2 (en) * | 2012-12-10 | 2016-10-18 | International Business Machines Corporation | Deep analysis of natural language questions for question answering system |
US9244909B2 (en) * | 2012-12-10 | 2016-01-26 | General Electric Company | System and method for extracting ontological information from a body of text |
US9715662B2 (en) | 2013-01-28 | 2017-07-25 | International Business Machines Corporation | Inconsistency detection between structured and non-structured data |
US10061714B2 (en) * | 2016-03-18 | 2018-08-28 | Oracle International Corporation | Tuple encoding aware direct memory access engine for scratchpad enabled multicore processors |
US10740678B2 (en) * | 2016-03-31 | 2020-08-11 | International Business Machines Corporation | Concept hierarchies |
US20170300632A1 (en) | 2016-04-19 | 2017-10-19 | Nec Laboratories America, Inc. | Medical history extraction using string kernels and skip grams |
KR20180001889A (en) * | 2016-06-28 | 2018-01-05 | 삼성전자주식회사 | Language processing method and apparatus |
US20180075011A1 (en) * | 2016-09-13 | 2018-03-15 | International Business Machines Corporation | Hybrid Approach to Handling Hypotheticals in Texts |
CN106484674B (en) | 2016-09-20 | 2020-09-25 | 北京工业大学 | Chinese electronic medical record concept extraction method based on deep learning |
US10360301B2 (en) * | 2016-10-10 | 2019-07-23 | International Business Machines Corporation | Personalized approach to handling hypotheticals in text |
US10762992B2 (en) | 2016-11-30 | 2020-09-01 | Welltok, Inc. | Synthetic ground truth expansion |
US9715495B1 (en) * | 2016-12-15 | 2017-07-25 | Quid, Inc. | Topic-influenced document relationship graphs |
US10811125B2 (en) | 2017-08-21 | 2020-10-20 | International Business Machines Corporation | Cognitive framework to identify medical case safety reports in free form text |
CN108304387B (en) * | 2018-03-09 | 2021-06-15 | 联想(北京)有限公司 | Method, device, server group and storage medium for recognizing noise words in text |
CN109062901B (en) * | 2018-08-14 | 2019-10-11 | 第四范式(北京)技术有限公司 | Neural network training method and device and name entity recognition method and device |
-
2019
- 2019-06-27 US US16/454,311 patent/US11379660B2/en active Active
-
2020
- 2020-06-05 CN CN202080038894.7A patent/CN113892150A/en active Pending
- 2020-06-05 JP JP2021575889A patent/JP2022537759A/en active Pending
- 2020-06-05 GB GB2200551.6A patent/GB2598879A/en not_active Withdrawn
- 2020-06-05 WO PCT/IB2020/055332 patent/WO2020261002A1/en active Application Filing
- 2020-06-05 DE DE112020002129.7T patent/DE112020002129T5/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109036371B (en) | Audio data generation method and system for speech synthesis | |
CN109686361B (en) | Speech synthesis method, device, computing equipment and computer storage medium | |
CN111048064B (en) | Voice cloning method and device based on single speaker voice synthesis data set | |
CN109933602B (en) | Method and device for converting natural language and structured query language | |
GB2598879A (en) | Deep learning approach to computing spans | |
JP2018026127A (en) | Translation method, translation device, and computer program | |
JP7051919B2 (en) | Speech recognition and decoding methods based on streaming attention models, devices, equipment and computer readable storage media | |
KR102152902B1 (en) | Method for converting voice data into text data and speech-to-text device performing method | |
US20220157329A1 (en) | Method of converting voice feature of voice | |
JPWO2021050170A5 (en) | ||
JPWO2020261002A5 (en) | ||
CN117151084A (en) | Chinese spelling and grammar error correction method, storage medium and equipment | |
WO2019146754A1 (en) | Training data creation method of question-answer system and training method of question-answer system | |
WO2021228084A1 (en) | Speech data recognition method, device, and medium | |
CN110399619B (en) | Position coding method for neural machine translation and computer storage medium | |
US20230317058A1 (en) | Spoken language processing method and apparatus, and storage medium | |
Cai et al. | Fast learning of deep neural networks via singular value decomposition | |
Huang et al. | The NU voice conversion system for the Voice Conversion Challenge 2020: On the effectiveness of sequence-to-sequence models and autoregressive neural vocoders | |
Liu et al. | Automatic speech disentanglement for voice conversion using rank module and speech augmentation | |
TWI594136B (en) | A system and method for training robots through voice | |
US20220147570A1 (en) | Information processing apparatus and information processing method | |
JPWO2021199442A5 (en) | ||
JP2021043530A5 (en) | ||
CN117789680B (en) | Method, device and storage medium for generating multimedia resources based on large model | |
KR102637341B1 (en) | Method and apparatus for generating speech |