JP2021157483A - エンコーディングプログラム、情報処理装置およびエンコーディング方法 - Google Patents
エンコーディングプログラム、情報処理装置およびエンコーディング方法 Download PDFInfo
- Publication number
- JP2021157483A JP2021157483A JP2020056889A JP2020056889A JP2021157483A JP 2021157483 A JP2021157483 A JP 2021157483A JP 2020056889 A JP2020056889 A JP 2020056889A JP 2020056889 A JP2020056889 A JP 2020056889A JP 2021157483 A JP2021157483 A JP 2021157483A
- Authority
- JP
- Japan
- Prior art keywords
- node
- vector
- sentence
- clause
- common ancestor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 27
- 230000010365 information processing Effects 0.000 title claims description 16
- 239000013598 vector Substances 0.000 claims abstract description 162
- 238000010801 machine learning Methods 0.000 claims abstract description 65
- 230000008569 process Effects 0.000 claims description 20
- 230000004931 aggregating effect Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 4
- 239000003814 drug Substances 0.000 description 60
- 238000000605 extraction Methods 0.000 description 56
- 229940079593 drug Drugs 0.000 description 55
- 201000010099 disease Diseases 0.000 description 51
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 51
- 230000000694 effects Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 25
- 230000001419 dependent effect Effects 0.000 description 14
- 230000015654 memory Effects 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000037361 pathway Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/47—Machine-assisted translation, e.g. using translation memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/316—Indexing structures
- G06F16/322—Trees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H15/00—ICT specially adapted for medical reports, e.g. generation or transmission thereof
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
図1は、実施例に係る機械学習装置の構成を示す機能ブロック図である。機械学習装置1は、文全体の係り受け木において、共通の祖先ノードに文全体の情報を集約して、集約した情報を用いて係り受け木の各ノードをエンコーディングする。機械学習装置1は、エンコーディングした結果を用いて、文に含まれる第1文節と第2文節の関係を学習する。ここでいう「係り受け木」とは、文の中の単語間の係り受けを木構造のLSTMネットワークで表わしたものである。なお、LSTMネットワークのことを、以降「LSTM」という。また、文節を単語という場合もある。
図2は、実施例1に係る予測装置の構成を示す機能ブロック図である。予測装置3は、文全体の係り受け木において、共通の祖先ノードに文全体の情報を集約して、集約した情報を用いて係り受け木の各ノードをエンコーディングする。予測装置3は、エンコーディングした結果を用いて、文に含まれる第1文節と第2文節の関係を予測する。
図4は、実施例1に係る木構造エンコーディングの一例を示す図である。なお、文が「薬Aを無作為に抽出した病気Bの患者に投与したところ、効果があった」である場合であって「薬A」と「病気B」との間の関係(「効果」)を抽出(判定)する場合であるとする。
h文=[h薬A;h無作為;h抽出;h病気B;h患者;h投与;hところ;h効果;hあった;]
図5は、実施例1に係る関係抽出学習処理のフローチャートの一例を示す図である。なお、図6に示す実施例1に係る関係抽出学習処理の一例を、適宜参照しながら説明する。
図7は、実施例1に係る関係抽出予測処理のフローチャートの一例を示す図である。木構造エンコーディング部12は、係り受け解析の解析済み文si、固有表現対niを受け付ける(ステップS21)。そして、木構造エンコーディング部12は、固有表現対niに対応するLCA(共通祖先ノード)としてlcaiを特定する(ステップS22)。
上記実施例1によれば、機械学習装置1および予測装置3を含む情報処理装置は、以下の処理を行う。情報処理装置は、文に含まれる第1文節と第2文節とに対し、当該文から生成した係り受け木に含まれる2つのノードであって第1文節に対応する第1ノードと第2文節に対応する第2ノードとの共通の祖先ノードを特定する。情報処理装置は、係り受け木に含まれる葉ノードのそれぞれから共通の祖先ノードに向かう経路に応じて係り受け木に含まれる各ノードをエンコーディングすることによって、共通の祖先ノードのベクトルを求める。情報処理装置は、共通の祖先ノードのベクトルに基づいて、共通の祖先ノードから葉ノードに向かう経路に応じて係り受け木に含まれる各ノードをエンコーディングする。これにより、情報処理装置は、係り受け木における第1文節および第2文節の最短係り受け経路外に基づいた、文のエンコーディングを行なえる。
図8は、実施例2に係る機械学習装置の構成を示す機能ブロック図である。なお、図1に示す機械学習装置1と同一の構成については同一符号を示すことで、その重複する構成および動作の説明については省略する。実施例1と実施例2とが異なるところは、制御部10にPE付与部51を追加した点にある。また、実施例1と実施例2とが異なるところは、制御部10の木構造エンコーディング部12を木構造エンコーディング部12Aに変更した点にある。
図9は、実施例2に係る予測装置の構成を示す機能ブロック図である。なお、図2に示す予測装置3と同一の構成については同一符号を示すことで、その重複する構成および動作の説明については省略する。実施例1と実施例2とが異なるところは、制御部10にPE付与部51を追加した点にある。また、実施例1と実施例2とが異なるところは、制御部10の木構造エンコーディング部12を木構造エンコーディング部12Aに変更した点にある。なお、PE付与部51および木構造エンコーディング部12Aは、図8に示す機械学習装置1と同一の構成であるので、同一符号で示し、その重複する構成および動作の説明については省略する。
図10は、実施例2に係る木構造エンコーディングの一例を示す図である。なお、文が「薬Aを無作為に抽出した病気Bの患者に投与したところ、効果があった」である場であって「薬A」と「病気B」との間の関係(「効果」)を抽出(判定)する場合であるとする。
h文=[h薬A;h無作為;h抽出;h病気B;h患者;h投与;hところ;h効果;hあった;]
上記実施例2によれば、木構造エンコーディング部12Aは、葉ノードのそれぞれから共通の祖先ノードに向かう経路に沿って各ノードにおける、第1ノードとの位置関係および第2ノードとの位置関係を含む情報を共通の祖先ノードに集約する処理を含む。これにより、木構造エンコーディング部12Aは、第1ノードおよび第2ノードに対して重要なノードと重要でないノードとの扱いを変えることができる。この結果、木構造エンコーディング部12Aは、第1ノードおよび第2ノードと関係があるノードであるのかどうかについて、精度良くエンコーディングすることが可能となる。
なお、実施例1,2では、機械学習装置1および予測装置3を含む情報処理装置が、日本語に対する文に関し、以下の処理を行うことについて説明した。すなわち、情報処理装置は、日本語に対する文全体の係り受け木において、共通の祖先ノードに文全体の情報を集約して、集約した情報を用いて係り受け木の各ノードをエンコーディングすることについて説明した。しかしながら、情報処理装置は、これに限定されず、英語に対する文に関する場合であっても良い。すなわち、情報処理装置は、英語に対する文全体の係り受け木において、共通の祖先ノードに文全体の情報を集約して、集約した情報を用いて係り受け木の各ノードをエンコーディングする場合であっても良い。
10,30 制御部
11 係り受け解析部
12,12A 木構造エンコーディング部
13 関係抽出学習部
20,40 記憶部
21 パラメタ
22,42 エンコード結果
23 パラメタ
3 予測装置
31 関係抽出予測部
51 PE付与部
Claims (7)
- 文に含まれる第1文節と第2文節とに対し、前記文から生成した係り受け木に含まれる2つのノードであって前記第1文節に対応する第1ノードと前記第2文節に対応する第2ノードとの共通の祖先ノードを特定し、
前記係り受け木に含まれる葉ノードのそれぞれから前記共通の祖先ノードに向かう経路に応じて前記係り受け木に含まれる各ノードをエンコーディングすることによって、前記共通の祖先ノードのベクトルを求め、
前記共通の祖先ノードのベクトルに基づいて、前記共通の祖先ノードから前記葉ノードに向かう経路に応じて前記係り受け木に含まれる各ノードをエンコーディングする、
処理をコンピュータに実行させることを特徴とするエンコーディングプログラム。 - 前記共通の祖先ノードのベクトルを求める処理は、葉ノードのそれぞれから前記共通の祖先ノードに向かう経路に沿って各ノードの情報を前記共通の祖先ノードに集約することによって、前記共通の祖先ノードのベクトルを求める処理を含む、
ことを特徴とする請求項1に記載のエンコーディングプログラム。 - 前記集約する処理は、葉ノードのそれぞれから前記共通の祖先ノードに向かう経路に沿って各ノードにおける、前記第1ノードとの位置関係および前記第2ノードとの位置関係を含む情報を前記共通の祖先ノードに集約する処理を含む、
ことを特徴とする請求項2に記載のエンコーディングプログラム。 - 各ノードのエンコーディング結果を示すベクトルから前記文のベクトルを求め、
前記文のベクトルと前記文のベクトルに対応する正解ラベルとを入力し、前記入力に応じて機械学習モデルが出力する前記文に含まれる第1文節と第2文節との関係に対応する予測結果と前記正解ラベルとの差に基づいた機械学習によって前記機械学習モデルを更新する、
ことを特徴とする請求項1に記載のエンコーディングプログラム。 - 他の文のベクトルを前記更新された機械学習モデルに入力し、前記他の文に含まれる第1文節と第2文節との関係に対応する予測結果を出力する、
ことを特徴とする請求項4に記載のエンコーディングプログラム。 - 文に含まれる第1文節と第2文節とに対し、前記文から生成した係り受け木に含まれる2つのノードであって前記第1文節に対応する第1ノードと前記第2文節に対応する第2ノードとの共通の祖先ノードを特定する特定部と、
前記係り受け木に含まれる葉ノードのそれぞれから前記共通の祖先ノードに向かう経路に応じて前記係り受け木に含まれる各ノードをエンコーディングすることによって前記共通の祖先ノードのベクトルを生成する第1のエンコーディング部と、
前記共通の祖先ノードのベクトルに基づいて、前記共通の祖先ノードから前記葉ノードに向かう経路に応じて前記係り受け木に含まれる各ノードをエンコーディングする第2のエンコーディング部と、
を有することを特徴とする情報処理装置。 - 文に含まれる第1文節と第2文節とに対し、前記文から生成した係り受け木に含まれる2つのノードであって前記第1文節に対応する第1ノードと前記第2文節に対応する第2ノードとの共通の祖先ノードを特定し、
前記係り受け木に含まれる葉ノードのそれぞれから前記共通の祖先ノードに向かう経路に応じて前記係り受け木に含まれる各ノードをエンコーディングすることによって、前記共通の祖先ノードのベクトルを求め、
前記共通の祖先ノードのベクトルに基づいて、前記共通の祖先ノードから前記葉ノードに向かう経路に応じて前記係り受け木に含まれる各ノードをエンコーディングする、
処理をコンピュータが実行することを特徴とするエンコーディング方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020056889A JP7472587B2 (ja) | 2020-03-26 | 2020-03-26 | エンコーディングプログラム、情報処理装置およびエンコーディング方法 |
US17/206,188 US20210303802A1 (en) | 2020-03-26 | 2021-03-19 | Program storage medium, information processing apparatus and method for encoding sentence |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020056889A JP7472587B2 (ja) | 2020-03-26 | 2020-03-26 | エンコーディングプログラム、情報処理装置およびエンコーディング方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021157483A true JP2021157483A (ja) | 2021-10-07 |
JP7472587B2 JP7472587B2 (ja) | 2024-04-23 |
Family
ID=77856332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020056889A Active JP7472587B2 (ja) | 2020-03-26 | 2020-03-26 | エンコーディングプログラム、情報処理装置およびエンコーディング方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20210303802A1 (ja) |
JP (1) | JP7472587B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113807091B (zh) * | 2021-08-12 | 2022-07-22 | 北京百度网讯科技有限公司 | 词语挖掘方法、装置、电子设备和可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017076281A (ja) * | 2015-10-15 | 2017-04-20 | 日本電信電話株式会社 | 単語埋込学習装置、テキスト評価装置、方法、及びプログラム |
US20180300314A1 (en) * | 2017-04-12 | 2018-10-18 | Petuum Inc. | Constituent Centric Architecture for Reading Comprehension |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7610191B2 (en) * | 2004-10-06 | 2009-10-27 | Nuance Communications, Inc. | Method for fast semi-automatic semantic annotation |
US7970600B2 (en) * | 2004-11-03 | 2011-06-28 | Microsoft Corporation | Using a first natural language parser to train a second parser |
US20080221870A1 (en) * | 2007-03-08 | 2008-09-11 | Yahoo! Inc. | System and method for revising natural language parse trees |
US20140297264A1 (en) * | 2012-11-19 | 2014-10-02 | University of Washington through it Center for Commercialization | Open language learning for information extraction |
JP6614152B2 (ja) * | 2014-09-05 | 2019-12-04 | 日本電気株式会社 | テキスト処理システム、テキスト処理方法、及び、コンピュータ・プログラム |
WO2016141187A1 (en) * | 2015-03-04 | 2016-09-09 | The Allen Institute For Artificial Intelligence | System and methods for generating treebanks for natural language processing by modifying parser operation through introduction of constraints on parse tree structure |
CN108388561B (zh) * | 2017-02-03 | 2022-02-25 | 百度在线网络技术(北京)有限公司 | 神经网络机器翻译方法和装置 |
US20180232443A1 (en) * | 2017-02-16 | 2018-08-16 | Globality, Inc. | Intelligent matching system with ontology-aided relation extraction |
CA3006826A1 (en) * | 2018-05-31 | 2019-11-30 | Applied Brain Research Inc. | Methods and systems for generating and traversing discourse graphs using artificial neural networks |
US20200074322A1 (en) * | 2018-09-04 | 2020-03-05 | Rovi Guides, Inc. | Methods and systems for using machine-learning extracts and semantic graphs to create structured data to drive search, recommendation, and discovery |
US20200159863A1 (en) * | 2018-11-20 | 2020-05-21 | Sap Se | Memory networks for fine-grain opinion mining |
US11222143B2 (en) * | 2018-12-11 | 2022-01-11 | International Business Machines Corporation | Certified information verification services |
US11500841B2 (en) * | 2019-01-04 | 2022-11-15 | International Business Machines Corporation | Encoding and decoding tree data structures as vector data structures |
US11610683B2 (en) * | 2019-08-05 | 2023-03-21 | Kpn Innovations, Llc. | Methods and systems for generating a vibrant compatibility plan using artificial intelligence |
US11615240B2 (en) * | 2019-08-15 | 2023-03-28 | Salesforce.Com, Inc | Systems and methods for a transformer network with tree-based attention for natural language processing |
US11687826B2 (en) * | 2019-08-29 | 2023-06-27 | Accenture Global Solutions Limited | Artificial intelligence (AI) based innovation data processing system |
US11676067B2 (en) * | 2020-02-14 | 2023-06-13 | Nice Ltd. | System and method for creating data to train a conversational bot |
-
2020
- 2020-03-26 JP JP2020056889A patent/JP7472587B2/ja active Active
-
2021
- 2021-03-19 US US17/206,188 patent/US20210303802A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017076281A (ja) * | 2015-10-15 | 2017-04-20 | 日本電信電話株式会社 | 単語埋込学習装置、テキスト評価装置、方法、及びプログラム |
US20180300314A1 (en) * | 2017-04-12 | 2018-10-18 | Petuum Inc. | Constituent Centric Architecture for Reading Comprehension |
Non-Patent Citations (2)
Title |
---|
ZHIYANG TENG 他1名: "Head-Lexicalized Bidirectional Tree LSTMs", ACL ANTHOLOGY, JPN6023044281, 2017, ISSN: 0005185766 * |
辻村有輝 他2名: "係り受け木上の不要な情報にマスクを行う関係分類", 言語処理学会第25回年次大会 発表論文集, JPN6023044280, 4 March 2019 (2019-03-04), JP, pages 73 - 76, ISSN: 0005185767 * |
Also Published As
Publication number | Publication date |
---|---|
JP7472587B2 (ja) | 2024-04-23 |
US20210303802A1 (en) | 2021-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Van den Bercken et al. | Evaluating neural text simplification in the medical domain | |
US20220171942A1 (en) | Natural Language Processing with an N-Gram Machine | |
Lee et al. | Learning recurrent span representations for extractive question answering | |
US10719668B2 (en) | System for machine translation | |
May et al. | Tiburon: A weighted tree automata toolkit | |
US20230237277A1 (en) | Aspect prompting framework for language modeling | |
JP2021152963A (ja) | 語義特徴の生成方法、モデルトレーニング方法、装置、機器、媒体及びプログラム | |
KR20200044201A (ko) | 번역 성능 개선을 위한 신경망번역 모델 학습 방법 및 장치 | |
US20090192781A1 (en) | System and method of providing machine translation from a source language to a target language | |
TW202121229A (zh) | 產生機器翻譯模型的計算裝置及方法及機器翻譯裝置 | |
CN111488742B (zh) | 用于翻译的方法和装置 | |
JP2017076281A (ja) | 単語埋込学習装置、テキスト評価装置、方法、及びプログラム | |
Peng et al. | Sequence-to-sequence models for cache transition systems | |
CN115860006A (zh) | 一种基于语义句法的方面级情感预测方法及装置 | |
Xu et al. | Schema2qa: High-quality and low-cost q&a agents for the structured web | |
Moramarco et al. | Towards more patient friendly clinical notes through language models and ontologies | |
Wang | Abstract Meaning Representation Parsing | |
JP2021157483A (ja) | エンコーディングプログラム、情報処理装置およびエンコーディング方法 | |
Torr | Wide-coverage statistical parsing with Minimalist Grammars | |
Chomutare et al. | Combining deep learning and fuzzy logic to predict rare ICD-10 codes from clinical notes | |
Tian | Numerical treatment of singularly perturbed delay differential equations | |
Li et al. | Knowledge Graph Enhanced Language Models for Sentiment Analysis | |
Jarashanth et al. | Applying transformer models for disease named entity recognition | |
CN116562305B (zh) | 方面情感四元组预测方法与系统 | |
Kolappan | Computer Assisted Short Answer Grading with Rubrics using Active Learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240325 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7472587 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |