JP7472587B2 - エンコーディングプログラム、情報処理装置およびエンコーディング方法 - Google Patents
エンコーディングプログラム、情報処理装置およびエンコーディング方法 Download PDFInfo
- Publication number
- JP7472587B2 JP7472587B2 JP2020056889A JP2020056889A JP7472587B2 JP 7472587 B2 JP7472587 B2 JP 7472587B2 JP 2020056889 A JP2020056889 A JP 2020056889A JP 2020056889 A JP2020056889 A JP 2020056889A JP 7472587 B2 JP7472587 B2 JP 7472587B2
- Authority
- JP
- Japan
- Prior art keywords
- node
- vector
- sentence
- encoding
- phrase
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 29
- 230000010365 information processing Effects 0.000 title claims description 17
- 239000013598 vector Substances 0.000 claims description 166
- 238000010801 machine learning Methods 0.000 claims description 61
- 230000004931 aggregating effect Effects 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 3
- 239000003814 drug Substances 0.000 description 57
- 201000010099 disease Diseases 0.000 description 49
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 49
- 238000000605 extraction Methods 0.000 description 46
- 229940079593 drug Drugs 0.000 description 44
- 238000010586 diagram Methods 0.000 description 38
- 230000000694 effects Effects 0.000 description 28
- 230000015654 memory Effects 0.000 description 10
- 239000000284 extract Substances 0.000 description 9
- 230000014509 gene expression Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/47—Machine-assisted translation, e.g. using translation memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/316—Indexing structures
- G06F16/322—Trees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/253—Grammatical analysis; Style critique
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H15/00—ICT specially adapted for medical reports, e.g. generation or transmission thereof
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
図1は、実施例に係る機械学習装置の構成を示す機能ブロック図である。機械学習装置1は、文全体の係り受け木において、共通の祖先ノードに文全体の情報を集約して、集約した情報を用いて係り受け木の各ノードをエンコーディングする。機械学習装置1は、エンコーディングした結果を用いて、文に含まれる第1文節と第2文節の関係を学習する。ここでいう「係り受け木」とは、文の中の単語間の係り受けを木構造のLSTMネットワークで表わしたものである。なお、LSTMネットワークのことを、以降「LSTM」という。また、文節を単語という場合もある。
図2は、実施例1に係る予測装置の構成を示す機能ブロック図である。予測装置3は、文全体の係り受け木において、共通の祖先ノードに文全体の情報を集約して、集約した情報を用いて係り受け木の各ノードをエンコーディングする。予測装置3は、エンコーディングした結果を用いて、文に含まれる第1文節と第2文節の関係を予測する。
図4は、実施例1に係る木構造エンコーディングの一例を示す図である。なお、文が「薬Aを無作為に抽出した病気Bの患者に投与したところ、効果があった」である場合であって「薬A」と「病気B」との間の関係(「効果」)を抽出(判定)する場合であるとする。
h文=[h薬A;h無作為;h抽出;h病気B;h患者;h投与;hところ;h効果;hあった;]
図5は、実施例1に係る関係抽出学習処理のフローチャートの一例を示す図である。なお、図6に示す実施例1に係る関係抽出学習処理の一例を、適宜参照しながら説明する。
図7は、実施例1に係る関係抽出予測処理のフローチャートの一例を示す図である。木構造エンコーディング部12は、係り受け解析の解析済み文si、固有表現対niを受け付ける(ステップS21)。そして、木構造エンコーディング部12は、固有表現対niに対応するLCA(共通祖先ノード)としてlcaiを特定する(ステップS22)。
上記実施例1によれば、機械学習装置1および予測装置3を含む情報処理装置は、以下の処理を行う。情報処理装置は、文に含まれる第1文節と第2文節とに対し、当該文から生成した係り受け木に含まれる2つのノードであって第1文節に対応する第1ノードと第2文節に対応する第2ノードとの共通の祖先ノードを特定する。情報処理装置は、係り受け木に含まれる葉ノードのそれぞれから共通の祖先ノードに向かう経路に応じて係り受け木に含まれる各ノードをエンコーディングすることによって、共通の祖先ノードのベクトルを求める。情報処理装置は、共通の祖先ノードのベクトルに基づいて、共通の祖先ノードから葉ノードに向かう経路に応じて係り受け木に含まれる各ノードをエンコーディングする。これにより、情報処理装置は、係り受け木における第1文節および第2文節の最短係り受け経路外に基づいた、文のエンコーディングを行なえる。
図8は、実施例2に係る機械学習装置の構成を示す機能ブロック図である。なお、図1に示す機械学習装置1と同一の構成については同一符号を示すことで、その重複する構成および動作の説明については省略する。実施例1と実施例2とが異なるところは、制御部10にPE付与部51を追加した点にある。また、実施例1と実施例2とが異なるところは、制御部10の木構造エンコーディング部12を木構造エンコーディング部12Aに変更した点にある。
図9は、実施例2に係る予測装置の構成を示す機能ブロック図である。なお、図2に示す予測装置3と同一の構成については同一符号を示すことで、その重複する構成および動作の説明については省略する。実施例1と実施例2とが異なるところは、制御部10にPE付与部51を追加した点にある。また、実施例1と実施例2とが異なるところは、制御部10の木構造エンコーディング部12を木構造エンコーディング部12Aに変更した点にある。なお、PE付与部51および木構造エンコーディング部12Aは、図8に示す機械学習装置1と同一の構成であるので、同一符号で示し、その重複する構成および動作の説明については省略する。
図10は、実施例2に係る木構造エンコーディングの一例を示す図である。なお、文が「薬Aを無作為に抽出した病気Bの患者に投与したところ、効果があった」である場であって「薬A」と「病気B」との間の関係(「効果」)を抽出(判定)する場合であるとする。
h文=[h薬A;h無作為;h抽出;h病気B;h患者;h投与;hところ;h効果;hあった;]
上記実施例2によれば、木構造エンコーディング部12Aは、葉ノードのそれぞれから共通の祖先ノードに向かう経路に沿って各ノードにおける、第1ノードとの位置関係および第2ノードとの位置関係を含む情報を共通の祖先ノードに集約する処理を含む。これにより、木構造エンコーディング部12Aは、第1ノードおよび第2ノードに対して重要なノードと重要でないノードとの扱いを変えることができる。この結果、木構造エンコーディング部12Aは、第1ノードおよび第2ノードと関係があるノードであるのかどうかについて、精度良くエンコーディングすることが可能となる。
なお、実施例1,2では、機械学習装置1および予測装置3を含む情報処理装置が、日本語に対する文に関し、以下の処理を行うことについて説明した。すなわち、情報処理装置は、日本語に対する文全体の係り受け木において、共通の祖先ノードに文全体の情報を集約して、集約した情報を用いて係り受け木の各ノードをエンコーディングすることについて説明した。しかしながら、情報処理装置は、これに限定されず、英語に対する文に関する場合であっても良い。すなわち、情報処理装置は、英語に対する文全体の係り受け木において、共通の祖先ノードに文全体の情報を集約して、集約した情報を用いて係り受け木の各ノードをエンコーディングする場合であっても良い。
10,30 制御部
11 係り受け解析部
12,12A 木構造エンコーディング部
13 関係抽出学習部
20,40 記憶部
21 パラメタ
22,42 エンコード結果
23 パラメタ
3 予測装置
31 関係抽出予測部
51 PE付与部
Claims (8)
- 文に含まれる複数の文節のうちの第1文節と第2文節との関係性の判定に用いる前記複数の文節それぞれのベクトルを求める場合に、前記文から生成した係り受け木に含まれる2つのノードを示す前記第1文節に対応する第1ノードと前記第2文節に対応する第2ノードとの最短係り受け経路に含まれるノードであって、前記係り受け木における前記第1ノードと前記第2ノードとの共通の祖先ノードを特定し、
前記係り受け木に含まれる葉ノードのそれぞれから前記共通の祖先ノードに向かう経路に応じて前記係り受け木に含まれる各ノードをエンコーディングすることによって、前記共通の祖先ノードのベクトルを求め、
前記共通の祖先ノードのベクトルに基づいて、前記共通の祖先ノードから前記葉ノードに向かう経路に応じて前記係り受け木に含まれる各ノードをエンコーディングする、
処理をコンピュータに実行させることを特徴とするエンコーディングプログラム。 - 前記共通の祖先ノードのベクトルを求める処理は、葉ノードのそれぞれから前記共通の祖先ノードに向かう経路に沿って各ノードの情報を前記共通の祖先ノードに集約することによって、前記共通の祖先ノードのベクトルを求める処理を含む、
ことを特徴とする請求項1に記載のエンコーディングプログラム。 - 前記集約する処理は、葉ノードのそれぞれから前記共通の祖先ノードに向かう経路に沿って各ノードにおける、前記第1ノードとの位置関係および前記第2ノードとの位置関係を含む情報を前記共通の祖先ノードに集約する処理を含む、
ことを特徴とする請求項2に記載のエンコーディングプログラム。 - 各ノードのエンコーディング結果を示すベクトルから前記文のベクトルを求め、
前記文のベクトルと前記文のベクトルに対応する正解ラベルとを入力し、前記入力に応じて機械学習モデルが出力する前記文に含まれる第1文節と第2文節との関係に対応する予測結果と前記正解ラベルとの差に基づいた機械学習によって前記機械学習モデルを更新する、
ことを特徴とする請求項1に記載のエンコーディングプログラム。 - 他の文のベクトルを前記更新された機械学習モデルに入力し、前記他の文に含まれる第1文節と第2文節との関係に対応する予測結果を出力する、
ことを特徴とする請求項4に記載のエンコーディングプログラム。 - 前記係り受け木における根に対応するノード以外のノードが、前記共通の祖先ノードとして特定されうる、
ことを特徴とする請求項1に記載のエンコーディングプログラム。 - 文に含まれる複数の文節のうちの第1文節と第2文節との関係性の判定に用いる前記複数の文節それぞれのベクトルを求める場合に、前記文から生成した係り受け木に含まれる2つのノードを示す前記第1文節に対応する第1ノードと前記第2文節に対応する第2ノードとの最短係り受け経路に含まれるノードであって、前記係り受け木における前記第1ノードと前記第2ノードとの共通の祖先ノードを特定する特定部と、
前記係り受け木に含まれる葉ノードのそれぞれから前記共通の祖先ノードに向かう経路に応じて前記係り受け木に含まれる各ノードをエンコーディングすることによって前記共通の祖先ノードのベクトルを生成する第1のエンコーディング部と、
前記共通の祖先ノードのベクトルに基づいて、前記共通の祖先ノードから前記葉ノードに向かう経路に応じて前記係り受け木に含まれる各ノードをエンコーディングする第2のエンコーディング部と、
を有することを特徴とする情報処理装置。 - 文に含まれる複数の文節のうちの第1文節と第2文節との関係性の判定に用いる前記複数の文節それぞれのベクトルを求める場合に、前記文から生成した係り受け木に含まれる2つのノードを示す前記第1文節に対応する第1ノードと前記第2文節に対応する第2ノードとの最短係り受け経路に含まれるノードであって、前記係り受け木における前記第1ノードと前記第2ノードとの共通の祖先ノードを特定し、
前記係り受け木に含まれる葉ノードのそれぞれから前記共通の祖先ノードに向かう経路に応じて前記係り受け木に含まれる各ノードをエンコーディングすることによって、前記共通の祖先ノードのベクトルを求め、
前記共通の祖先ノードのベクトルに基づいて、前記共通の祖先ノードから前記葉ノードに向かう経路に応じて前記係り受け木に含まれる各ノードをエンコーディングする、
処理をコンピュータが実行することを特徴とするエンコーディング方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020056889A JP7472587B2 (ja) | 2020-03-26 | 2020-03-26 | エンコーディングプログラム、情報処理装置およびエンコーディング方法 |
US17/206,188 US20210303802A1 (en) | 2020-03-26 | 2021-03-19 | Program storage medium, information processing apparatus and method for encoding sentence |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020056889A JP7472587B2 (ja) | 2020-03-26 | 2020-03-26 | エンコーディングプログラム、情報処理装置およびエンコーディング方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021157483A JP2021157483A (ja) | 2021-10-07 |
JP7472587B2 true JP7472587B2 (ja) | 2024-04-23 |
Family
ID=77856332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020056889A Active JP7472587B2 (ja) | 2020-03-26 | 2020-03-26 | エンコーディングプログラム、情報処理装置およびエンコーディング方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20210303802A1 (ja) |
JP (1) | JP7472587B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113807091B (zh) * | 2021-08-12 | 2022-07-22 | 北京百度网讯科技有限公司 | 词语挖掘方法、装置、电子设备和可读存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017076281A (ja) | 2015-10-15 | 2017-04-20 | 日本電信電話株式会社 | 単語埋込学習装置、テキスト評価装置、方法、及びプログラム |
US20180300314A1 (en) | 2017-04-12 | 2018-10-18 | Petuum Inc. | Constituent Centric Architecture for Reading Comprehension |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7610191B2 (en) * | 2004-10-06 | 2009-10-27 | Nuance Communications, Inc. | Method for fast semi-automatic semantic annotation |
US7970600B2 (en) * | 2004-11-03 | 2011-06-28 | Microsoft Corporation | Using a first natural language parser to train a second parser |
US20080221870A1 (en) * | 2007-03-08 | 2008-09-11 | Yahoo! Inc. | System and method for revising natural language parse trees |
US20140297264A1 (en) * | 2012-11-19 | 2014-10-02 | University of Washington through it Center for Commercialization | Open language learning for information extraction |
US10339223B2 (en) * | 2014-09-05 | 2019-07-02 | Nec Corporation | Text processing system, text processing method and storage medium storing computer program |
WO2016141187A1 (en) * | 2015-03-04 | 2016-09-09 | The Allen Institute For Artificial Intelligence | System and methods for generating treebanks for natural language processing by modifying parser operation through introduction of constraints on parse tree structure |
CN108388561B (zh) * | 2017-02-03 | 2022-02-25 | 百度在线网络技术(北京)有限公司 | 神经网络机器翻译方法和装置 |
US20180232443A1 (en) * | 2017-02-16 | 2018-08-16 | Globality, Inc. | Intelligent matching system with ontology-aided relation extraction |
CA3006826A1 (en) * | 2018-05-31 | 2019-11-30 | Applied Brain Research Inc. | Methods and systems for generating and traversing discourse graphs using artificial neural networks |
US20200074321A1 (en) * | 2018-09-04 | 2020-03-05 | Rovi Guides, Inc. | Methods and systems for using machine-learning extracts and semantic graphs to create structured data to drive search, recommendation, and discovery |
US20200159863A1 (en) * | 2018-11-20 | 2020-05-21 | Sap Se | Memory networks for fine-grain opinion mining |
US11222143B2 (en) * | 2018-12-11 | 2022-01-11 | International Business Machines Corporation | Certified information verification services |
US11500841B2 (en) * | 2019-01-04 | 2022-11-15 | International Business Machines Corporation | Encoding and decoding tree data structures as vector data structures |
US11610683B2 (en) * | 2019-08-05 | 2023-03-21 | Kpn Innovations, Llc. | Methods and systems for generating a vibrant compatibility plan using artificial intelligence |
US11615240B2 (en) * | 2019-08-15 | 2023-03-28 | Salesforce.Com, Inc | Systems and methods for a transformer network with tree-based attention for natural language processing |
US11687826B2 (en) * | 2019-08-29 | 2023-06-27 | Accenture Global Solutions Limited | Artificial intelligence (AI) based innovation data processing system |
US11676067B2 (en) * | 2020-02-14 | 2023-06-13 | Nice Ltd. | System and method for creating data to train a conversational bot |
-
2020
- 2020-03-26 JP JP2020056889A patent/JP7472587B2/ja active Active
-
2021
- 2021-03-19 US US17/206,188 patent/US20210303802A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017076281A (ja) | 2015-10-15 | 2017-04-20 | 日本電信電話株式会社 | 単語埋込学習装置、テキスト評価装置、方法、及びプログラム |
US20180300314A1 (en) | 2017-04-12 | 2018-10-18 | Petuum Inc. | Constituent Centric Architecture for Reading Comprehension |
Non-Patent Citations (2)
Title |
---|
Zhiyang Teng 他1名,Head-Lexicalized Bidirectional Tree LSTMs,ACL Anthology,2017年,[2023年10月23日検索],インターネット<URL:https://aclanthology.org/Q17-1012.pdf> |
辻村有輝 他2名,係り受け木上の不要な情報にマスクを行う関係分類,言語処理学会第25回年次大会 発表論文集,日本,言語処理学会,2019年03月04日,73-76頁 |
Also Published As
Publication number | Publication date |
---|---|
US20210303802A1 (en) | 2021-09-30 |
JP2021157483A (ja) | 2021-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tan et al. | Neural machine translation: A review of methods, resources, and tools | |
Chen et al. | Distraction-Based Neural Networks for Modeling Document. | |
Haidar et al. | Textkd-gan: Text generation using knowledge distillation and generative adversarial networks | |
Bikel | Intricacies of Collins' parsing model | |
US10719668B2 (en) | System for machine translation | |
US8849665B2 (en) | System and method of providing machine translation from a source language to a target language | |
Chen et al. | Distraction-based neural networks for document summarization | |
CN110264991A (zh) | 语音合成模型的训练方法、语音合成方法、装置、设备及存储介质 | |
JP5071373B2 (ja) | 言語処理装置、言語処理方法および言語処理用プログラム | |
JP2021152963A (ja) | 語義特徴の生成方法、モデルトレーニング方法、装置、機器、媒体及びプログラム | |
Çöltekin | A set of open source tools for Turkish natural language processing. | |
WO2019208070A1 (ja) | 質問応答装置、質問応答方法及びプログラム | |
JP7337770B2 (ja) | 文書レベルの自然言語処理モデルを訓練させる方法およびシステム | |
Sadredini et al. | A scalable solution for rule-based part-of-speech tagging on novel hardware accelerators | |
Peng et al. | Sequence-to-sequence models for cache transition systems | |
Matteson et al. | Rich character-level information for Korean morphological analysis and part-of-speech tagging | |
KR20160133349A (ko) | 구 표 생성 방법 및 구 표를 이용한 기계 번역 방법 | |
CN115860006A (zh) | 一种基于语义句法的方面级情感预测方法及装置 | |
KR20200132619A (ko) | 구어에서 수어로의 주의 기반 인공신경망 기계 번역 방법 및 그 장치 | |
Breiner et al. | UserLibri: A dataset for ASR personalization using only text | |
JP7472587B2 (ja) | エンコーディングプログラム、情報処理装置およびエンコーディング方法 | |
KR101860472B1 (ko) | 오픈 디렉터리 프로젝트 기반의 텍스트 분류기, 및 텍스트 분류기의 생성 및 분류 방법 | |
JP2013054607A (ja) | 並べ替え規則学習装置、方法、及びプログラム、並びに翻訳装置、方法、及びプログラム | |
Kaljahi et al. | Detecting opinion polarities using kernel methods | |
WO2020250279A1 (ja) | モデル学習装置、方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221208 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231019 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231031 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231226 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240312 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240325 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7472587 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |