JP2019075088A - 文章生成モデルのアップデート方法及び文章生成装置 - Google Patents
文章生成モデルのアップデート方法及び文章生成装置 Download PDFInfo
- Publication number
- JP2019075088A JP2019075088A JP2018148375A JP2018148375A JP2019075088A JP 2019075088 A JP2019075088 A JP 2019075088A JP 2018148375 A JP2018148375 A JP 2018148375A JP 2018148375 A JP2018148375 A JP 2018148375A JP 2019075088 A JP2019075088 A JP 2019075088A
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- decoding model
- model
- target
- decoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 84
- 238000013528 artificial neural network Methods 0.000 claims description 53
- 238000004364 calculation method Methods 0.000 claims description 39
- 230000000306 recurrent effect Effects 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 13
- 238000004590 computer program Methods 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 230000009466 transformation Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 35
- 230000008569 process Effects 0.000 description 30
- 238000013519 translation Methods 0.000 description 21
- 238000010586 diagram Methods 0.000 description 12
- 238000013210 evaluation model Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 238000012549 training Methods 0.000 description 9
- 230000015654 memory Effects 0.000 description 8
- 238000010845 search algorithm Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 7
- 239000003795 chemical substances by application Substances 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 238000007476 Maximum Likelihood Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/51—Translation evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/16—Speech classification or search using artificial neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Probability & Statistics with Applications (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Operations Research (AREA)
- Acoustics & Sound (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Abstract
Description
Claims (27)
- プロセッサで実現される方法であって、
第1復号化モデルを用いてソース文章に対するターゲット文章を生成するステップと、
前記第1復号化モデルと異なる順に文章を生成する第2復号化モデルを用いて、前記ターゲット文章に対する補償情報を算出するステップと、
前記算出された補償情報に基づいて、前記第1復号化モデル内のノードそれぞれの加重値を再設定することでアップデートされた文章生成モデルを生成するステップと、
を含む文章生成モデルのアップデート方法。 - 前記補償情報を算出するステップは、前記ターゲット文章に含まれる複数の単語それぞれが前記第2復号化モデルから生成される確率に基づいて前記補償情報を算出するステップを含む、請求項1に記載の文章生成モデルのアップデート方法。
- 前記補償情報を算出するステップは、前記ソース文章及び前記第2復号化モデルから以前時間に出力された第1単語を用いて、前記第2復号化モデルに基づいて現在時間に第2単語が生成される確率を算出するステップをさらに含む、請求項2に記載の文章生成モデルのアップデート方法。
- 前記補償情報を算出するステップは、前記ターゲット文章に含まれる複数の単語が前記ターゲット文章と異なる順に配列された単語シーケンスに基づいて前記補償情報を算出するステップをさらに含む、請求項2に記載の文章生成モデルのアップデート方法。
- 前記第1復号化モデルは、リカレントニューラルネットワークを含む順方向復号化モデルであり、前記第2復号化モデルは、リカレントニューラルネットワークを含む逆方向復号化モデルである、請求項1ないし4のうち何れか一項に記載の文章生成モデルのアップデート方法。
- 前記それぞれの加重値を再設定するステップは、
前記第1復号化モデルを用いて前記ターゲット文章に対するポリシー情報を算出するステップと、
前記算出されたポリシー情報及び前記算出された補償情報を用いて指定された条件に対応する前記それぞれの加重値を再設定するステップと、
を含む、請求項1ないし5のうち何れか一項に記載の文章生成モデルのアップデート方法。 - 前記ポリシー情報を算出するステップは、前記ターゲット文章に含まれる複数の単語それぞれが前記第1復号化モデルから生成される確率に基づいて前記ポリシー情報を算出するステップを含む、請求項6に記載の文章生成モデルのアップデート方法。
- 前記ポリシー情報を算出するステップは、前記ソース文章及び前記第1復号化モデルから以前時間に出力された第1単語に基づいて、前記第1復号化モデルから現在時間に第2単語が生成される確率を算出するステップをさらに含む、請求項7に記載の文章生成モデルのアップデート方法。
- 前記それぞれの加重値を再設定するステップは、複数のターゲット文章それぞれの補償情報及びポリシー情報として定義される目的関数を最大化する前記加重値を再設定するステップを含み、
前記複数のターゲット文章は、前記第1復号化モデルを用いて前記ソース文章から生成される、請求項6に記載の文章生成モデルのアップデート方法。 - 前記それぞれの加重値を再設定するステップは、目的関数及び前記ソース文章に対して予め指定された正解文章が前記第1復号化モデルから生成される確率として定義される損失関数を最小化する前記加重値を再設定するステップを含み、
前記複数のターゲット文章は、前記第1復号化モデルを用いて前記ソース文章から生成され、前記目的関数は複数のターゲット文章それぞれの補償情報及びポリシー情報として定義される、請求項6に記載の文章生成モデルのアップデート方法。 - 前記ターゲット文章を生成するステップは、前記ソース文章に対応して前記第1復号化モデルが出力する最終の結果値のうち、予め設定された範囲内に存在する最終の結果値に応答して設定された範囲内で複数のターゲット文章を生成するステップを含む、請求項1ないし10のうち何れか一項に記載の文章生成モデルのアップデート方法。
- 前記ターゲット文章を生成するステップは、前記ソース文章内の単語に対応して前記第1復号化モデルが第1時点に出力する出力値に応じて複数のターゲット文章を生成するステップを含み、
前記補償情報を算出するステップは、前記第2復号化モデルを用いて前記第1時点に生成された複数のターゲット文章に対する補償情報を算出するステップを含む、請求項1ないし10のうち何れか一項に記載の文章生成モデルのアップデート方法。 - 前記ターゲット文章を生成するステップは、前記ソース文章内の単語に対応して前記第1復号化モデルが第1時点に出力する出力値をサンプリングして予め指定された個数のターゲット文章を生成するステップを含み、
前記補償情報を算出するステップは、前記第2復号化モデルを用いて前記予め指定された個数のターゲット文章に対する補償情報を算出するステップを含む、請求項1ないし10のうち何れか一項に記載の文章生成モデルのアップデート方法。 - 前記ターゲット文章を生成するステップは、
前記ソース文章に含まれるそれぞれの単語に対応して、前記第1復号化モデルが出力する出力値に応じて複数の第1ターゲット文章を生成するステップと、
前記ソース文章の全体に対応して、前記第1復号化モデルが出力する最終の結果値のうち予め設定された範囲内に存在する最終の結果値に応答して複数の第2ターゲット文章を生成するステップと、
を含む、請求項1ないし10のうち何れか一項に記載の文章生成モデルのアップデート方法。 - 前記補償情報を算出するステップは、
前記第2復号化モデルを用いて前記複数の第1ターゲット文章に対する第1補償情報を算出するステップと、
前記第2復号化モデルを用いて前記複数の第2ターゲット文章に対する第2補償情報を算出するステップと、
を含む、請求項14に記載の文章生成モデルのアップデート方法。 - 前記第2復号化モデルを用いて前記ソース文章に対する新しいターゲット文章を生成するステップと、
前記第1復号化モデルを用いて前記新しいターゲット文章に対する補償情報を算出するステップと、
前記算出された補償情報に基づいて前記第2復号化モデル内のノードの加重値を再設定するステップと、
をさらに含む、請求項1ないし15のうち何れか一項に記載の文章生成モデルのアップデート方法。 - 請求項1に記載のアップデート方法を文書生成装置のプロセッサに実行させるコンピュータプログラム。
- 第1復号化モデルを用いてソース文章に対するターゲット文章を生成する生成部と、
第2復号化モデルを用いて前記ターゲット文章に対する補償情報を算出する算出部と、
前記算出された補償情報に基づいて前記第1復号化モデル内のノードの加重値を再設定することで、アップデートされた文章生成モデルを生成するアップデート部と、
を含む文章生成装置。 - 前記算出部は、前記ターゲット文章に含まれる複数の単語が前記ターゲット文章と異なる順に配列された単語シーケンスに基づいて前記補償情報を算出する、請求項18に記載の文章生成装置。
- 前記算出部は、前記ソース文章及び前記第2復号化モデルから以前時間に出力された第1単語に基づいて、前記第2復号化モデルから現在時間に第2単語が生成される確率を算出して前記補償情報を算出する、請求項19に記載の文章生成装置。
- 前記算出部は、前記ターゲット文章に含まれる複数の単語をそれぞれの文字に分離した単語シーケンスを前記第2復号化モデルに入力して前記補償情報を算出する、請求項18ないし20のうち何れか一項に記載の文章生成装置。
- 前記算出部は、前記ソース文章及び前記第2復号化モデルから以前時間に出力された第1文字に基づいて、前記第2復号化モデルから現在時間に第2文字が生成される確率を算出して前記補償情報を算出する、請求項21に記載の文章生成装置。
- 前記生成部は、前記ソース文章に対応して前記第1復号化モデルが出力する最終の結果値のうち、予め設定された範囲内に存在する最終の結果値に応じて複数のターゲット文章を生成する、請求項21に記載の文章生成装置。
- 前記生成部は、前記ソース文章内の単語に対応して前記第1復号化モデルが第1時点に出力する出力値に応じて複数のターゲット文章を生成し、前記算出部は、前記第2復号化モデルを用いて前記第1時点に生成された複数のターゲット文章に対する補償情報を算出する、請求項21に記載の文章生成装置。
- 前記生成部は、前記ソース文章に含まれるそれぞれの単語に対応して前記第1復号化モデルが出力する出力値に応じて複数の第1ターゲット文章を生成し、前記ソース文章に対応して前記第1復号化モデルが出力する最終の結果値のうち、予め設定された範囲内に存在する最終の結果値に応答して複数の第2ターゲット文章を生成する、請求項21に記載の文章生成装置。
- 前記算出部は、前記第2復号化モデルを用いて前記複数の第1ターゲット文章に対する第1補償情報を算出し、前記第2復号化モデルを用いて前記複数の第2ターゲット文章に対する第2補償情報を算出する、請求項25に記載の文章生成装置。
- 前記生成部は、前記第2復号化モデルを用いて前記ソース文章に対する新しいターゲット文章を生成し、前記算出部は、前記第1復号化モデルを用いて前記新しいターゲット文章に対する補償情報を算出し、前記アップデート部は、前記算出された補償情報に基づいて前記第2復号化モデル内のノードそれぞれの加重値を再設定する、請求項21に記載の文章生成装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170133971A KR102424540B1 (ko) | 2017-10-16 | 2017-10-16 | 문장 생성 모델의 업데이트 방법 및 문장 생성 장치 |
KR10-2017-0133971 | 2017-10-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019075088A true JP2019075088A (ja) | 2019-05-16 |
JP7109302B2 JP7109302B2 (ja) | 2022-07-29 |
Family
ID=63914798
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018148375A Active JP7109302B2 (ja) | 2017-10-16 | 2018-08-07 | 文章生成モデルのアップデート方法及び文章生成装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11727263B2 (ja) |
EP (1) | EP3474157A1 (ja) |
JP (1) | JP7109302B2 (ja) |
KR (1) | KR102424540B1 (ja) |
CN (1) | CN109670147A (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210002027A (ko) * | 2019-06-27 | 2021-01-06 | 엄신조 | 자연어처리 기반의 자기소개서를 평가하기 위한 장치 및 이를 위한 방법 |
JP2022549893A (ja) * | 2019-09-25 | 2022-11-29 | ディープマインド テクノロジーズ リミテッド | 過去の入力に選択的に注意を向けるための注意ベースのニューラルネットワークの拡張 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7031741B2 (ja) * | 2018-06-05 | 2022-03-08 | 日本電信電話株式会社 | モデル学習装置、方法及びプログラム |
US11347966B2 (en) * | 2018-07-20 | 2022-05-31 | Samsung Electronics Co., Ltd. | Electronic apparatus and learning method of electronic apparatus |
US20210019628A1 (en) * | 2018-07-23 | 2021-01-21 | Intel Corporation | Methods, systems, articles of manufacture and apparatus to train a neural network |
US11995854B2 (en) * | 2018-12-19 | 2024-05-28 | Nvidia Corporation | Mesh reconstruction using data-driven priors |
US11907675B2 (en) * | 2019-01-18 | 2024-02-20 | Uber Technologies, Inc. | Generating training datasets for training neural networks |
US11087092B2 (en) * | 2019-03-05 | 2021-08-10 | Salesforce.Com, Inc. | Agent persona grounded chit-chat generation framework |
CN110502746B (zh) * | 2019-07-18 | 2021-04-09 | 北京捷通华声科技股份有限公司 | 一种在线域更新解码方法、装置、电子设备及存储介质 |
US10997970B1 (en) * | 2019-07-30 | 2021-05-04 | Abbas Rafii | Methods and systems implementing language-trainable computer-assisted hearing aids |
KR102232871B1 (ko) * | 2019-08-14 | 2021-03-26 | 펜타시큐리티시스템 주식회사 | Can 기반의 통신 네트워크에서 신호 검출 방법 및 장치 |
CN112380855B (zh) * | 2020-11-20 | 2024-03-08 | 北京百度网讯科技有限公司 | 确定语句通顺度的方法、确定概率预测模型的方法和装置 |
KR102539601B1 (ko) * | 2020-12-03 | 2023-06-02 | 주식회사 포티투마루 | 텍스트 요약 성능 개선 방법 및 시스템 |
US20220229994A1 (en) * | 2021-01-21 | 2022-07-21 | Servicenow, Inc. | Operational modeling and optimization system for a natural language understanding (nlu) framework |
KR20220130450A (ko) * | 2021-03-18 | 2022-09-27 | 삼성전자주식회사 | 음성 인식을 위한 인공 신경망에서의 디코딩 방법 및 디코딩 장치 |
US12124835B2 (en) * | 2022-04-28 | 2024-10-22 | The Bank Of New York Mellon | Computer system and method for facilitating real-time determination of a process completion likelihood |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107122416A (zh) * | 2017-03-31 | 2017-09-01 | 北京大学 | 一种中文事件抽取方法 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3936687B2 (ja) | 2003-08-29 | 2007-06-27 | 株式会社国際電気通信基礎技術研究所 | 機械翻訳文の評価方法、および機械翻訳文の評価装置 |
WO2010046782A2 (en) | 2008-10-24 | 2010-04-29 | App Tek | Hybrid machine translation |
KR101762866B1 (ko) | 2010-11-05 | 2017-08-16 | 에스케이플래닛 주식회사 | 구문 구조 변환 모델과 어휘 변환 모델을 결합한 기계 번역 장치 및 기계 번역 방법 |
WO2012079247A1 (zh) * | 2010-12-17 | 2012-06-21 | 北京交通大学 | 机器翻译测评装置及方法 |
CN102043774A (zh) * | 2011-01-13 | 2011-05-04 | 北京交通大学 | 机器翻译测评装置和方法 |
JP6478382B2 (ja) * | 2014-09-12 | 2019-03-06 | 日本放送協会 | 翻訳装置 |
KR101735314B1 (ko) | 2015-01-07 | 2017-05-16 | 한국전자통신연구원 | 하이브리드 번역 장치 및 그 방법 |
KR102305584B1 (ko) | 2015-01-19 | 2021-09-27 | 삼성전자주식회사 | 언어 모델 학습 방법 및 장치, 언어 인식 방법 및 장치 |
JP6649124B2 (ja) * | 2015-05-25 | 2020-02-19 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 機械翻訳方法、機械翻訳装置及びプログラム |
US9836457B2 (en) * | 2015-05-25 | 2017-12-05 | Panasonic Intellectual Property Corporation Of America | Machine translation method for performing translation between languages |
CN106484681B (zh) * | 2015-08-25 | 2019-07-09 | 阿里巴巴集团控股有限公司 | 一种生成候选译文的方法、装置及电子设备 |
CN108604227B (zh) * | 2016-01-26 | 2023-10-24 | 皇家飞利浦有限公司 | 用于神经临床释义生成的系统和方法 |
JP6655788B2 (ja) * | 2016-02-01 | 2020-02-26 | パナソニックIpマネジメント株式会社 | 対訳コーパス作成方法、該装置および該プログラムならびに機械翻訳システム |
US11200265B2 (en) * | 2017-05-09 | 2021-12-14 | Accenture Global Solutions Limited | Automated generation of narrative responses to data queries |
-
2017
- 2017-10-16 KR KR1020170133971A patent/KR102424540B1/ko active IP Right Grant
-
2018
- 2018-05-18 CN CN201810478297.0A patent/CN109670147A/zh active Pending
- 2018-06-21 US US16/014,779 patent/US11727263B2/en active Active
- 2018-08-07 JP JP2018148375A patent/JP7109302B2/ja active Active
- 2018-10-01 EP EP18197984.0A patent/EP3474157A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107122416A (zh) * | 2017-03-31 | 2017-09-01 | 北京大学 | 一种中文事件抽取方法 |
Non-Patent Citations (4)
Title |
---|
CONG DUY VU HOANG 外2名: "Towards Decoding as Continuous Optimisation in Neural Machine Translation", インターネット, JPN7021004679, 22 July 2017 (2017-07-22), pages 146 - 156, ISSN: 0004634663 * |
LIU, LEMAO 外3名: "Agreement on Target-bidirectional Neural Machine Translation", PROCEEDINGS OF NAACL-HLT 2016, JPN7021004681, 17 June 2016 (2016-06-17), pages 411 - 416, XP055569973, ISSN: 0004634660, DOI: 10.18653/v1/N16-1046 * |
SENNRICH, RICO 外2名: "Edinbrugh Neural Machine Translation Systems for WMT 16", PROCEEDINGS OF THE FIRST CONFERENCE ON MACHINE TRANSLATION, VOLUME 2: SHARED TASK PAPERS, JPN7021004680, 12 August 2016 (2016-08-12), pages 371 - 376, ISSN: 0004634662 * |
佐藤 挙斗 外4名: "文字レベル深層学習によるテキスト分類と転移学習", 第102回 人工知能基本問題研究会資料 (SIG−FPAI−B505), JPN6021043690, 8 December 2016 (2016-12-08), JP, pages 13 - 19, ISSN: 0004634661 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210002027A (ko) * | 2019-06-27 | 2021-01-06 | 엄신조 | 자연어처리 기반의 자기소개서를 평가하기 위한 장치 및 이를 위한 방법 |
KR102455472B1 (ko) | 2019-06-27 | 2022-10-17 | 엄신조 | 자연어처리 기반의 자기소개서를 평가하기 위한 장치 및 이를 위한 방법 |
JP2022549893A (ja) * | 2019-09-25 | 2022-11-29 | ディープマインド テクノロジーズ リミテッド | 過去の入力に選択的に注意を向けるための注意ベースのニューラルネットワークの拡張 |
US11829884B2 (en) | 2019-09-25 | 2023-11-28 | Deepmind Technologies Limited | Augmenting attentioned-based neural networks to selectively attend to past inputs |
JP7408788B2 (ja) | 2019-09-25 | 2024-01-05 | ディープマインド テクノロジーズ リミテッド | 過去の入力に選択的に注意を向けるための注意ベースのニューラルネットワークの拡張 |
Also Published As
Publication number | Publication date |
---|---|
KR20190042257A (ko) | 2019-04-24 |
JP7109302B2 (ja) | 2022-07-29 |
EP3474157A1 (en) | 2019-04-24 |
CN109670147A (zh) | 2019-04-23 |
US11727263B2 (en) | 2023-08-15 |
KR102424540B1 (ko) | 2022-07-25 |
US20190114540A1 (en) | 2019-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019075088A (ja) | 文章生成モデルのアップデート方法及び文章生成装置 | |
US11423233B2 (en) | On-device projection neural networks for natural language understanding | |
JP6923332B2 (ja) | 自動通訳方法及び装置 | |
US10726306B1 (en) | Dense captioning with joint interference and visual context | |
US10546066B2 (en) | End-to-end learning of dialogue agents for information access | |
Malte et al. | Evolution of transfer learning in natural language processing | |
JP6889270B2 (ja) | ニューラルネットワークアーキテクチャの最適化 | |
JP7066349B2 (ja) | 翻訳方法、翻訳装置及びコンピュータプログラム | |
US10957309B2 (en) | Neural network method and apparatus | |
US10509864B2 (en) | Language model translation and training method and apparatus | |
CN107836000B (zh) | 用于语言建模和预测的改进的人工神经网络方法、电子设备 | |
US10043512B2 (en) | Generating target sequences from input sequences using partial conditioning | |
Potash et al. | Here's my point: Joint pointer architecture for argument mining | |
US20200342055A1 (en) | Named entity disambiguation using entity distance in a knowledge graph | |
CN109074517B (zh) | 全局归一化神经网络 | |
BR112019004524B1 (pt) | Sistema de redes neurais, um ou mais meios de armazenamento legíveis por computador não transitório e método para gerar autorregressivamente uma sequência de saída de dados de áudio | |
US20200125967A1 (en) | Electronic device and method for controlling the electronic device | |
CN108604311B (zh) | 利用层级式外部存储器的增强神经网络 | |
JP2016110082A (ja) | 言語モデル学習方法及び装置、音声認識方法及び装置 | |
US20210217409A1 (en) | Electronic device and control method therefor | |
JP2021125217A (ja) | マルチホップ機械読み取りのための潜在質問再定式化および情報蓄積 | |
US20220059088A1 (en) | Electronic device and control method therefor | |
JP2020008836A (ja) | 語彙テーブルの選択方法、装置およびコンピュータ読み取り可能な記憶媒体 | |
CN116341564A (zh) | 基于语义理解的问题推理方法和装置 | |
US11443735B2 (en) | Method for generating filled pause detecting model corresponding to new domain and device therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210412 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210827 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220719 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7109302 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |