JP2019537096A - ニューラル機械翻訳システム - Google Patents
ニューラル機械翻訳システム Download PDFInfo
- Publication number
- JP2019537096A JP2019537096A JP2019516134A JP2019516134A JP2019537096A JP 2019537096 A JP2019537096 A JP 2019537096A JP 2019516134 A JP2019516134 A JP 2019516134A JP 2019516134 A JP2019516134 A JP 2019516134A JP 2019537096 A JP2019537096 A JP 2019537096A
- Authority
- JP
- Japan
- Prior art keywords
- output
- sequence
- input
- lstm
- machine translation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013519 translation Methods 0.000 title claims abstract description 80
- 230000001537 neural effect Effects 0.000 title claims abstract description 61
- 238000000034 method Methods 0.000 claims abstract description 87
- 238000013528 artificial neural network Methods 0.000 claims abstract description 70
- 230000008569 process Effects 0.000 claims abstract description 65
- 238000012545 processing Methods 0.000 claims abstract description 30
- 230000002441 reversible effect Effects 0.000 claims abstract description 9
- 239000013598 vector Substances 0.000 claims description 28
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000013139 quantization Methods 0.000 claims description 4
- 230000007787 long-term memory Effects 0.000 claims 1
- 238000004590 computer program Methods 0.000 abstract description 15
- 230000006403 short-term memory Effects 0.000 abstract description 2
- 230000009471 action Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000002457 bidirectional effect Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000003993 interaction Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000026676 system process Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
Description
100 エンコーダニューラルネットワーク
102 ソースシーケンス
104 入力シーケンス
110 エンコーダニューラルネットワーク
112 符号化表現
114 双方向LSTM層
116 一方向LSTM層のスタック
118 残余接続
120 デコーダニューラルネットワーク
122 LSTM層のスタック
124 ソフトマックス出力層
126 残留接続
128 トークン
130 アテンションサブシステム
132 アテンション文脈ベクトル
142 出力シーケンス
152 ターゲットシーケンス
200 プロセス
300 プロセス
400 プロセス
500 プロセス
600 プロセス
Claims (20)
エンコーダニューラルネットワークであって、
各入力トークンのそれぞれの順方向表現を生成するために、前記入力シーケンス内の各入力トークンを順方向に処理するように構成される入力順方向長短期メモリ(LSTM)層と、
各入力トークンのそれぞれの逆方向表現を生成するために、前記入力シーケンス内の各入力トークンを逆方向に処理するように構成される入力逆方向LSTM層と、
前記入力シーケンス内の入力トークンごとに、前記入力トークンの組合せ表現を生成するために、前記入力トークンの前記順方向表現と前記入力トークンの前記逆方向表現とを組み合わせるように構成される組合せ層と、
前記入力シーケンス内の前記入力トークンの各々のそれぞれの符号化表現を生成するために、各組合せ表現を前記順方向に処理するように構成される複数の隠れLSTM層と
を備える、エンコーダニューラルネットワークと、
前記入力シーケンス内の前記入力トークンの各々の前記それぞれの符号化表現を受信し、かつ前記出力シーケンスを生成するために前記符号化表現を処理するように構成されるデコーダサブシステムと
を備える、ニューラル機械翻訳システム。
デコーダニューラルネットワークであって、
上下に重ねられて配置された複数のLSTM層であって、前記出力シーケンス内の複数の位置ごとに、
前記出力シーケンス内の前の位置においてアテンション文脈ベクトルと前記出力トークンとを受信し、
前記位置のLSTM出力を生成するために、前記出力シーケンス内の前記前の位置において前記アテンション文脈ベクトルと前記トークンとを処理する
ように構成される、複数のLSTM層と、
ソフトマックス出力層であって、前記複数の位置ごとに、前記位置についての前記LSTM出力を受信し、かつ出力トークンの語彙内の出力トークンごとにそれぞれのスコアを生成するように構成される、ソフトマックス出力層と
を備える、デコーダニューラルネットワーク
を備える、請求項1〜3のいずれか一項に記載のニューラル機械翻訳システム。
前記アテンション文脈ベクトルを備える第1の層入力と、前記スタック内の前記第1のLSTM層の直下のLSTM層によって生成された層出力と、前記スタック内の前記第1のLSTM層の直下の前記LSTM層への層入力とを受信し、
第1の層出力を生成し、かつ現在の隠れ状態を更新するために、前記第1のLSTM層の前記現在の隠れ状態に従って前記第1の層入力を処理する
ように構成される、請求項6に記載のニューラル機械翻訳システム。
アテンションサブシステムであって、前記複数の位置ごとに、
前記前の位置について、前記デコーダニューラルネットワーク内のLSTM層の前記スタック内のLSTM最下層によって生成された最下層出力を備えるアテンション入力を受信し、
時間ステップの前記アテンション文脈ベクトルを生成するために、前記アテンション入力を処理する
ように構成される、請求項4〜7のいずれか一項に記載のニューラル機械翻訳システム。
前記入力トークンの各々のそれぞれのスコアを生成するために、1つまたは複数のニューラルネットワーク層を通じて前記最下層出力および前記符号化表現を処理することと、
前記それぞれのスコアから前記入力トークンの各々のそれぞれの重みを生成することと、
前記重みに従って前記符号化表現の加重合計を決定することと
を備える、請求項8に記載のニューラル機械翻訳システム。
ニューラル機械翻訳システムから複数の候補出力シーケンスを取得するステップと、
前記ニューラル機械翻訳システムによるさらなる検討のために、最大で所定の数の前記候補出力シーケンスをビーム内に維持するステップであって、
各候補出力シーケンスにそれぞれのスコアを割り当てるステップと、
前記それぞれのスコアに基づいて前記候補出力シーケンスをランク付けするステップと、
前記ランク付けに従って、前記所定の数の最高ランクの候補出力シーケンス以外のすべての候補出力シーケンスを前記ビームから除去するステップと、
前記ビーム内の前記候補出力シーケンスのうちのいずれかが、前記ニューラル機械翻訳システムによって最終決定候補出力シーケンスとして識別されたかどうかを判定するステップと、
前記候補出力シーケンスのうちの少なくとも1つが最終決定候補出力シーケンスとして識別されたとき、
最高ランクの最終決定候補出力シーケンスの前記スコアより低いしきい値よりも大きいスコアを有するすべての候補出力シーケンスを前記ビームから除去するステップと
を備える、ステップと
を備える、方法。
前記候補出力シーケンスのいずれかが所定の文末出力トークンで終わるかどうかを判定するステップ
を備える、請求項12または13のいずれか一項に記載の方法。
前記ニューラル機械翻訳システムによって生成された出力スコアに従って前記候補出力シーケンスの対数尤度を決定するステップと、
長さ正規化対数尤度を生成するために、前記候補出力シーケンス内のいくつかの出力トークンに基づいて前記対数尤度を正規化するステップと
を備える、請求項12〜14のいずれか一項に記載の方法。
前記第1のシーケンス内の前記単語を完全に網羅する候補出力シーケンスを優先するために、カバレッジペナルティを使用して前記長さ正規化対数尤度を修正するステップ
をさらに備える、請求項15に記載の方法。
をさらに備える、請求項12〜16のいずれか一項に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662399990P | 2016-09-26 | 2016-09-26 | |
US62/399,990 | 2016-09-26 | ||
PCT/US2017/053267 WO2018058046A1 (en) | 2016-09-26 | 2017-09-25 | Neural machine translation systems |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019537096A true JP2019537096A (ja) | 2019-12-19 |
JP6870076B2 JP6870076B2 (ja) | 2021-05-12 |
Family
ID=60084077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019516134A Active JP6870076B2 (ja) | 2016-09-26 | 2017-09-25 | ニューラル機械翻訳システム |
Country Status (10)
Country | Link |
---|---|
US (2) | US11113480B2 (ja) |
EP (1) | EP3516591A1 (ja) |
JP (1) | JP6870076B2 (ja) |
KR (1) | KR102323548B1 (ja) |
CN (2) | CN113553862A (ja) |
DE (2) | DE202017105835U1 (ja) |
GB (1) | GB2556674A (ja) |
IE (1) | IE20170201A1 (ja) |
SG (1) | SG10201707936TA (ja) |
WO (1) | WO2018058046A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020515899A (ja) * | 2017-03-29 | 2020-05-28 | グーグル エルエルシー | エンドツーエンドのテキスト音声変換 |
JP2021117989A (ja) * | 2020-01-23 | 2021-08-10 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | 言語生成方法、装置及び電子機器 |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11113480B2 (en) * | 2016-09-26 | 2021-09-07 | Google Llc | Neural machine translation systems |
WO2018066083A1 (ja) * | 2016-10-04 | 2018-04-12 | 富士通株式会社 | 学習プログラム、情報処理装置および学習方法 |
US10558750B2 (en) * | 2016-11-18 | 2020-02-11 | Salesforce.Com, Inc. | Spatial attention model for image captioning |
US10776581B2 (en) * | 2018-02-09 | 2020-09-15 | Salesforce.Com, Inc. | Multitask learning as question answering |
CN108388549B (zh) * | 2018-02-26 | 2021-02-19 | 腾讯科技(深圳)有限公司 | 信息转换方法、装置、存储介质和电子装置 |
CN108629743B (zh) * | 2018-04-04 | 2022-03-25 | 腾讯科技(深圳)有限公司 | 图像的处理方法、装置、存储介质和电子装置 |
CN108563640A (zh) * | 2018-04-24 | 2018-09-21 | 中译语通科技股份有限公司 | 一种多语言对的神经网络机器翻译方法及系统 |
CN108932232A (zh) * | 2018-05-07 | 2018-12-04 | 内蒙古工业大学 | 一种基于lstm神经网络的蒙汉互译方法 |
CN108920468B (zh) * | 2018-05-07 | 2019-05-14 | 内蒙古工业大学 | 一种基于强化学习的蒙汉双语种互译方法 |
CN110489761B (zh) | 2018-05-15 | 2021-02-02 | 科大讯飞股份有限公司 | 一种篇章级文本翻译方法及装置 |
CN111727444A (zh) | 2018-05-18 | 2020-09-29 | 谷歌有限责任公司 | 通用变换器 |
CN108984539B (zh) * | 2018-07-17 | 2022-05-17 | 苏州大学 | 基于模拟未来时刻的翻译信息的神经机器翻译方法 |
CN109033094A (zh) * | 2018-07-18 | 2018-12-18 | 五邑大学 | 一种基于序列到序列神经网络模型的文言文白话文互译方法及系统 |
US11574122B2 (en) * | 2018-08-23 | 2023-02-07 | Shenzhen Keya Medical Technology Corporation | Method and system for joint named entity recognition and relation extraction using convolutional neural network |
CN109271646B (zh) * | 2018-09-04 | 2022-07-08 | 腾讯科技(深圳)有限公司 | 文本翻译方法、装置、可读存储介质和计算机设备 |
US10672382B2 (en) * | 2018-10-15 | 2020-06-02 | Tencent America LLC | Input-feeding architecture for attention based end-to-end speech recognition |
US10891951B2 (en) | 2018-10-17 | 2021-01-12 | Ford Global Technologies, Llc | Vehicle language processing |
CN109634578B (zh) * | 2018-10-19 | 2021-04-02 | 北京大学 | 一种基于文本说明的程序生成方法 |
CN109543199B (zh) * | 2018-11-28 | 2022-06-10 | 腾讯科技(深圳)有限公司 | 一种文本翻译的方法以及相关装置 |
CN109598334B (zh) * | 2018-12-03 | 2021-06-29 | 中国信息安全测评中心 | 一种样本生成方法及装置 |
US10963652B2 (en) * | 2018-12-11 | 2021-03-30 | Salesforce.Com, Inc. | Structured text translation |
US11822897B2 (en) | 2018-12-11 | 2023-11-21 | Salesforce.Com, Inc. | Systems and methods for structured text translation with tag alignment |
CN109558605B (zh) * | 2018-12-17 | 2022-06-10 | 北京百度网讯科技有限公司 | 用于翻译语句的方法和装置 |
CN111368558B (zh) * | 2018-12-25 | 2024-01-02 | Tcl科技集团股份有限公司 | 基于神经网络的实时翻译方法、智能终端及存储介质 |
CN111476039B (zh) * | 2019-01-04 | 2023-06-30 | 深圳永德利科技股份有限公司 | 智能车载系统的即时语言翻译方法及相关产品 |
WO2020154538A1 (en) * | 2019-01-23 | 2020-07-30 | Google Llc | Generating neural network outputs using insertion operations |
WO2020225942A1 (ja) * | 2019-05-07 | 2020-11-12 | 株式会社Nttドコモ | 内部状態変更装置 |
JP7170594B2 (ja) * | 2019-06-25 | 2022-11-14 | Kddi株式会社 | 同一事象に対して時系列に発生した異なるメディアデータを統合した学習モデルを構築するプログラム、装置及び方法 |
US11250322B2 (en) * | 2019-07-15 | 2022-02-15 | Sony Interactive Entertainment LLC | Self-healing machine learning system for transformed data |
CN110489766B (zh) * | 2019-07-25 | 2020-07-10 | 昆明理工大学 | 基于编码归纳-解码推敲的汉-越低资源神经机器翻译方法 |
KR102286999B1 (ko) * | 2019-08-05 | 2021-08-09 | 강원대학교산학협력단 | 듀얼 포인터 네트워크를 이용한 복수 개체간 관계를 추출하는 장치 및 방법 |
CN110442880B (zh) * | 2019-08-06 | 2022-09-30 | 上海海事大学 | 一种机器翻译译文的翻译方法、装置及存储介质 |
CN112765998A (zh) * | 2019-11-01 | 2021-05-07 | 华为技术有限公司 | 机器翻译方法、机器翻译模型训练方法、装置及存储介质 |
CN110941966A (zh) | 2019-12-10 | 2020-03-31 | 北京小米移动软件有限公司 | 机器翻译模型的训练方法、装置及系统 |
CN111178092B (zh) * | 2019-12-20 | 2023-04-07 | 沈阳雅译网络技术有限公司 | 一种动态调整长度惩罚及译文长度的翻译模型优化方法 |
KR20210097588A (ko) | 2020-01-30 | 2021-08-09 | 삼성전자주식회사 | 컨텍스트 정보와 대응되는 문장을 획득하는 전자 장치 및 그 동작 방법 |
CN111401078A (zh) * | 2020-03-17 | 2020-07-10 | 江苏省舜禹信息技术有限公司 | 神经网络文本翻译模型的运行方法、装置、设备、及介质 |
CN111523329A (zh) * | 2020-04-10 | 2020-08-11 | 昆明理工大学 | 基于编码器-转换器-解码器框架的神经网络机器翻译方法 |
US11868737B2 (en) * | 2020-04-24 | 2024-01-09 | Direct Cursus Technology L.L.C | Method and server for processing text sequence for machine processing task |
DE102020114046A1 (de) | 2020-05-26 | 2021-12-02 | Thomas Eißfeller | Neuronales Maschinenübersetzungsverfahren, neuronales Maschinenübersetzungssystem, Lernverfahren, Lernsystem und Programm |
US11875131B2 (en) | 2020-09-16 | 2024-01-16 | International Business Machines Corporation | Zero-shot cross-lingual transfer learning |
US20220129645A1 (en) * | 2020-10-27 | 2022-04-28 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling same |
CN112364119B (zh) * | 2020-12-01 | 2023-04-18 | 国家海洋信息中心 | 基于lstm编解码模型的海洋浮标轨迹预测方法 |
US20220207244A1 (en) * | 2020-12-30 | 2022-06-30 | Yandex Europe Ag | Method and server for training a machine learning algorithm for executing translation |
CN112836485B (zh) * | 2021-01-25 | 2023-09-19 | 中山大学 | 一种基于神经机器翻译的相似病历预测方法 |
CN113095092A (zh) * | 2021-04-19 | 2021-07-09 | 南京大学 | 通过建模协同关系提高非自回归神经机器翻译质量的方法 |
US11726750B1 (en) * | 2021-11-17 | 2023-08-15 | Outsystems—Software Em Rede, S.A. | Constrained decoding and ranking of language models for code generation |
WO2023219752A1 (en) * | 2022-05-13 | 2023-11-16 | Alexander Waibel | Face-translator: end-to-end system for speech-translated lip-synchronized and voice preserving video generation |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006083690A2 (en) * | 2005-02-01 | 2006-08-10 | Embedded Technologies, Llc | Language engine coordination and switching |
ES2435093B1 (es) * | 2012-06-15 | 2014-12-16 | Centro De Investigaciones Energéticas, Medioambientales Y Tecnológicas (Ciemat) | Procedimiento de entrenamiento de redes neuronales para detectores centelleadores. |
US10181098B2 (en) * | 2014-06-06 | 2019-01-15 | Google Llc | Generating representations of input sequences using neural networks |
WO2016065327A1 (en) * | 2014-10-24 | 2016-04-28 | Google Inc. | Neural machine translation systems with rare word processing |
KR102305584B1 (ko) | 2015-01-19 | 2021-09-27 | 삼성전자주식회사 | 언어 모델 학습 방법 및 장치, 언어 인식 방법 및 장치 |
JP6313730B2 (ja) * | 2015-04-10 | 2018-04-18 | タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited | 異常検出システムおよび方法 |
CN105068998B (zh) * | 2015-07-29 | 2017-12-15 | 百度在线网络技术(北京)有限公司 | 基于神经网络模型的翻译方法及装置 |
US10606846B2 (en) * | 2015-10-16 | 2020-03-31 | Baidu Usa Llc | Systems and methods for human inspired simple question answering (HISQA) |
JP6876061B2 (ja) * | 2016-01-26 | 2021-05-26 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | ニューラル臨床パラフレーズ生成のためのシステム及び方法 |
US11113480B2 (en) * | 2016-09-26 | 2021-09-07 | Google Llc | Neural machine translation systems |
WO2018094296A1 (en) * | 2016-11-18 | 2018-05-24 | Salesforce.Com, Inc. | Sentinel long short-term memory |
US10733380B2 (en) * | 2017-05-15 | 2020-08-04 | Thomson Reuters Enterprise Center Gmbh | Neural paraphrase generator |
WO2019118864A1 (en) * | 2017-12-15 | 2019-06-20 | Google Llc | Training and/or using an encoder model to determine responsive action(s) for natural language input |
US10585988B2 (en) * | 2018-06-08 | 2020-03-10 | Microsoft Technology Licensing, Llc | Graph representations for identifying a next word |
US20200272695A1 (en) * | 2019-02-25 | 2020-08-27 | Disney Enterprises, Inc. | Techniques for performing contextual phrase grounding |
-
2017
- 2017-09-25 US US16/336,870 patent/US11113480B2/en active Active
- 2017-09-25 EP EP17784461.0A patent/EP3516591A1/en active Pending
- 2017-09-25 KR KR1020197008608A patent/KR102323548B1/ko active IP Right Grant
- 2017-09-25 WO PCT/US2017/053267 patent/WO2018058046A1/en active Application Filing
- 2017-09-25 JP JP2019516134A patent/JP6870076B2/ja active Active
- 2017-09-26 IE IE20170201A patent/IE20170201A1/en unknown
- 2017-09-26 CN CN202110688995.5A patent/CN113553862A/zh active Pending
- 2017-09-26 SG SG10201707936TA patent/SG10201707936TA/en unknown
- 2017-09-26 CN CN201710882491.0A patent/CN107870902B/zh active Active
- 2017-09-26 DE DE202017105835.2U patent/DE202017105835U1/de active Active
- 2017-09-26 DE DE102017122276.6A patent/DE102017122276A1/de active Pending
- 2017-09-26 GB GB1715516.9A patent/GB2556674A/en not_active Withdrawn
-
2021
- 2021-08-27 US US17/459,111 patent/US20210390271A1/en not_active Abandoned
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020515899A (ja) * | 2017-03-29 | 2020-05-28 | グーグル エルエルシー | エンドツーエンドのテキスト音声変換 |
JP2020170200A (ja) * | 2017-03-29 | 2020-10-15 | グーグル エルエルシー | エンドツーエンドのテキスト音声変換 |
US11107457B2 (en) | 2017-03-29 | 2021-08-31 | Google Llc | End-to-end text-to-speech conversion |
JP7009564B2 (ja) | 2017-03-29 | 2022-01-25 | グーグル エルエルシー | エンドツーエンドのテキスト音声変換 |
JP2022058554A (ja) * | 2017-03-29 | 2022-04-12 | グーグル エルエルシー | エンドツーエンドのテキスト音声変換 |
US11862142B2 (en) | 2017-03-29 | 2024-01-02 | Google Llc | End-to-end text-to-speech conversion |
JP2021117989A (ja) * | 2020-01-23 | 2021-08-10 | ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド | 言語生成方法、装置及び電子機器 |
JP7121791B2 (ja) | 2020-01-23 | 2022-08-18 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 言語生成方法、装置及び電子機器 |
US11562150B2 (en) | 2020-01-23 | 2023-01-24 | Beijing Baidu Netcom Science Technology Co., Ltd. | Language generation method and apparatus, electronic device and storage medium |
Also Published As
Publication number | Publication date |
---|---|
KR102323548B1 (ko) | 2021-11-08 |
CN107870902A (zh) | 2018-04-03 |
GB2556674A (en) | 2018-06-06 |
CN107870902B (zh) | 2021-07-09 |
WO2018058046A1 (en) | 2018-03-29 |
EP3516591A1 (en) | 2019-07-31 |
US20200034435A1 (en) | 2020-01-30 |
DE202017105835U1 (de) | 2018-01-02 |
SG10201707936TA (en) | 2018-04-27 |
US11113480B2 (en) | 2021-09-07 |
CN113553862A (zh) | 2021-10-26 |
GB201715516D0 (en) | 2017-11-08 |
IE20170201A1 (en) | 2018-04-04 |
DE102017122276A1 (de) | 2018-03-29 |
US20210390271A1 (en) | 2021-12-16 |
JP6870076B2 (ja) | 2021-05-12 |
KR20190039817A (ko) | 2019-04-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6870076B2 (ja) | ニューラル機械翻訳システム | |
US11222252B2 (en) | Generating representations of input sequences using neural networks | |
JP6827548B2 (ja) | 音声認識システム及び音声認識の方法 | |
JP6818941B2 (ja) | 多言語音声認識ネットワークをトレーニングする方法、音声認識システム及び多言語音声認識システム | |
JP6929466B2 (ja) | 音声認識システム | |
US10409908B2 (en) | Generating parse trees of text segments using neural networks | |
US11080589B2 (en) | Sequence processing using online attention | |
US10043512B2 (en) | Generating target sequences from input sequences using partial conditioning | |
BR112019004524B1 (pt) | Sistema de redes neurais, um ou mais meios de armazenamento legíveis por computador não transitório e método para gerar autorregressivamente uma sequência de saída de dados de áudio | |
CN109074517B (zh) | 全局归一化神经网络 | |
JP2015529350A (ja) | ハイブリッドgpu/cpuデータ処理方法 | |
JP7368479B2 (ja) | モデルをトレーニングするためのトレーニング・データ修正 | |
US11423237B2 (en) | Sequence transduction neural networks | |
CN113591462A (zh) | 弹幕回复生成方法、装置及电子设备 | |
CN111583910B (zh) | 模型更新方法、装置、电子设备及存储介质 | |
CN117634463A (zh) | 一种实体关系联合抽取方法、装置、设备及介质 | |
CN114118108A (zh) | 建立转译模型的方法、转译方法和对应装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190517 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200811 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210414 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6870076 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |