JP6870076B2 - ニューラル機械翻訳システム - Google Patents
ニューラル機械翻訳システム Download PDFInfo
- Publication number
- JP6870076B2 JP6870076B2 JP2019516134A JP2019516134A JP6870076B2 JP 6870076 B2 JP6870076 B2 JP 6870076B2 JP 2019516134 A JP2019516134 A JP 2019516134A JP 2019516134 A JP2019516134 A JP 2019516134A JP 6870076 B2 JP6870076 B2 JP 6870076B2
- Authority
- JP
- Japan
- Prior art keywords
- output
- sequence
- input
- lstm
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013519 translation Methods 0.000 title claims description 79
- 230000001537 neural effect Effects 0.000 title claims description 62
- 238000000034 method Methods 0.000 claims description 81
- 238000013528 artificial neural network Methods 0.000 claims description 68
- 230000008569 process Effects 0.000 claims description 64
- 239000013598 vector Substances 0.000 claims description 28
- 238000012545 processing Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000013139 quantization Methods 0.000 claims description 4
- 230000006403 short-term memory Effects 0.000 claims description 3
- 229920001577 copolymer Polymers 0.000 claims 1
- 230000014616 translation Effects 0.000 description 55
- 230000009471 action Effects 0.000 description 15
- 238000004590 computer program Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000010801 machine learning Methods 0.000 description 5
- 230000002457 bidirectional effect Effects 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000002411 adverse Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000009125 cardiac resynchronization therapy Methods 0.000 description 1
- 239000003054 catalyst Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000003116 impacting effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Description
100 エンコーダニューラルネットワーク
102 ソースシーケンス
104 入力シーケンス
110 エンコーダニューラルネットワーク
112 符号化表現
114 双方向LSTM層
116 一方向LSTM層のスタック
118 残余接続
120 デコーダニューラルネットワーク
122 LSTM層のスタック
124 ソフトマックス出力層
126 残留接続
128 トークン
130 アテンションサブシステム
132 アテンション文脈ベクトル
142 出力シーケンス
152 ターゲットシーケンス
200 プロセス
300 プロセス
400 プロセス
500 プロセス
600 プロセス
Claims (19)
エンコーダニューラルネットワークであって、
各入力トークンのそれぞれの順方向表現を生成するために、前記入力シーケンス内の各入力トークンを順方向に処理するように構成される入力順方向長短期メモリ(LSTM)層と、
各入力トークンのそれぞれの逆方向表現を生成するために、前記入力シーケンス内の各入力トークンを逆方向に処理するように構成される入力逆方向LSTM層と、
前記入力シーケンス内の入力トークンごとに、前記入力トークンの組合せ表現を生成するために、前記入力トークンの前記順方向表現と前記入力トークンの前記逆方向表現とを組み合わせるように構成される組合せ層と、
前記入力シーケンス内の前記入力トークンの各々のそれぞれの符号化表現を生成するために、各組合せ表現を前記順方向に処理するように構成される複数の隠れLSTM層であって、前記複数の隠れLSTM層が一方向性であり、かつ次々にスタックで配置される、複数の隠れLSTM層と
を備える、エンコーダニューラルネットワークと、
前記入力シーケンス内の前記入力トークンの各々の前記それぞれの符号化表現を受信し、かつ前記出力シーケンスを生成するために前記符号化表現を処理するように構成されるデコーダサブシステムと
を備える、ニューラル機械翻訳システム。
デコーダニューラルネットワークであって、
上下にスタックで配置された複数のLSTM層であって、前記出力シーケンス内の複数の位置ごとに、
前記出力シーケンス内の前の位置においてアテンション文脈ベクトルと前記出力トークンとを受信し、
前記位置のLSTM出力を生成するために、前記出力シーケンス内の前記前の位置において前記アテンション文脈ベクトルと前記トークンとを処理する
ように構成される、複数のLSTM層と、
ソフトマックス出力層であって、前記複数の位置ごとに、前記位置についての前記LSTM出力を受信し、かつ出力トークンの語彙内の出力トークンごとにそれぞれのスコアを生成するように構成される、ソフトマックス出力層と
を備える、デコーダニューラルネットワーク
を備える、請求項1〜3のいずれか一項に記載のニューラル機械翻訳システム。
前記アテンション文脈ベクトルを備える第1の層入力と、前記スタック内の前記第1のLSTM層の直下のLSTM層によって生成された層出力と、前記スタック内の前記第1のLSTM層の直下の前記LSTM層への層入力とを受信し、
第1の層出力を生成し、かつ現在の隠れ状態を更新するために、前記第1のLSTM層の前記現在の隠れ状態に従って前記第1の層入力を処理する
ように構成される、請求項6に記載のニューラル機械翻訳システム。
アテンションサブシステムであって、前記複数の位置ごとに、
前記前の位置について、前記デコーダニューラルネットワーク内のLSTM層の前記スタック内のLSTM最下層によって生成された最下層出力を備えるアテンション入力を受信し、
時間ステップの前記アテンション文脈ベクトルを生成するために、前記アテンション入力を処理する
ように構成される、請求項4〜7のいずれか一項に記載のニューラル機械翻訳システム。
前記入力トークンの各々のそれぞれのスコアを生成するために、1つまたは複数のニューラルネットワーク層を通じて前記最下層出力および前記符号化表現を処理することと、
前記それぞれのスコアから前記入力トークンの各々のそれぞれの重みを生成することと、
前記重みに従って前記符号化表現の加重合計を決定することと
を備える、請求項8に記載のニューラル機械翻訳システム。
ニューラル機械翻訳システムから複数の候補出力シーケンスを取得するステップと、
前記ニューラル機械翻訳システムによるさらなる検討のために、最大で所定の数の前記候補出力シーケンスをビーム内に維持するステップであって、
各候補出力シーケンスにそれぞれのスコアを割り当てるステップと、
前記それぞれのスコアに基づいて前記候補出力シーケンスをランク付けするステップと、
前記ランク付けに従って、前記所定の数の最高ランクの候補出力シーケンス以外のすべての候補出力シーケンスを前記ビームから除去するステップと、
前記ビーム内の前記候補出力シーケンスのうちのいずれかが、前記ニューラル機械翻訳システムによって最終決定候補出力シーケンスとして識別されたかどうかを判定するステップと、
前記候補出力シーケンスのうちの少なくとも1つが最終決定候補出力シーケンスとして識別されたとき、
最高ランクの最終決定候補出力シーケンスの前記スコアより低いしきい値よりも大きいスコアを有するすべての候補出力シーケンスを前記ビームから除去するステップと
を備える、ステップと
を備え、
前記ニューラル機械翻訳システムが、請求項1〜11のいずれか一項に記載の前記ニューラル機械翻訳システムである、方法。
前記候補出力シーケンスのいずれかが所定の文末出力トークンで終わるかどうかを判定するステップ
を備える、請求項12に記載の方法。
前記ニューラル機械翻訳システムによって生成された出力スコアに従って前記候補出力シーケンスの対数尤度を決定するステップと、
長さ正規化対数尤度を生成するために、前記候補出力シーケンス内のいくつかの出力トークンに基づいて前記対数尤度を正規化するステップと
を備える、請求項12または13に記載の方法。
前記第1のシーケンス内の前記単語を完全に網羅する候補出力シーケンスを優先するために、カバレッジペナルティを使用して前記長さ正規化対数尤度を修正するステップ
をさらに備える、請求項14に記載の方法。
をさらに備える、請求項12〜15のいずれか一項に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662399990P | 2016-09-26 | 2016-09-26 | |
US62/399,990 | 2016-09-26 | ||
PCT/US2017/053267 WO2018058046A1 (en) | 2016-09-26 | 2017-09-25 | Neural machine translation systems |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019537096A JP2019537096A (ja) | 2019-12-19 |
JP6870076B2 true JP6870076B2 (ja) | 2021-05-12 |
Family
ID=60084077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019516134A Active JP6870076B2 (ja) | 2016-09-26 | 2017-09-25 | ニューラル機械翻訳システム |
Country Status (10)
Country | Link |
---|---|
US (2) | US11113480B2 (ja) |
EP (1) | EP3516591B1 (ja) |
JP (1) | JP6870076B2 (ja) |
KR (1) | KR102323548B1 (ja) |
CN (2) | CN107870902B (ja) |
DE (2) | DE202017105835U1 (ja) |
GB (1) | GB2556674A (ja) |
IE (1) | IE20170201A1 (ja) |
SG (1) | SG10201707936TA (ja) |
WO (1) | WO2018058046A1 (ja) |
Families Citing this family (55)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6870076B2 (ja) * | 2016-09-26 | 2021-05-12 | グーグル エルエルシーGoogle LLC | ニューラル機械翻訳システム |
WO2018066083A1 (ja) * | 2016-10-04 | 2018-04-12 | 富士通株式会社 | 学習プログラム、情報処理装置および学習方法 |
US10558750B2 (en) * | 2016-11-18 | 2020-02-11 | Salesforce.Com, Inc. | Spatial attention model for image captioning |
AU2018244917B2 (en) | 2017-03-29 | 2019-12-05 | Google Llc | End-to-end text-to-speech conversion |
US11501076B2 (en) | 2018-02-09 | 2022-11-15 | Salesforce.Com, Inc. | Multitask learning as question answering |
CN108388549B (zh) * | 2018-02-26 | 2021-02-19 | 腾讯科技(深圳)有限公司 | 信息转换方法、装置、存储介质和电子装置 |
CN108629743B (zh) * | 2018-04-04 | 2022-03-25 | 腾讯科技(深圳)有限公司 | 图像的处理方法、装置、存储介质和电子装置 |
CN108563640A (zh) * | 2018-04-24 | 2018-09-21 | 中译语通科技股份有限公司 | 一种多语言对的神经网络机器翻译方法及系统 |
CN108932232A (zh) * | 2018-05-07 | 2018-12-04 | 内蒙古工业大学 | 一种基于lstm神经网络的蒙汉互译方法 |
CN108920468B (zh) * | 2018-05-07 | 2019-05-14 | 内蒙古工业大学 | 一种基于强化学习的蒙汉双语种互译方法 |
CN110489761B (zh) * | 2018-05-15 | 2021-02-02 | 科大讯飞股份有限公司 | 一种篇章级文本翻译方法及装置 |
EP3732633A1 (en) * | 2018-05-18 | 2020-11-04 | Google LLC | Universal transformers |
CN108984539B (zh) * | 2018-07-17 | 2022-05-17 | 苏州大学 | 基于模拟未来时刻的翻译信息的神经机器翻译方法 |
CN109033094A (zh) * | 2018-07-18 | 2018-12-18 | 五邑大学 | 一种基于序列到序列神经网络模型的文言文白话文互译方法及系统 |
US11574122B2 (en) * | 2018-08-23 | 2023-02-07 | Shenzhen Keya Medical Technology Corporation | Method and system for joint named entity recognition and relation extraction using convolutional neural network |
US11373049B2 (en) * | 2018-08-30 | 2022-06-28 | Google Llc | Cross-lingual classification using multilingual neural machine translation |
CN109271646B (zh) * | 2018-09-04 | 2022-07-08 | 腾讯科技(深圳)有限公司 | 文本翻译方法、装置、可读存储介质和计算机设备 |
US10672382B2 (en) * | 2018-10-15 | 2020-06-02 | Tencent America LLC | Input-feeding architecture for attention based end-to-end speech recognition |
US10891951B2 (en) | 2018-10-17 | 2021-01-12 | Ford Global Technologies, Llc | Vehicle language processing |
CN109634578B (zh) * | 2018-10-19 | 2021-04-02 | 北京大学 | 一种基于文本说明的程序生成方法 |
CN111178099B (zh) * | 2018-11-28 | 2023-03-10 | 腾讯科技(深圳)有限公司 | 一种文本翻译的方法以及相关装置 |
CN109598334B (zh) * | 2018-12-03 | 2021-06-29 | 中国信息安全测评中心 | 一种样本生成方法及装置 |
US11822897B2 (en) | 2018-12-11 | 2023-11-21 | Salesforce.Com, Inc. | Systems and methods for structured text translation with tag alignment |
US10963652B2 (en) * | 2018-12-11 | 2021-03-30 | Salesforce.Com, Inc. | Structured text translation |
CN109558605B (zh) * | 2018-12-17 | 2022-06-10 | 北京百度网讯科技有限公司 | 用于翻译语句的方法和装置 |
CN111368558B (zh) * | 2018-12-25 | 2024-01-02 | Tcl科技集团股份有限公司 | 基于神经网络的实时翻译方法、智能终端及存储介质 |
CN111476039B (zh) * | 2019-01-04 | 2023-06-30 | 深圳永德利科技股份有限公司 | 智能车载系统的即时语言翻译方法及相关产品 |
US10740571B1 (en) * | 2019-01-23 | 2020-08-11 | Google Llc | Generating neural network outputs using insertion operations |
WO2020225942A1 (ja) * | 2019-05-07 | 2020-11-12 | 株式会社Nttドコモ | 内部状態変更装置 |
US12073177B2 (en) * | 2019-05-17 | 2024-08-27 | Applications Technology (Apptek), Llc | Method and apparatus for improved automatic subtitle segmentation using an artificial neural network model |
JP7170594B2 (ja) * | 2019-06-25 | 2022-11-14 | Kddi株式会社 | 同一事象に対して時系列に発生した異なるメディアデータを統合した学習モデルを構築するプログラム、装置及び方法 |
US11983609B2 (en) | 2019-07-10 | 2024-05-14 | Sony Interactive Entertainment LLC | Dual machine learning pipelines for transforming data and optimizing data transformation |
US11250322B2 (en) * | 2019-07-15 | 2022-02-15 | Sony Interactive Entertainment LLC | Self-healing machine learning system for transformed data |
CN110489766B (zh) * | 2019-07-25 | 2020-07-10 | 昆明理工大学 | 基于编码归纳-解码推敲的汉-越低资源神经机器翻译方法 |
KR102286999B1 (ko) * | 2019-08-05 | 2021-08-09 | 강원대학교산학협력단 | 듀얼 포인터 네트워크를 이용한 복수 개체간 관계를 추출하는 장치 및 방법 |
CN110442880B (zh) * | 2019-08-06 | 2022-09-30 | 上海海事大学 | 一种机器翻译译文的翻译方法、装置及存储介质 |
CN112765998A (zh) * | 2019-11-01 | 2021-05-07 | 华为技术有限公司 | 机器翻译方法、机器翻译模型训练方法、装置及存储介质 |
CN110941966A (zh) * | 2019-12-10 | 2020-03-31 | 北京小米移动软件有限公司 | 机器翻译模型的训练方法、装置及系统 |
CN111178092B (zh) * | 2019-12-20 | 2023-04-07 | 沈阳雅译网络技术有限公司 | 一种动态调整长度惩罚及译文长度的翻译模型优化方法 |
CN111325000B (zh) * | 2020-01-23 | 2021-01-26 | 北京百度网讯科技有限公司 | 语言生成方法、装置及电子设备 |
KR20210097588A (ko) | 2020-01-30 | 2021-08-09 | 삼성전자주식회사 | 컨텍스트 정보와 대응되는 문장을 획득하는 전자 장치 및 그 동작 방법 |
CN111401078A (zh) * | 2020-03-17 | 2020-07-10 | 江苏省舜禹信息技术有限公司 | 神经网络文本翻译模型的运行方法、装置、设备、及介质 |
CN111523329A (zh) * | 2020-04-10 | 2020-08-11 | 昆明理工大学 | 基于编码器-转换器-解码器框架的神经网络机器翻译方法 |
US11868737B2 (en) * | 2020-04-24 | 2024-01-09 | Direct Cursus Technology L.L.C | Method and server for processing text sequence for machine processing task |
DE102020114046A1 (de) | 2020-05-26 | 2021-12-02 | Thomas Eißfeller | Neuronales Maschinenübersetzungsverfahren, neuronales Maschinenübersetzungssystem, Lernverfahren, Lernsystem und Programm |
US11875131B2 (en) | 2020-09-16 | 2024-01-16 | International Business Machines Corporation | Zero-shot cross-lingual transfer learning |
US20220129645A1 (en) * | 2020-10-27 | 2022-04-28 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling same |
CN112364119B (zh) * | 2020-12-01 | 2023-04-18 | 国家海洋信息中心 | 基于lstm编解码模型的海洋浮标轨迹预测方法 |
US11989528B2 (en) * | 2020-12-30 | 2024-05-21 | Direct Cursus Technology L.L.C | Method and server for training a machine learning algorithm for executing translation |
CN112836485B (zh) * | 2021-01-25 | 2023-09-19 | 中山大学 | 一种基于神经机器翻译的相似病历预测方法 |
CN113095092B (zh) * | 2021-04-19 | 2024-05-31 | 南京大学 | 通过建模协同关系提高非自回归神经机器翻译质量的方法 |
US11783136B2 (en) * | 2021-04-30 | 2023-10-10 | Lilt, Inc. | End-to-end neural word alignment process of suggesting formatting in machine translations |
EP4392967A1 (en) | 2021-10-04 | 2024-07-03 | Google LLC | Transducer-based streaming deliberation for cascaded encoders |
US11726750B1 (en) * | 2021-11-17 | 2023-08-15 | Outsystems—Software Em Rede, S.A. | Constrained decoding and ranking of language models for code generation |
WO2023219752A1 (en) * | 2022-05-13 | 2023-11-16 | Alexander Waibel | Face-translator: end-to-end system for speech-translated lip-synchronized and voice preserving video generation |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006083690A2 (en) * | 2005-02-01 | 2006-08-10 | Embedded Technologies, Llc | Language engine coordination and switching |
ES2435093B1 (es) * | 2012-06-15 | 2014-12-16 | Centro De Investigaciones Energéticas, Medioambientales Y Tecnológicas (Ciemat) | Procedimiento de entrenamiento de redes neuronales para detectores centelleadores. |
US10181098B2 (en) * | 2014-06-06 | 2019-01-15 | Google Llc | Generating representations of input sequences using neural networks |
EP3210132A1 (en) * | 2014-10-24 | 2017-08-30 | Google, Inc. | Neural machine translation systems with rare word processing |
KR102305584B1 (ko) | 2015-01-19 | 2021-09-27 | 삼성전자주식회사 | 언어 모델 학습 방법 및 장치, 언어 인식 방법 및 장치 |
JP6313730B2 (ja) * | 2015-04-10 | 2018-04-18 | タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited | 異常検出システムおよび方法 |
CN105068998B (zh) * | 2015-07-29 | 2017-12-15 | 百度在线网络技术(北京)有限公司 | 基于神经网络模型的翻译方法及装置 |
US10606846B2 (en) * | 2015-10-16 | 2020-03-31 | Baidu Usa Llc | Systems and methods for human inspired simple question answering (HISQA) |
WO2017130089A1 (en) * | 2016-01-26 | 2017-08-03 | Koninklijke Philips N.V. | Systems and methods for neural clinical paraphrase generation |
JP6870076B2 (ja) * | 2016-09-26 | 2021-05-12 | グーグル エルエルシーGoogle LLC | ニューラル機械翻訳システム |
WO2018094294A1 (en) | 2016-11-18 | 2018-05-24 | Salesforce.Com, Inc. | Spatial attention model for image captioning |
US10733380B2 (en) * | 2017-05-15 | 2020-08-04 | Thomson Reuters Enterprise Center Gmbh | Neural paraphrase generator |
CN111344779B (zh) * | 2017-12-15 | 2024-01-23 | 谷歌有限责任公司 | 训练和/或使用编码器模型确定自然语言输入的响应动作 |
US10585988B2 (en) * | 2018-06-08 | 2020-03-10 | Microsoft Technology Licensing, Llc | Graph representations for identifying a next word |
US12014143B2 (en) * | 2019-02-25 | 2024-06-18 | Disney Enterprises, Inc. | Techniques for performing contextual phrase grounding |
-
2017
- 2017-09-25 JP JP2019516134A patent/JP6870076B2/ja active Active
- 2017-09-25 WO PCT/US2017/053267 patent/WO2018058046A1/en active Application Filing
- 2017-09-25 US US16/336,870 patent/US11113480B2/en active Active
- 2017-09-25 KR KR1020197008608A patent/KR102323548B1/ko active IP Right Grant
- 2017-09-25 EP EP17784461.0A patent/EP3516591B1/en active Active
- 2017-09-26 CN CN201710882491.0A patent/CN107870902B/zh active Active
- 2017-09-26 DE DE202017105835.2U patent/DE202017105835U1/de active Active
- 2017-09-26 IE IE20170201A patent/IE20170201A1/en unknown
- 2017-09-26 SG SG10201707936TA patent/SG10201707936TA/en unknown
- 2017-09-26 GB GB1715516.9A patent/GB2556674A/en not_active Withdrawn
- 2017-09-26 CN CN202110688995.5A patent/CN113553862B/zh active Active
- 2017-09-26 DE DE102017122276.6A patent/DE102017122276A1/de active Pending
-
2021
- 2021-08-27 US US17/459,111 patent/US20210390271A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
GB201715516D0 (en) | 2017-11-08 |
IE20170201A1 (en) | 2018-04-04 |
KR20190039817A (ko) | 2019-04-15 |
EP3516591B1 (en) | 2024-07-31 |
CN113553862B (zh) | 2024-08-16 |
CN113553862A (zh) | 2021-10-26 |
US11113480B2 (en) | 2021-09-07 |
CN107870902A (zh) | 2018-04-03 |
DE202017105835U1 (de) | 2018-01-02 |
CN107870902B (zh) | 2021-07-09 |
GB2556674A (en) | 2018-06-06 |
DE102017122276A1 (de) | 2018-03-29 |
WO2018058046A1 (en) | 2018-03-29 |
US20210390271A1 (en) | 2021-12-16 |
US20200034435A1 (en) | 2020-01-30 |
EP3516591A1 (en) | 2019-07-31 |
SG10201707936TA (en) | 2018-04-27 |
KR102323548B1 (ko) | 2021-11-08 |
JP2019537096A (ja) | 2019-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6870076B2 (ja) | ニューラル機械翻訳システム | |
JP6827548B2 (ja) | 音声認識システム及び音声認識の方法 | |
US20240161732A1 (en) | Multi-dialect and multilingual speech recognition | |
US11222252B2 (en) | Generating representations of input sequences using neural networks | |
JP6929466B2 (ja) | 音声認識システム | |
JP6818941B2 (ja) | 多言語音声認識ネットワークをトレーニングする方法、音声認識システム及び多言語音声認識システム | |
US10437929B2 (en) | Method and system for processing an input query using a forward and a backward neural network specific to unigrams | |
CN108170749B (zh) | 基于人工智能的对话方法、装置及计算机可读介质 | |
CN109074517B (zh) | 全局归一化神经网络 | |
US20210232948A1 (en) | Question responding apparatus, question responding method and program | |
EP3586276A1 (en) | Sequence processing using online attention | |
JP7368479B2 (ja) | モデルをトレーニングするためのトレーニング・データ修正 | |
JP2015529350A (ja) | ハイブリッドgpu/cpuデータ処理方法 | |
CN111191002A (zh) | 一种基于分层嵌入的神经代码搜索方法及装置 | |
US11423237B2 (en) | Sequence transduction neural networks | |
CN117121016A (zh) | 在低级基元上的粒度神经网络架构搜索 | |
US11625572B2 (en) | Recurrent neural networks for online sequence generation | |
CN113947072A (zh) | 一种文本纠错方法及文本纠错装置 | |
CN111583910B (zh) | 模型更新方法、装置、电子设备及存储介质 | |
CN117634463A (zh) | 一种实体关系联合抽取方法、装置、设备及介质 | |
KR20240076978A (ko) | 지식 및 페르소나를 이용한 대화 모델 생성 장치 및 방법 | |
CN114118108A (zh) | 建立转译模型的方法、转译方法和对应装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190517 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200811 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201019 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210414 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6870076 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |