RU2021135477A - Способ и сервер для выполнения проблемно-ориентированного перевода - Google Patents

Способ и сервер для выполнения проблемно-ориентированного перевода Download PDF

Info

Publication number
RU2021135477A
RU2021135477A RU2021135477A RU2021135477A RU2021135477A RU 2021135477 A RU2021135477 A RU 2021135477A RU 2021135477 A RU2021135477 A RU 2021135477A RU 2021135477 A RU2021135477 A RU 2021135477A RU 2021135477 A RU2021135477 A RU 2021135477A
Authority
RU
Russia
Prior art keywords
token
tokens
sequence
input
output
Prior art date
Application number
RU2021135477A
Other languages
English (en)
Inventor
Дмитрий Викторович Емельяненко
Максим Константинович Рябинин
Original Assignee
Общество С Ограниченной Ответственностью "Яндекс"
Filing date
Publication date
Application filed by Общество С Ограниченной Ответственностью "Яндекс" filed Critical Общество С Ограниченной Ответственностью "Яндекс"
Priority to US18/074,153 priority Critical patent/US20230177282A1/en
Publication of RU2021135477A publication Critical patent/RU2021135477A/ru

Links

Claims (56)

1. Способ выполнения проблемно-ориентированного перевода предложений с первого языка на второй язык, в котором серверу с работающей на нем нейронной сетью (NN) доступен проблемно-ориентированный словарь, содержащий проблемно-ориентированные переводы слов с первого языка на второй язык, выполняемый сервером и включающий в себя:
- формирование сервером дополненной последовательности входных токенов на основе входного предложения на первом языке и рекомендации, вставленной во входное предложение, при этом входное предложение содержит слово, представленное в дополненной последовательности входных токенов в виде данного входного токена и имеющее проблемно-ориентированный перевод, представленный в виде другого токена, а рекомендация представлена в дополненной последовательности входных токенов в виде входного начального токена и входного конечного токена, где входной начальный токен вставлен в позицию, предшествующую данному входному токену, а входной конечный токен вставлен в позицию, следующую за данным входным токеном, для идентификации входного токена из дополненной последовательности входных токенов как данного входного токена;
- итеративное формирование сервером с применением сети NN последовательности выходных токенов на основе дополненной последовательности входных токенов, при котором:
- в ответ на формирование на данной итерации выходного начального токена в последовательности выходных токенов - применение ограничивающего условия в отношении следующего выходного токена, который должен быть сформирован сетью NN для последовательности выходных токенов, таким образом, чтобы следующий выходной токен представлял собой другой токен; и
- в ответ на формирование на другой итерации выходного конечного токена - прекращение применения ограничивающего условия в отношении следующего токена, который должен быть сформирован сетью NN; и
- формирование сервером второго предложения на втором языке, содержащего проблемно-ориентированный перевод входного слова, с использованием последовательности выходных токенов.
2. Способ по п. 1, отличающийся тем, что данный входной токен представляет собой подпоследовательность входных токенов и входное слово представлено этой подпоследовательностью входных токенов в дополненной последовательности входных токенов.
3. Способ по п. 1, отличающийся тем, что другой токен представляет собой другую подпоследовательность токенов и проблемно-ориентированный перевод слова представлен этой другой подпоследовательностью токенов.
4. Способ по п. 1, отличающийся тем, что проблемно-ориентированный словарь содержит множество проблемно-ориентированных переводов входного слова, представленных соответствующими подпоследовательностями из множества других подпоследовательностей токенов, а применение ограничивающего условия включает в себя применение ограничивающего условия в отношении следующей подпоследовательности выходных токенов, которые должны быть сформированы сетью NN для последовательности выходных токенов, таким образом, чтобы следующая подпоследовательность выходных токенов представляла собой подпоследовательность из множества других подпоследовательностей токенов.
5. Способ по п. 4, отличающийся тем, что следующая подпоследовательность выходных токенов завершается выходным конечным токеном.
6. Способ по п. 4, отличающийся тем, что множество проблемно-ориентированных переводов входного слова содержит грамматические варианты входного слова.
7. Способ по п. 1, отличающийся тем, что сеть NN представляет собой трансформерную модель, содержащую кодер и декодер, а способ на этапе обучения дополнительно включает в себя:
- формирование сервером дополненной последовательности первых токенов на основе первого предложения на первом языке и первой рекомендации, вставленной в первое предложение, при этом первое предложение содержит первое слово, представленное в дополненной последовательности первых токенов в виде данного первого токена, а первая рекомендация представлена в дополненной последовательности первых токенов в виде первого начального токена и первого конечного токена, первый начальный токен вставлен в позицию, предшествующую данному первому токену, а первый конечный токен вставлен в позицию, следующую за данным первым токеном, для идентификации первого токена из последовательности первых токенов как данного первого токена;
- формирование сервером дополненной последовательности вторых токенов на основе второго предложения на втором языке и второй рекомендации, вставленной во второе предложение, которое представляет собой перевод первого предложения и содержит второе слово, представляющее собой проблемно-ориентированный перевод первого слова и представленное в дополненной последовательности вторых токенов в виде данного второго токена, при этом вторая рекомендация представлена в дополненной последовательности вторых токенов в виде второго начального токена и второго конечного токена, где второй начальный токен вставлен в позицию, предшествующую данному второму токену, а второй конечный токен вставлен в позицию, следующую за данным вторым токеном, для идентификации второго токена из последовательности вторых токенов как данного второго токена;
- обучение сервером трансформерной модели путем предоставления дополненной последовательности первых токенов кодеру и дополненной последовательности вторых токенов декодеру таким образом, чтобы обучить декодер формированию выходного начального токена и выходного конечного токена в правильных позициях в последовательности выходных токенов.
8. Способ по п. 1, отличающийся тем, что рекомендация дополнительно представлена в дополненной последовательности входных токенов в виде специального токена перевода-рекомендации и другого токена, вставленных после данного входного токена и перед входным конечным токеном.
9. Способ по п. 1, отличающийся тем, что применение ограничивающего условия включает в себя:
- обращение сервера к подпоследовательности токенов из «белого списка», содержащей другой токен и специальный конечный токен; и
- применение сервером ограничений для модели перевода при формировании подпоследовательности токенов из «белого списка» в качестве следующего выходного токена.
10. Способ обучения трансформерной модели, выполняемой сервером и содержащей кодер и декодер, выполнению перевода с первого языка на второй язык, включающий в себя на этапе обучения:
- формирование сервером дополненной последовательности первых токенов на основе первого предложения на первом языке и первой рекомендации, вставленной в первое предложение, при этом первое предложение содержит первое слово, представленное в дополненной последовательности первых токенов в виде данного первого токена, а первая рекомендация представлена в дополненной последовательности первых токенов в виде первого начального токена и первого конечного токена, где первый начальный токен вставлен в позицию, предшествующую данному первому токену, а первый конечный токен вставлен в позицию, следующую за данным первым токеном, для идентификации первого токена из дополненной последовательности первых токенов как данного первого токена;
- формирование сервером дополненной последовательности вторых токенов на основе второго предложения на втором языке и второй рекомендации, вставленной во второе предложение, которое представляет собой перевод первого предложения и содержит второе слово, представляющее собой проблемно-ориентированный перевод первого слова и представленное в дополненной последовательности вторых токенов в виде данного второго токена, при этом вторая рекомендация представлена в дополненной последовательности вторых токенов в виде второго начального токена и второго конечного токена, где второй начальный токен вставлен в позицию, предшествующую данному второму токену, а второй конечный токен вставлен в позицию, следующую за данным вторым токеном, для идентификации второго токена из дополненной последовательности вторых токенов как данного второго токена;
- обучение сервером трансформерной модели путем предоставления дополненной последовательности первых токенов кодеру и дополненной последовательности вторых токенов декодеру таким образом, чтобы обучить декодер формированию выходного начального токена и выходного конечного токена в правильных позициях в последовательности выходных токенов.
11. Способ по п. 10, отличающийся тем, что он дополнительно включает в себя на этапе использования сети NN:
- итеративное формирование сервером с применением сети NN дополненной последовательности выходных токенов на основе дополненной последовательности входных токенов, при этом:
- в ответ на формирование на данной итерации выходного начального токена в последовательности выходных токенов применяется ограничивающее условие в отношении следующего выходного токена, который должен быть сформирован сетью NN для дополненной последовательности выходных токенов, таким образом, чтобы следующий выходной токен представлял собой другой токен; а
- в ответ на формирование на другой итерации выходного конечного токена прекращается применение ограничивающего условия в отношении следующего выходного токена, который должен быть сформирован сетью NN; и
- формирование сервером второго предложения на втором языке с использованием дополненной последовательности выходных токенов.
12. Сервер для выполнения проблемно-ориентированного перевода предложений с первого языка на второй язык, выполняющий сеть NN, имеющий доступ к проблемно-ориентированному словарю, содержащему проблемно-ориентированные переводы слов с первого языка на второй язык, и способный:
- формировать дополненную последовательность входных токенов на основе входного предложения на первом языке и рекомендации, вставленной во входное предложение, при этом входное предложение содержит слово, представленное в дополненной последовательности входных токенов в виде данного входного токена и имеющее проблемно-ориентированный перевод, представленный в виде другого токена, а рекомендация представлена в дополненной последовательности входных токенов в виде входного начального токена и входного конечного токена, где входной начальный токен вставлен в позицию, предшествующую данному входному токену, а входной конечный токен вставлен в позицию, следующую за данным входным токеном, для идентификации входного токена из дополненной последовательности входных токенов как данного входного токена;
- итеративно формировать с применением сети NN последовательность выходных токенов на основе дополненной последовательности входных токенов, при этом сервер в ходе итеративного формирования способен:
- в ответ на формирование на данной итерации выходного начального токена в последовательности выходных токенов применять ограничивающее условие в отношении следующего выходного токена, подлежащего формированию сетью NN для последовательности выходных токенов, таким образом, чтобы следующий выходной токен представлял собой другой токен; а
- в ответ на формирование на другой итерации выходного конечного токена прекращать применение ограничивающего условия в отношении следующего токена, подлежащего формированию сетью NN; и
- формировать второе предложение на втором языке, содержащее проблемно-ориентированный перевод входного слова, с использованием последовательности выходных токенов.
13. Сервер по п. 12, отличающийся тем, что данный входной токен представляет собой подпоследовательность входных токенов и входное слово представлено этой подпоследовательностью входных токенов в дополненной последовательности входных токенов.
14. Сервер по п. 12, отличающийся тем, что другой токен представляет собой другую подпоследовательность токенов и проблемно-ориентированный перевод слова представлен этой другой подпоследовательностью токенов.
15. Сервер по п. 12, отличающийся тем, что проблемно-ориентированный словарь содержит множество проблемно-ориентированных переводов входного слова, представленных соответствующими подпоследовательностями из множества других подпоследовательностей токенов, а применение ограничивающего условия включает в себя способность сервера применять ограничивающее условие в отношении следующей подпоследовательности выходных токенов, подлежащих формированию сетью NN для последовательности выходных токенов, таким образом, чтобы следующая подпоследовательность выходных токенов представляла собой подпоследовательность из множества других подпоследовательностей токенов.
16. Сервер по п. 15, отличающийся тем, что следующая подпоследовательность выходных токенов завершается выходным конечным токеном.
17. Сервер по п. 15, отличающийся тем, что множество проблемно-ориентированных переводов входного слова содержит грамматические варианты входного слова.
18. Сервер по п. 12, отличающийся тем, что сеть NN представляет собой трансформерную модель, содержащую кодер и декодер, а сервер на этапе обучения дополнительно способен:
- формировать дополненную последовательность первых токенов на основе первого предложения на первом языке и первой рекомендации, вставленной в первое предложение, при этом первое предложение содержит первое слово, представленное в дополненной последовательности первых токенов в виде данного первого токена, а первая рекомендация представлена в дополненной последовательности первых токенов в виде первого начального токена и первого конечного токена, где первый начальный токен вставлен в позицию, предшествующую данному первому токену, а первый конечный токен вставлен в позицию, следующую за данным первым токеном, для идентификации первого токена из дополненной последовательности первых токенов как данного первого токена;
- формировать дополненную последовательность вторых токенов на основе второго предложения на втором языке и второй рекомендации, вставленной во второе предложение, которое представляет собой перевод первого предложения и содержит второе слово, представляющее собой проблемно-ориентированный перевод первого слова и представленное в дополненной последовательности вторых токенов в виде данного второго токена, при этом вторая рекомендация представлена в дополненной последовательности вторых токенов в виде второго начального токена и второго конечного токена, где второй начальный токен вставлен в позицию, предшествующую данному второму токену, а второй конечный токен вставлен в позицию, следующую за данным вторым токеном, для идентификации второго токена из дополненной последовательности вторых токенов как данного второго токена;
- обучать трансформерную модель путем предоставления дополненной последовательности первых токенов кодеру и дополненной последовательности вторых токенов декодеру таким образом, чтобы обучить декодер формированию выходного начального токена и выходного конечного токена в правильных позициях в последовательности выходных токенов.
19. Сервер по п. 12, отличающийся тем, что рекомендация дополнительно представлена в дополненной последовательности входных токенов в виде специального токена перевода-рекомендации и другого токена, вставленных после данного входного токена и перед входным конечным токеном.
20. Сервер по п. 12, отличающийся тем, что применение ограничивающего условия включает в себя способность сервера:
- обращаться к подпоследовательности токенов из «белого списка», содержащей другой токен и специальный конечный токен; и
- применять ограничения для модели перевода при формировании подпоследовательности токенов из «белого списка» в качестве следующего выходного токена.
21. Сервер для обучения трансформерной модели, работающей на сервере и содержащей кодер и декодер, выполнению перевода с первого языка на второй язык, способный на этапе обучения:
- формировать дополненную последовательность первых токенов на основе первого предложения на первом языке и первой рекомендации, вставленной в первое предложение, при этом первое предложение содержит первое слово, представленное в дополненной последовательности первых токенов в виде данного первого токена, а первая рекомендация представлена в дополненной последовательности первых токенов в виде первого начального токена и первого конечного токена, где первый начальный токен вставлен в позицию, предшествующую данному первому токену, а первый конечный токен вставлен в позицию, следующую за данным первым токеном, для идентификации первого токена из дополненной последовательности первых токенов как данного первого токена;
- формировать дополненную последовательность вторых токенов на основе второго предложения на втором языке и второй рекомендации, вставленной во второе предложение, которое представляет собой перевод первого предложения и содержит второе слово, представляющее собой проблемно-ориентированный перевод первого слова и представленное в дополненной последовательности вторых токенов в виде данного второго токена, при этом вторая рекомендация представлена в дополненной последовательности вторых токенов в виде второго начального токена и второго конечного токена, где второй начальный токен вставлен в позицию, предшествующую данному второму токену, а второй конечный токен вставлен в позицию, следующую за данным вторым токеном, для идентификации второго токена из дополненной последовательности вторых токенов как данного второго токена; и
- обучать трансформерную модель путем предоставления дополненной последовательности первых токенов кодеру и дополненной последовательности вторых токенов декодеру таким образом, чтобы обучить декодер формированию выходного начального токена и выходного конечного токена в правильных позициях в последовательности выходных токенов.
22. Сервер по п. 21, отличающийся тем, что он дополнительно способен на этапе использования сети NN:
- итеративно формировать с применением сети NN дополненную последовательность выходных токенов на основе дополненной последовательности входных токенов, при этом сервер в ходе итеративного формирования способен:
- в ответ на формирование на данной итерации выходного начального токена в последовательности выходных токенов применять ограничивающее условие в отношении следующего выходного токена, подлежащего формированию сетью NN для дополненной последовательности выходных токенов, таким образом, чтобы следующий выходной токен представлял собой другой токен; и
- в ответ на формирование на другой итерации выходного конечного токена прекращать применение ограничивающего условия в отношении следующего выходного токена, подлежащего формированию сетью NN; и
- формировать второе предложение на втором языке с использованием дополненной последовательности выходных токенов.
RU2021135477A 2021-12-02 2021-12-02 Способ и сервер для выполнения проблемно-ориентированного перевода RU2021135477A (ru)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/074,153 US20230177282A1 (en) 2021-12-02 2022-12-02 Method and server for performing domain-specific translation

Publications (1)

Publication Number Publication Date
RU2021135477A true RU2021135477A (ru) 2023-06-02

Family

ID=

Similar Documents

Publication Publication Date Title
WO2022095345A1 (zh) 一种多模态模型训练方法、装置、设备及存储介质
CN108287820B (zh) 一种文本表示的生成方法及装置
Lou et al. Improving disfluency detection by self-training a self-attentive model
Othman et al. Statistical sign language machine translation: from English written text to American sign language gloss
CN107066455A (zh) 一种多语言智能预处理实时统计机器翻译系统
Kaur et al. Review of machine transliteration techniques
Yoshikawa Joint transition-based dependency parsing and disfluency detection for automatic speech recognition texts
Iwasaki et al. Japanese abstractive text summarization using BERT
CN112989796A (zh) 一种基于句法指导的文本命名实体信息识别方法
CN112016271A (zh) 语言风格转换模型的训练方法、文本处理方法以及装置
Kumar et al. Incomplete follow-up question resolution using retrieval based sequence to sequence learning
Bouillon et al. A generic multi-lingual open source platform for limited-domain medical speech translation
RU2021135477A (ru) Способ и сервер для выполнения проблемно-ориентированного перевода
Watanabe et al. Statistical machine translation based on hierarchical phrase alignment
CN107562718A (zh) 文本规整方法及装置、存储介质、电子设备
Shi et al. Open text semantic parsing using FrameNet and WordNet
Xu et al. Mandarin language understanding in dialogue context
Tran et al. Development of a multilingual CCG treebank via universal dependencies conversion
Finch et al. Hierarchical phrase-based stream decoding
Srinivasan et al. Code-mixed parse trees and how to find them
RU2021138713A (ru) Способ и сервер для выполнения контекстно-зависимого перевода
Paul et al. Improving Data Driven Inverse Text Normalization using Data Augmentation and Machine Translation.
Evang et al. Improving Low-resource RRG Parsing with Cross-lingual Self-training
Hatzel et al. Narrative cloze as a training objective: Towards modeling stories using narrative chain embeddings
Mkhwanazi et al. Generation of segmented isiZulu text