KR20210073431A - 기계 번역 모델의 훈련 방법, 장치 및 시스템 - Google Patents
기계 번역 모델의 훈련 방법, 장치 및 시스템 Download PDFInfo
- Publication number
- KR20210073431A KR20210073431A KR1020200046002A KR20200046002A KR20210073431A KR 20210073431 A KR20210073431 A KR 20210073431A KR 1020200046002 A KR1020200046002 A KR 1020200046002A KR 20200046002 A KR20200046002 A KR 20200046002A KR 20210073431 A KR20210073431 A KR 20210073431A
- Authority
- KR
- South Korea
- Prior art keywords
- corpus
- training
- translation
- similarity
- false
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013519 translation Methods 0.000 title claims abstract description 337
- 238000012549 training Methods 0.000 title claims abstract description 216
- 238000000034 method Methods 0.000 title claims abstract description 215
- 238000003860 storage Methods 0.000 title claims description 10
- 230000008569 process Effects 0.000 claims abstract description 141
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 82
- 230000006870 function Effects 0.000 claims description 55
- 238000005070 sampling Methods 0.000 claims description 20
- 238000004891 communication Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000005236 sound signal Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005304 joining Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/47—Machine-assisted translation, e.g. using translation memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/263—Language identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Probability & Statistics with Applications (AREA)
- Medical Informatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
Description
도 1은 일 예시적 실시예에 따라 도시된 기계 번역 모델의 훈련 방법의 흐름도이다.
도 2는 일 예시적 실시예에 따라 도시된 기계 번역 모델의 훈련 방법의 흐름도이다.
도 3은 일 예시적 실시예에 따라 도시된 기계 번역 모델의 훈련 방법의 블록도이다.
도 4는 일 예시적 실시예에 따라 도시된 장치의 블록도이다.
도 5는 일 예시적 실시예에 따라 도시된 장치의 블록도이다.
Claims (16)
- 기계 번역 모델의 훈련 방법으로서,
훈련될 양방향 번역 모델, 및 소스 말뭉치와 대응되는 타겟 말뭉치를 포함하는 훈련 데이터를 획득하는 단계;
각 라운드의 훈련 프로세스가 상기 소스 말뭉치를 허위 타겟 말뭉치로 번역하는 정방향 번역 프로세스 및 상기 허위 타겟 말뭉치를 허위 소스 말뭉치로 번역하는 역방향 번역 프로세스를 포함하고, N은 1보다 큰 양의 정수인, N 라운드의 훈련 프로세스를 상기 양방향 번역 모델에 대해 수행하는 단계;
상기 타겟 말뭉치와 상기 허위 타겟 말뭉치의 유사도인 정방향 번역 유사도와 상기 소스 말뭉치와 상기 허위 소스 말뭉치의 유사도인 역방향 번역 유사도를 획득하는 단계; 및
상기 정방향 번역 유사도와 상기 역방향 번역 유사도의 합이 수렴될 경우, 상기 양방향 번역 모델의 훈련이 완료된 것으로 결정하는 단계를 포함하는 것을 특징으로 하는 기계 번역 모델의 훈련 방법.
- 제1항에 있어서,
상기 양방향 번역 모델에 대해 N 라운드의 훈련 프로세스를 수행하는 단계는,
상기 양방향 번역 모델에 재구성 머신을 설치하고, 상기 재구성 머신을 통해 상기 역방향 번역 프로세스를 구현하는 단계를 포함하는 것을 특징으로 하는 기계 번역 모델의 훈련 방법.
- 제2항에 있어서,
N 라운드의 훈련 프로세스를 상기 양방향 번역 모델에 대해 수행하는 단계는,
상기 정방향 번역 프로세스 중에서, 미분 가능한 샘플링 함수를 통해 상기 허위 타겟 말뭉치를 획득하는 단계를 포함하는 것을 특징으로 하는 기계 번역 모델의 훈련 방법.
- 제3항에 있어서,
N 라운드의 훈련 프로세스를 상기 양방향 번역 모델에 대해 수행하는 단계는,
i 번째 라운드의 훈련 프로세스 중에서, 상기 미분 가능한 샘플링 함수를 통해 상기 타겟 말뭉치와 상기 허위 타겟 말뭉치 사이의 오차를 획득하는 단계(i는 1보다 크거나 같고 N보다 작은 양의 정수); 및
i+1 번째 라운드의 훈련 프로세스 중에서, 상기 i 번째 라운드의 훈련 프로세스 중에서 획득된 상기 오차에 기반하여, 상기 양방향 번역 모델의 훈련 파라미터를 조정하는 단계를 더 포함하는 것을 특징으로 하는 기계 번역 모델의 훈련 방법.
- 제3항 또는 제4항에 있어서,
상기 미분 가능한 샘플링 함수는 Gumbel-Softmax 함수를 포함하는 것을 특징으로 하는 기계 번역 모델의 훈련 방법.
- 제1항에 있어서,
상기 정방향 번역 유사도와 역방향 번역 유사도를 획득하는 단계는,
상기 타겟 말뭉치와 상기 허위 타겟 말뭉치의 로그 우도 함수값 및 상기 소스 말뭉치와 상기 허위 소스 말뭉치의 로그 우도 함수값을 획득하는 단계를 포함하는 것을 특징으로 하는 기계 번역 모델의 훈련 방법.
- 제1항에 있어서,
상기 훈련 데이터에는 제1 언어 태그 또는 제2 언어 태그가 구비되어 있고,
상기 제1 언어 태그가 구비되어 있는 훈련 데이터가 소스 말뭉치이면, 상기 제2 언어 태그가 구비되어 있는 훈련 데이터는 타겟 말뭉치이며; 또는
상기 제2 언어 태그가 구비되어 있는 훈련 데이터가 소스 말뭉치이면, 상기 제1 언어 태그가 구비되어 있는 훈련 데이터는 타겟 말뭉치인 것을 특징으로 하는 기계 번역 모델의 훈련 방법.
- 기계 번역 모델의 훈련 장치로서,
훈련될 양방향 번역 모델, 및 소스 말뭉치와 대응되는 타겟 말뭉치를 포함하는 훈련 데이터를 획득하도록 구성된 모델 및 데이터 획득 모듈;
각 라운드의 훈련 프로세스가 상기 소스 말뭉치를 허위 타겟 말뭉치로 번역하는 정방향 번역 프로세스 및 상기 허위 타겟 말뭉치를 허위 소스 말뭉치로 번역하는 역방향 번역 프로세스를 포함하고, N은 1보다 큰 양의 정수인, N 라운드의 훈련 프로세스를 상기 양방향 번역 모델에 대해 수행하도록 구성된 훈련 모듈;
상기 타겟 말뭉치와 상기 허위 타겟 말뭉치의 유사도인 정방향 번역 유사도와 상기 소스 말뭉치와 상기 허위 소스 말뭉치의 유사도인 역방향 번역 유사도를 획득하도록 구성된 유사도 획득 모듈; 및
상기 정방향 번역 유사도와 상기 역방향 번역 유사도의 합이 수렴될 경우, 상기 양방향 번역 모델의 훈련이 완료된 것으로 결정하도록 구성된 결정 모듈을 포함하는 것을 특징으로 하는 기계 번역 모델의 훈련 장치.
- 제8항에 있어서,
상기 훈련 모듈은 재구성 머신을 더 포함하고, 상기 재구성 머신을 통해 상기 역방향 번역 프로세스를 구현하는 것을 특징으로 하는 기계 번역 모델의 훈련 장치.
- 제9항에 있어서,
상기 훈련 모듈은 또한,
상기 정방향 번역 프로세스 중에서, 미분 가능한 샘플링 함수를 통해 상기 허위 타겟 말뭉치를 획득하도록 구성된 것임을 특징으로 하는 기계 번역 모델의 훈련 장치.
- 제10항에 있어서,
상기 훈련 모듈은 또한,
i 번째 라운드의 훈련 프로세스 중에서, 상기 미분 가능한 샘플링 함수를 통해 상기 타겟 말뭉치와 상기 허위 타겟 말뭉치 사이의 오차를 획득하고(i는 1보다 크거나 같고 N보다 작은 양의 정수),
i+1 번째 라운드의 훈련 프로세스 중에서, 상기 i 번째 라운드의 훈련 프로세스 중에서 획득된 상기 오차에 기반하여, 상기 양방향 번역 모델의 훈련 파라미터를 조정하도록 구성된 것임을 특징으로 하는 기계 번역 모델의 훈련 장치.
- 제10항 또는 제11항에 있어서,
상기 미분 가능한 샘플링 함수는 Gumbel-Softmax 함수를 포함하는 것을 특징으로 하는 기계 번역 모델의 훈련 장치.
- 제8항에 있어서,
상기 유사도 획득 모듈은 또한,
상기 타겟 말뭉치와 상기 허위 타겟 말뭉치의 로그 우도 함수값 및 상기 소스 말뭉치와 상기 허위 소스 말뭉치의 로그 우도 함수값을 획득하도록 구성된 것임을 특징으로 하는 기계 번역 모델의 훈련 장치.
- 제8항에 있어서,
상기 모델 및 데이터 획득 모듈은 또한,
상기 훈련 데이터에 제1 언어 태그 또는 제2 언어 태그를 구비하도록 구성되고,
상기 제1 언어 태그가 구비되어 있는 훈련 데이터를 소스 말뭉치로 사용하면, 상기 제2 언어 태그가 구비되어 있는 훈련 데이터를 타겟 말뭉치로 사용하고; 또는
상기 제2 언어 태그가 구비되어 있는 훈련 데이터를 소스 말뭉치로 사용하면, 상기 제1 언어 태그가 구비되어 있는 훈련 데이터를 타겟 말뭉치로 사용하는, 것을 특징으로 하는 기계 번역 모델의 훈련 장치.
- 기계 번역 모델의 훈련 장치로서,
프로세서; 및
프로세서가 실행 가능한 명령어를 저장하기 위한 메모리를 포함하고,
상기 프로세서는,
훈련될 양방향 번역 모델, 및 소스 말뭉치와 대응되는 타겟 말뭉치를 포함하는 훈련 데이터를 획득하고,
각 라운드의 훈련 프로세스가 상기 소스 말뭉치를 허위 타겟 말뭉치로 번역하는 정방향 번역 프로세스 및 상기 허위 타겟 말뭉치를 허위 소스 말뭉치로 번역하는 역방향 번역 프로세스를 포함하고, N은 1보다 큰 양의 정수인, N 라운드의 훈련 프로세스를 상기 양방향 번역 모델에 대해 수행하고,
상기 타겟 말뭉치와 상기 허위 타겟 말뭉치의 유사도인 정방향 번역 유사도와 상기 소스 말뭉치와 상기 허위 소스 말뭉치의 유사도인 역방향 번역 유사도를 획득하고,
상기 정방향 번역 유사도와 상기 역방향 번역 유사도의 합이 수렴될 경우, 상기 양방향 번역 모델의 훈련이 완료된 것으로 결정하도록 구성된 것임을 특징으로 하는 기계 번역 모델의 훈련 장치.
- 비-일시적 컴퓨터 판독 가능한 저장 매체로서,
상기 저장 매체의 명령어는 단말의 프로세서에 의해 실행될 경우, 단말로 하여금 기계 번역 모델의 훈련 방법을 실행할 수 있도록 하고, 상기 기계 번역 모델의 훈련 방법은,
훈련될 양방향 번역 모델, 및 소스 말뭉치와 대응되는 타겟 말뭉치를 포함하는 훈련 데이터를 획득하는 단계;
각 라운드의 훈련 프로세스가 상기 소스 말뭉치를 허위 타겟 말뭉치로 번역하는 정방향 번역 프로세스 및 상기 허위 타겟 말뭉치를 허위 소스 말뭉치로 번역하는 역방향 번역 프로세스를 포함하고, N은 1보다 큰 양의 정수인, N 라운드의 훈련 프로세스를 상기 양방향 번역 모델에 대해 수행하는 단계;
상기 타겟 말뭉치와 상기 허위 타겟 말뭉치의 유사도인 정방향 번역 유사도와 상기 소스 말뭉치와 상기 허위 소스 말뭉치의 유사도인 역방향 번역 유사도를 획득하는 단계; 및
상기 정방향 번역 유사도와 상기 역방향 번역 유사도의 합이 수렴될 경우, 상기 양방향 번역 모델의 훈련이 완료된 것으로 결정하는 단계를 포함하는 것을 특징으로 하는 비 일시적 컴퓨터 판독 가능한 저장 매체.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911259415.X | 2019-12-10 | ||
CN201911259415.XA CN110941966A (zh) | 2019-12-10 | 2019-12-10 | 机器翻译模型的训练方法、装置及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210073431A true KR20210073431A (ko) | 2021-06-18 |
KR102338918B1 KR102338918B1 (ko) | 2021-12-10 |
Family
ID=69910507
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200046002A Active KR102338918B1 (ko) | 2019-12-10 | 2020-04-16 | 기계 번역 모델의 훈련 방법, 장치 및 시스템 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11734521B2 (ko) |
EP (1) | EP3835998A1 (ko) |
JP (1) | JP6918181B2 (ko) |
KR (1) | KR102338918B1 (ko) |
CN (1) | CN110941966A (ko) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021125101A1 (ja) * | 2019-12-17 | 2021-06-24 | 株式会社Nttドコモ | 翻訳装置 |
CN111507114B (zh) * | 2020-04-10 | 2023-04-18 | 思必驰科技股份有限公司 | 基于反向翻译的口语文本增强方法及系统 |
CN113947093B (zh) * | 2020-07-15 | 2024-10-01 | 阿里巴巴集团控股有限公司 | 数据处理方法和装置、电子设备以及计算机可读存储介质 |
US20220205451A1 (en) * | 2020-12-31 | 2022-06-30 | Robert Bosch Gmbh | Sensing via signal to signal translation |
US11686650B2 (en) | 2020-12-31 | 2023-06-27 | Robert Bosch Gmbh | Dynamic spatiotemporal beamforming |
US12086559B2 (en) * | 2021-03-31 | 2024-09-10 | International Business Machines Corporation | Clause extraction using machine translation and natural language processing |
CN113139391B (zh) * | 2021-04-26 | 2023-06-06 | 北京有竹居网络技术有限公司 | 翻译模型的训练方法、装置、设备和存储介质 |
CN113591492B (zh) * | 2021-06-30 | 2023-03-24 | 北京百度网讯科技有限公司 | 语料生成方法、装置、电子设备以及存储介质 |
CN113807106B (zh) * | 2021-08-31 | 2023-03-07 | 北京百度网讯科技有限公司 | 翻译模型的训练方法、装置、电子设备及存储介质 |
CN114757214B (zh) * | 2022-05-12 | 2023-01-31 | 北京百度网讯科技有限公司 | 用于优化翻译模型的样本语料的选取方法、相关装置 |
CN114818749A (zh) * | 2022-05-19 | 2022-07-29 | 北京百度网讯科技有限公司 | 语料对齐方法、相关装置及计算机程序产品 |
CN114997191A (zh) * | 2022-06-16 | 2022-09-02 | 京东科技信息技术有限公司 | 一种模型训练、机器翻译方法、装置、设备及存储介质 |
CN115130481B (zh) * | 2022-06-16 | 2025-05-23 | 京东科技信息技术有限公司 | 一种模型训练、机器翻译方法、装置、设备及存储介质 |
CN115099279A (zh) * | 2022-07-08 | 2022-09-23 | 中国科学院计算技术研究所 | 一种基于一维周期信号进行分类的迁移学习方法 |
CN117688176B (zh) * | 2023-12-04 | 2024-09-24 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种基于多语言预训练大模型的伪语言族聚类方法及装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016224483A (ja) * | 2015-05-26 | 2016-12-28 | 日本電信電話株式会社 | モデル学習装置、方法、及びプログラム |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1894125A4 (en) * | 2005-06-17 | 2015-12-02 | Nat Res Council Canada | MEDIUM AND METHOD FOR ADAPTED LANGUAGE TRANSLATION |
JP2016022483A (ja) | 2014-07-16 | 2016-02-08 | 株式会社ディスコ | チャックテーブル及びレーザー切断装置 |
CN106156010B (zh) * | 2015-04-20 | 2019-10-11 | 阿里巴巴集团控股有限公司 | 翻译训练方法、装置、系统、以及在线翻译方法及装置 |
US9836457B2 (en) * | 2015-05-25 | 2017-12-05 | Panasonic Intellectual Property Corporation Of America | Machine translation method for performing translation between languages |
US9898460B2 (en) * | 2016-01-26 | 2018-02-20 | International Business Machines Corporation | Generation of a natural language resource using a parallel corpus |
WO2018058046A1 (en) * | 2016-09-26 | 2018-03-29 | Google Llc | Neural machine translation systems |
CN107423290A (zh) * | 2017-04-19 | 2017-12-01 | 厦门大学 | 一种基于层次结构的神经网络机器翻译模型 |
KR102458244B1 (ko) | 2017-11-23 | 2022-10-24 | 삼성전자주식회사 | 기계 번역 방법 및 장치 |
JP2019121241A (ja) | 2018-01-09 | 2019-07-22 | パナソニックIpマネジメント株式会社 | 翻訳装置、翻訳方法、及びプログラム |
JP7170984B2 (ja) | 2018-03-02 | 2022-11-15 | 国立研究開発法人情報通信研究機構 | 疑似対訳データ生成装置、機械翻訳処理装置、および疑似対訳データ生成方法 |
CN109062907B (zh) * | 2018-07-17 | 2022-07-12 | 苏州大学 | 融入依存关系的神经机器翻译方法 |
KR20200044201A (ko) * | 2018-10-10 | 2020-04-29 | 한국전자통신연구원 | 번역 성능 개선을 위한 신경망번역 모델 학습 방법 및 장치 |
CN109858042B (zh) * | 2018-11-20 | 2024-02-20 | 科大讯飞股份有限公司 | 一种翻译质量的确定方法及装置 |
CN109558605B (zh) * | 2018-12-17 | 2022-06-10 | 北京百度网讯科技有限公司 | 用于翻译语句的方法和装置 |
CN109918568B (zh) * | 2019-03-13 | 2021-06-01 | 百度在线网络技术(北京)有限公司 | 个性化学习方法、装置、电子设备及存储介质 |
CN111241855B (zh) * | 2019-03-25 | 2021-03-16 | 腾讯科技(深圳)有限公司 | 文本翻译方法、装置、存储介质和计算机设备 |
CN110069790B (zh) * | 2019-05-10 | 2022-12-06 | 东北大学 | 一种通过译文回译对照原文的机器翻译系统及方法 |
CN110287498B (zh) * | 2019-05-30 | 2023-04-07 | 北京百度网讯科技有限公司 | 层次化翻译方法、装置及存储介质 |
CN110334361B (zh) * | 2019-07-12 | 2022-11-22 | 电子科技大学 | 一种面向小语种语言的神经机器翻译方法 |
US11599986B2 (en) * | 2020-06-16 | 2023-03-07 | The Boeing Company | Synthetic image generation for surface anomaly detection |
-
2019
- 2019-12-10 CN CN201911259415.XA patent/CN110941966A/zh active Pending
-
2020
- 2020-04-16 KR KR1020200046002A patent/KR102338918B1/ko active Active
- 2020-05-08 US US16/870,632 patent/US11734521B2/en active Active
- 2020-05-19 JP JP2020087105A patent/JP6918181B2/ja active Active
- 2020-05-26 EP EP20176557.5A patent/EP3835998A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016224483A (ja) * | 2015-05-26 | 2016-12-28 | 日本電信電話株式会社 | モデル学習装置、方法、及びプログラム |
Non-Patent Citations (1)
Title |
---|
박한철 외, '말뭉치 자원 희소성에 따른 통계적 수화 번역 문제의 해결', 한국정보과학회, 2016.06. * |
Also Published As
Publication number | Publication date |
---|---|
CN110941966A (zh) | 2020-03-31 |
EP3835998A1 (en) | 2021-06-16 |
US11734521B2 (en) | 2023-08-22 |
JP2021093113A (ja) | 2021-06-17 |
KR102338918B1 (ko) | 2021-12-10 |
US20210174019A1 (en) | 2021-06-10 |
JP6918181B2 (ja) | 2021-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102338918B1 (ko) | 기계 번역 모델의 훈련 방법, 장치 및 시스템 | |
US11120078B2 (en) | Method and device for video processing, electronic device, and storage medium | |
WO2021077529A1 (zh) | 神经网络模型压缩方法、语料翻译方法及其装置 | |
CN111259148A (zh) | 信息处理方法、装置及存储介质 | |
CN113792207A (zh) | 一种基于多层次特征表示对齐的跨模态检索方法 | |
CN110674246A (zh) | 问答模型训练方法、自动问答方法及装置 | |
CN110135349A (zh) | 识别方法、装置、设备及存储介质 | |
CN106547850A (zh) | 表情注释方法及装置 | |
CN111381685B (zh) | 一种句联想方法和装置 | |
CN110389666B (zh) | 一种输入纠错方法和装置 | |
CN108733657B (zh) | 神经机器翻译中注意力参数的修正方法、装置及电子设备 | |
CN110648657A (zh) | 一种语言模型训练方法、构建方法和装置 | |
CN109460458B (zh) | 查询改写意图的预测方法及装置 | |
CN109144286B (zh) | 一种输入方法及装置 | |
CN111832297A (zh) | 词性标注方法、装置及计算机可读存储介质 | |
CN110245358B (zh) | 一种机器翻译方法及相关装置 | |
KR20210050484A (ko) | 정보 처리 방법, 장치 및 저장 매체 | |
CN110874146A (zh) | 一种输入方法、装置及电子设备 | |
CN115409200A (zh) | 数据库的操作方法、装置及介质 | |
CN114462410A (zh) | 实体识别方法、装置、终端及存储介质 | |
CN104699668B (zh) | 确定词语相似度的方法及装置 | |
CN111178086B (zh) | 数据处理方法、装置和介质 | |
CN112905023B (zh) | 一种输入纠错方法、装置和用于输入纠错的装置 | |
CN114299427A (zh) | 目标对象关键点的检测方法、装置、电子设备及存储介质 | |
CN115249317A (zh) | 一种生成图像描述信息的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20200416 |
|
PA0201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20210528 Patent event code: PE09021S01D |
|
PG1501 | Laying open of application | ||
E701 | Decision to grant or registration of patent right | ||
PE0701 | Decision of registration |
Patent event code: PE07011S01D Comment text: Decision to Grant Registration Patent event date: 20211125 |
|
GRNT | Written decision to grant | ||
PR0701 | Registration of establishment |
Comment text: Registration of Establishment Patent event date: 20211208 Patent event code: PR07011E01D |
|
PR1002 | Payment of registration fee |
Payment date: 20211208 End annual number: 3 Start annual number: 1 |
|
PG1601 | Publication of registration |