KR102565275B1 - 병렬 처리에 기초한 번역 방법 및 장치 - Google Patents

병렬 처리에 기초한 번역 방법 및 장치 Download PDF

Info

Publication number
KR102565275B1
KR102565275B1 KR1020160101726A KR20160101726A KR102565275B1 KR 102565275 B1 KR102565275 B1 KR 102565275B1 KR 1020160101726 A KR1020160101726 A KR 1020160101726A KR 20160101726 A KR20160101726 A KR 20160101726A KR 102565275 B1 KR102565275 B1 KR 102565275B1
Authority
KR
South Korea
Prior art keywords
translation
language
candidate sentences
sentence
encoder
Prior art date
Application number
KR1020160101726A
Other languages
English (en)
Other versions
KR20180017622A (ko
Inventor
박영기
나휘동
이호동
문민영
송인철
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160101726A priority Critical patent/KR102565275B1/ko
Priority to US15/450,333 priority patent/US10902216B2/en
Priority to CN201710347966.6A priority patent/CN107729324A/zh
Priority to EP17180037.8A priority patent/EP3282368A1/en
Priority to JP2017148956A priority patent/JP7066349B2/ja
Publication of KR20180017622A publication Critical patent/KR20180017622A/ko
Application granted granted Critical
Publication of KR102565275B1 publication Critical patent/KR102565275B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/47Machine-assisted translation, e.g. using translation memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/247Thesauruses; Synonyms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/51Translation evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/53Processing of non-Latin text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Neurology (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

번역 방법 및 장치는 인코더 및 디코더를 포함하는 복수의 번역 모듈들에게 제1 언어의 소스 문장을 입력하고, 소스 문장을 복수의 번역 모듈들 별로 인코딩하여 생성한 특징 벡터들을 복수의 번역 모듈들 별로 디코딩하여 제2 언어의 후보 문장들을 생성하며, 제2 언어의 후보 문장들로부터 제2 언어의 최종 문장을 선택한다.

Description

병렬 처리에 기초한 번역 방법 및 장치{TRANSLATING METHOD AND APPARATUS BASED ON PARALLEL PROCESSING}
아래의 실시예들은 병렬 처리에 기초한 번역 방법 및 장치에 관한 것이다.
정보 통신 기술 및 인터넷의 발달로 인해 사람들은 다양한 언어로 제작된 컨텐츠들을 제공받게 되었다. 특히, 글로벌 비즈니스화로 인해 다양한 언어를 사용하는 사용자들 간의 의사 소통 및 컨텐츠 번역 등을 위한 번역 기술이 빠르게 발전하고 있다.
사용자들이 서로 다른 언어를 사용하는 경우, 보다 정확한 의사 전달 및 정확한 의미 전달을 위해 번역에 많은 시간 및 많은 처리 과정이 요구되는 불편함이 존재하였다.
일 측에 따르면, 번역 방법은 인코더(encoder) 및 디코더(decoder)를 포함하는 복수의 번역 모듈들에게 제1 언어의 소스 문장(source sentence)을 입력하는 단계; 상기 소스 문장을 상기 복수의 번역 모듈들 별로 인코딩하여 특징 벡터들을 생성하는 단계; 상기 특징 벡터들을 상기 복수의 번역 모듈들 별로 디코딩하여 제2 언어의 후보 문장들을 생성하는 단계; 및 상기 제2 언어의 후보 문장들로부터 제2 언어의 최종 문장을 선택하는 단계를 포함한다.
상기 번역 방법은 상기 복수의 번역 모듈들 중 적어도 하나의 번역 모듈에 입력되는 소스 문장, 상기 적어도 하나의 번역 모듈에 포함된 인코더, 및 상기 적어도 하나의 번역 모듈에 포함된 디코더 중 적어도 하나를 변형하는 단계를 더 포함할 수 있다.
상기 변형하는 단계는 상기 제1 언어와 관련된 정보에 기초하여, 상기 적어도 하나의 번역 모듈에 입력되는 소스 문장의 어순을 변경하는 단계; 및 상기 제1 언어와 관련된 정보에 기초하여, 상기 적어도 하나의 번역 모듈에 입력되는 소스 문장에 포함된 단어를 유의어로 대체하는 단계 중 적어도 하나를 포함할 수 있다.
상기 변형하는 단계는 상기 적어도 하나의 번역 모듈에 포함된 인코더에 적용되는 파라미터 값 또는 활성 함수(activation function)에 대하여 노이즈(noise)를 적용함으로써 상기 인코더를 변형하는 단계; 및 상기 적어도 하나의 번역 모듈에 포함된 디코더에 적용되는 파라미터 값 또는 활성 함수에 대하여 노이즈를 적용함으로써 상기 디코더를 변형하는 단계 중 적어도 하나를 포함할 수 있다.
상기 변형하는 단계는 상기 적어도 하나의 번역 모듈에 포함된 인코더를, 학습 초기값, 학습 세트, 및 학습 순서 중 적어도 하나를 변경하여 학습된 인코더로 대체하는 단계; 및 상기 적어도 하나의 번역 모듈에 포함된 디코더를, 학습 초기값, 학습 세트, 및 학습 순서 중 적어도 하나를 변경하여 학습된 디코더로 대체하는 단계 중 적어도 하나를 포함할 수 있다.
상기 제2 언어의 후보 문장들을 생성하는 단계는 빔 서치(beam search) 알고리즘을 이용하여, 상기 복수의 번역 모듈들 별로 미리 정해진 수의 후보 문장들을 생성하는 단계를 포함할 수 있다.
상기 제2 언어의 최종 문장을 선택하는 단계는 상기 제2 언어의 후보 문장들에 대한 스코어들을 계산하는 단계; 및 상기 제2 언어의 후보 문장들 중 최고 스코어를 가지는 후보 문장을 상기 제2 언어의 최종 문장으로 선택하는 단계를 포함할 수 있다.
상기 제2 언어의 후보 문장들에 대한 스코어들을 계산하는 단계는 상기 복수의 번역 모듈들 별로 상기 제2 언어의 후보 문장들에 대한 스코어들을 계산하는 단계를 포함할 수 있다.
상기 제2 언어의 후보 문장들에 대한 스코어들을 계산하는 단계는 서로 다른 복수의 리스코어링 모델들에 기초하여, 상기 제2 언어의 후보 문장들 각각에 대응하는 복수의 스코어들을 계산하는 단계; 및 상기 제2 언어의 후보 문장들 각각에 대응하는 상기 복수의 스코어들의 통계를 이용하여, 상기 제2 언어의 후보 문장들 각각에 대응하는 스코어를 계산하는 단계를 포함할 수 있다.
일 측에 따르면, 번역 장치는 복수의 번역 모듈들을 포함하고, 상기 번역 모듈들 각각은 제1 언어의 소스 문장을 수신하는 수신부; 상기 소스 문장을 인코딩하여 특징 벡터를 생성하는 인코더; 및 상기 특징 벡터를 디코딩하여 제2 언어의 후보 문장들을 생성하는 디코더를 포함하며, 상기 제2 언어의 후보 문장들로부터 제2 언어의 최종 문장을 선택하는 프로세서를 포함한다.
상기 프로세서는 상기 복수의 번역 모듈들 중 적어도 하나의 번역 모듈에 입력되는 소스 문장, 상기 적어도 하나의 번역 모듈에 포함된 인코더, 및 상기 적어도 하나의 번역 모듈에 포함된 디코더 중 적어도 하나를 변형할 수 있다.
상기 프로세서는 상기 제1 언어와 관련된 정보에 기초하여, 상기 적어도 하나의 번역 모듈에 입력되는 소스 문장의 어순을 변경하는 동작, 및 상기 제1 언어와 관련된 정보에 기초하여, 상기 적어도 하나의 번역 모듈에 입력되는 소스 문장에 포함된 단어를 유의어로 대체하는 동작 중 적어도 하나를 수행할 수 있다.
상기 프로세서는 상기 적어도 하나의 번역 모듈에 포함된 인코더에 적용되는 파라미터 값 또는 활성 함수에 대하여 노이즈를 적용함으로써 상기 인코더를 변형하는 동작, 및 상기 적어도 하나의 번역 모듈에 포함된 디코더에 적용되는 파라미터 값 또는 활성 함수에 대하여 노이즈를 적용함으로써 상기 디코더를 변형하는 동작 중 적어도 하나를 수행할 수 있다.
상기 프로세서는 상기 적어도 하나의 번역 모듈에 포함된 인코더를 학습 초기값, 학습 세트, 및 학습 순서 중 적어도 하나를 변경하여 학습된 인코더로 대체하는 동작, 및 상기 적어도 하나의 번역 모듈에 포함된 디코더를 학습 초기값, 학습 세트, 및 학습 순서 중 적어도 하나를 변경하여 학습된 디코더로 대체하는 동작 중 적어도 하나를 수행할 수 있다.
상기 디코더는 빔 서치 알고리즘을 이용하여 상기 특징 벡터를 디코딩 함으로써, 상기 번역 모듈에 대응하는 미리 정해진 수의 후보 문장들을 생성할 수 있다.
상기 프로세서는 상기 제2 언어의 후보 문장들에 대한 스코어들을 계산하고, 상기 제2 언어의 후보 문장들 중 최고 스코어를 가지는 후보 문장을 상기 제2 언어의 최종 문장으로 선택할 수 있다.
상기 프로세서는 상기 복수의 번역 모듈들 별로 상기 제2 언어의 후보 문장들에 대한 스코어들을 계산할 수 있다.
상기 프로세서는 서로 다른 복수의 리스코어링 모델들에 기초하여, 상기 제2 언어의 후보 문장들 각각에 대응하는 복수의 스코어들을 계산하고, 상기 제2 언어의 후보 문장들 각각에 대응하는 상기 복수의 스코어들의 통계를 이용하여, 상기 제2 언어의 후보 문장들 각각에 대응하는 스코어를 계산할 수 있다.
상기 제2 언어의 후보 문장들을 저장하는 메모리를 더 포함할 수 있다.
도 1은 일 실시예에 따른 병렬 번역 모듈을 포함하는 번역 장치의 구성을 설명하기 위한 도면.
도 2는 일 실시예에 따른 번역 방법을 나타낸 흐름도.
도 3은 다른 실시예에 따른 번역 방법을 나타낸 흐름도.
도 4는 일 실시예에 따라 적어도 하나의 번역 모듈에 입력되는 소스 문장을 변형하는 방법을 설명하기 위한 도면.
도 5는 일 실시예에 따라 제2 언어의 최종 문장을 선택하는 방법을 나타낸 흐름도.
도 6은 일 실시예에 따라 제2 언어의 후보 문장들에 대한 스코어를 재산정하는 방법을 나타낸 흐름도.
도 7은 일 실시예에 따른 번역 모듈의 구성 및 동작을 설명하기 위한 도면.
도 8은 일 실시예에 따른 인코더를 구성하는 뉴럴 네트워크의 구조 및 동작을 설명하기 위한 도면.
도 9는 일 실시예에 따른 디코더를 구성하는 뉴럴 네트워크의 구조 및 동작을 설명하기 위한 도면.
도 10은 일 실시예에 따른 뉴럴 네트워크를 구성하는 리커런트 뉴럴 네트워크(Recurrent Neural Network)를 설명하기 위한 도면.
도 11은 일 실시예에 따른 번역 장치의 블록도.
본 명세서에서 개시되어 있는 특정한 구조적 또는 기능적 설명들은 단지 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 실시예들은 다양한 다른 형태로 실시될 수 있으며 본 명세서에 설명된 실시예들에 한정되지 않는다.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 이해되어야 한다. 예를 들어 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 표현들, 예를 들어 "~간의"와 "바로~간의" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
하기에서 설명될 실시예들은 자동차, 텔레비전, 핸드폰, 기타 전자 장치 등에 탑재되어 신속, 정확한 번역을 제공하는 데에 사용될 수 있다. 실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 스마트 가전 기기, 및 웨어러블 디바이스 등 다양한 형태의 제품으로 구현될 수 있다. 예를 들어, 실시예들은 스마트 폰, 모바일 기기, 스마트 홈 시스템, 및 웨어러블 디바이스 등에 탑재되어 통역 앱으로 기능하거나, 외국인과의 화상 회의 시 번역 자막을 제공할 수도 있다. 또한, 자가용, 버스, 택시 등을 이용하는 경우, 서로 다른 언어를 사용하는 승객과 운전자 간의 통역에 이용될 수 있다. 이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 일 실시예에 따른 병렬 번역 모듈을 포함하는 번역 장치의 구성을 설명하기 위한 도면이다. 도 1을 참조하면, 일 실시예에 따른 번역 장치(100)는 병렬 번역 모듈(110)을 포함한다. 병렬 번역 모듈(110)은 복수의 번역 모듈들(111, 113, 115, 117, 및 119)을 포함할 수 있다. 번역 모듈들(111, 113, 115, 117, 및 119) 각각은 GPU(Graphic Processing Units)로 구성될 수 있다. 병렬 번역 모듈(110)에 포함된 어느 하나의 번역 모듈의 구성 및 동작은 도 7을 참조하여 구체적으로 설명한다.
번역 모듈들(111, 113, 115, 117, 및 119) 각각은 제1 언어의 소스 문장을 인코딩하여 특징 벡터를 생성하는 인코더(encoder); 및 특징 벡터를 디코딩하여 제2 언어의 후보 문장들을 생성하는 디코더(decoder)를 포함한다. 인코더(encoder) 및 디코더(decoder)는 (인공) 신경망(Neural Network)으로 구성되고, 미리 학습된 것일 수 있다. 인코더 및 디코더를 구성하는 신경망의 구조에 대하여는 도 8 내지 도 10을 참조하여 설명한다.
번역 시작 전, 번역 장치(100)는 제1 언어의 소스 문장(source sentence)(예를 들어, "강남역까지 가는 길을 알려줘")을 번역 모듈들(111, 113, 115, 117, 및 119) 각각에 병렬적으로 입력(복사)할 수 있다. 번역 모듈들(111, 113, 115, 117, 및 119) 각각에 포함된 인코더는 입력된 소스 문장을 특징 벡터, 다시 말해 추상화된 문장 정보로 변환할 수 있다. 인코더로부터 특징 벡터를 수신한 디코더는 번역 결과에 따른 최종 출력으로 제2 언어의 후보 문장들을 생성할 수 있다. 이때, 디코더는 빔 서치(beam search) 알고리즘을 이용하여 m 개의 제2 언어의 후보 문장들을 포함하는 m-베스트 리스트(m-best list)를 생성할 수 있다. 이하, m을 빔 서치 알고리즘의 복잡도(complexity)라고 한다.
일반적인 빔 서치 알고리즘을 통해 생성되는 후보 문장들의 개수를 n개라고 하면, 실시예들에 의한 m은 n보다 작은 수일 수 있다. n보다 작은 m의 복잡도를 가지는 빔 서치 알고리즘을 이용함으로써, 실시예들에 따른 번역 모듈들(111, 113, 115, 117, 및 119) 각각에 포함된 디코더의 연산 복잡도가 감소될 수 있다. 다만, 이 경우 디코딩 성능이 감소될 수 있는데, 실시예들은 병렬적으로 구동되는 복수의 번역 모듈들을 활용함으로써 디코딩 성능의 감소를 최소화할 수 있다. 따라서, 실시예들은 번역 모듈들(111, 113, 115, 117, 및 119) 각각을 구성하는 복수의 GPU들을 이용한 병렬 처리를 통해 일반적인 단일 번역기와 실질적으로 동일한 성능을 보장하면서 번역 속도를 향상시킬 수 있다.
다른 실시예에 따르면, 복수의 GPU들을 이용한 병렬 처리를 통해 일반적인 단일 번역기와 실질적으로 동일한 속도를 보장하면서 번역 성능을 향상시킬 수도 있다. 예를 들어, 번역 모듈들(111, 113, 115, 117, 및 119) 각각에 포함된 디코더에서 빔 서치 알고리즘의 복잡도로 n으로 유지하는 경우 번역 속도는 향상되지 않으나, 병렬 처리로 인한 후보군 증가로 인하여 번역 성능이 향상될 수 있다. 또 다른 실시예에 따르면, 번역 모듈들 (111, 113, 115, 117, 및 119) 각각에 포함된 디코더에서 이용되는 빔 서치 알고리즘의 복잡도와 번역 모듈들 (111, 113, 115, 117, 및 119)의 수를 조절하여, 원하는 번역 속도 및 번역 성능을 가지는 번역기가 구현될 수 있다.
이하에서, 설명의 편의를 위하여 번역 모듈들 (111, 113, 115, 117, 및 119) 각각에 포함된 디코더에서 복잡도가 감소된 빔 서치 알고리즘이 이용되는 실시예들을 설명하나, 실시예들은 디코더에서 빔 서치 알고리즘 이외에 다른 디코딩 알고리즘이 이용되는 경우에도 적용될 수 있다.
번역 모듈들(111, 113, 115, 117, 및 119)을 이용한 병렬 처리를 통하여 디코딩 성능의 감소를 방지하려면, 번역 모듈들 (111, 113, 115, 117, 및 119)로부터 추출되는 m-best 후보 문장들의 다양성(variety)이 보장되어야 한다. 이를 위하여, 번역 장치(100)는 복수의 번역 모듈들(111, 113, 115, 117, 및 119) 중 적어도 하나의 번역 모듈에 입력되는 소스 문장, 적어도 하나의 번역 모듈에 포함된 인코더, 및 적어도 하나의 번역 모듈에 포함된 디코더 중 적어도 하나를 변형할 수 있다. 번역 장치(100)는 소스 문장, 인코더 및 디코더의 변형 및 이들 간의 다양한 변형 조합을 통해 제2 언어의 후보 문장들의 다양성을 확보할 수 있다.
예를 들어, 번역 장치(100)는 GPU 1(111)에는 제1 언어의 소스 문장을 입력하고, GPU 2(113)에는 제1 언어의 소스 문장을 동일한 의미를 가지는 다른 문장 또는 유사한 문장(similar sentence)으로 변경하여 입력할 수 있다. 번역 장치(100)가 소스 문장을 변형하는 방법은 도 4를 참조하여 설명한다.
번역 장치(100)는 GPU 3(115)의 인코더에 적용되는 파라미터 값 또는 활성 함수(activation function)에 대하여 노이즈(noise)를 적용함으로써 인코더를 변형할 수 있다. 번역 장치(100)는 GPU 4(117)의 디코더에 적용되는 파라미터 값 또는 활성 함수에 대하여 노이즈를 적용함으로써 디코더를 변형할 수 있다. 이 밖에도, 번역 장치(100)는 인코더 및 디코더에 적용되는 파라미터 값 또는 활성 함수에 대해 적용되는 노이즈(noise)를 다르게 할 수 있다. 파라미터 값은 인코더 또는 디코더의 신경망을 구성하는 시냅스의 가중치일 수 있다. 또한, 활성 함수는 인코더 또는 디코더의 신경망을 구성하는 노드의 활성화 특성(activation characteristics)를 나타내는 함수일 수 있다.
또는, 번역 장치(100)는 GPU 5(119)와 같이, 인코더 A를 학습 초기값, 학습 세트, 및 학습 순서 중 적어도 하나를 변경하여 학습된 인코더 A'으로 대체하거나, 디코더 B를 학습 초기값, 학습 세트, 및 학습 순서 중 적어도 하나를 변경하여 학습된 디코더 B'으로 대체할 수 있다.
실시예에 따라, 번역 장치(100)는 적응적으로 번역 모듈에 변형을 가하는 대신, 복수의 번역 모듈들(111, 113, 115, 117, 및 119) 중 적어도 일부의 번역 모듈에 변형이 가해진 병렬 번역 모듈을 이용할 수도 있다.
일 실시예에서는 복수의 번역 모듈들을 병렬화함으로써 번역 속도를 개선시키고, 소스 문장, 인코더, 디코더의 다양한 변형 조합을 통해 다양한 제2 언어의 후보 문장들(예를 들어, m-best)를 생성함으로써 번역 정확도 또한 향상시킬 수 있다.
일 실시예에서는 5개의 번역 모듈들을 병렬적으로 사용하는 실시예에 대하여 설명하였지만, 반드시 이에 한정되는 것을 아니고, 이외에도 다양한 개수의 번역 모듈들을 활용할 수도 있다.
일 실시예에 따르면, 번역 모듈들(111, 113, 115, 117, 및 119) 각각은 스코어에 기반하여 제2 언어의 후보 문장들의 순위를 매기거나, 제2 언어의 후보 문장들의 스코어를 재 산정하는 리스코어링 모델(rescoring model)을 더 포함할 수 있다. 리스코어링 모델은 각각 1-best의 후보 문장을 출력할 수 있다.
일 예로, 리스코어링 모델들(150)은 제2 언어의 후보 문장들을 디코딩하는 과정에서 산출된 스코어들을 그대로 제2 언어의 후보 문장들의 스코어들로 결정할 수 있다. 일 예로, 후보 문장들에 대한 스코어는 해당 후보 문장이 나타날 수 있는 확률 값일 수 있다. 이 경우, 리스코어링 모델들(150)은 '랭킹 모델(ranking model)'이라고도 불릴 수 있다.
또한, 번역 장치(100)는 프로세서(170)를 더 포함할 수 있다. 프로세서(170)는 복수의 리스코어링 모델들(150)로부터 수신되는 제2 언어의 후보 문장들에 기초하여, 최종 번역 결과에 해당하는 후보 문장을 선택할 수 있다.
일 예로, 프로세서(170)는 리스코어링 모델들(150)에서 계산된 제2 언어의 후보 문장들 각각에 대응하는 스코어를 기초로, 제2 언어의 후보 문장들 중 최고 스코어를 가지는 후보 문장을 제2 언어의 최종 문장("How do I get to Gangnam Station?")으로 선택하여 출력할 수 있다.
도 2는 일 실시예에 따른 번역 방법을 나타낸 흐름도이다. 도 2를 참조하면, 일 실시예에 따른 번역 장치는 인코더 및 디코더를 포함하는 복수의 번역 모듈들에게 제1 언어의 소스 문장을 입력한다(210). 복수의 번역 모듈들 중 어느 하나의 번역 모듈의 구조 및 동작은 도 7을 참조하여 설명한다.
번역 장치는 소스 문장을 복수의 번역 모듈들 별로 인코딩하여 특징 벡터들을 생성한다(220). 특징 벡터는 '추상화된 문장 정보'라고도 불릴 수 있다. 번역 장치는 입력받은 소스 문장을 인코딩을 통해 특징 벡터들로 반환할 수 있다. 예를 들어, "안녕하세요"라는 소스 문장이 입력된 경우, 번역 장치는 (3.432, 4.742, .. , 0.299)와 같은 추상화된 문장 정보, 다시 말해 특징 벡터들을 생성할 수 있다.
번역 장치는 특징 벡터들을 복수의 번역 모듈들 별로 디코딩하여 제2 언어의 후보 문장들을 생성한다(230). 번역 장치는 예를 들어, 빔 서치 알고리즘을 이용하여, 복수의 번역 모듈들 별로 미리 정해진 수(예를 들어, m 개)의 후보 문장들을 생성할 수 있다.
번역 장치는 빔 서치 알고리즘을 이용하여 추상화된 문장 정보에 대응하는 후보 문장 리스트들을 출력할 수 있다. 번역 장치는 빔 서치 알고리즘을 이용하여 예를 들어, (3.432, 4.742, .. , 0.299)와 같은 추상화된 문장 정보에 대응하는 후보 문장들의 리스트, 즉, 후보 문장 리스트를 생성할 수 있다. 후보 문장 리스트는 예를 들어, "Hello", "How are you?", .. ,"How are you doing?"와 같은 후보 문장들을 포함할 수 있다.
이때, 번역 장치가 생성하는 후보 문장들의 개수가 적다면, 번역 속도는 빠르지만, 부정확한 결과를 생성할 수 있다. 또한, 번역 장치가 생성하는 후보 문장들의 개수가 많다면, 번역 정확도를 높아질 수 있지만, 번역 속도가 늦어질 수 있다. 일 실시예에서는 복수의 번역 모듈들을 이용함으로써 하나의 번역 모듈이 생성하는 후보 문장들의 개수를 줄여 처리 속도를 향상시키는 한편, 복수의 번역 모듈들의 변형을 통해 다양화된 후보 문장들을 생성함으로써 번역 정확도 또한 향상시킬 수 있다. 번역 모듈들의 변형을 통해 다양화된 후보 문장들을 생성하는 방법은 도 3을 참조하여 설명한다.
번역 장치는 제2 언어의 후보 문장들로부터 제2 언어의 최종 문장을 선택한다(240). 번역 장치는 예를 들어, 리스코어링 모델들을 이용하여 후보 문장 리스트(예를 들어, "Hello", "How are you?", "How are you doing?") 중 가장 확률이 높은 문장(예를 들어, "How are you doing?")를 제2 언어의 최종 문장으로 선택할 수 있다. 번역 장치가 리스코어링 모델들(rescoring models)을 이용하여 제2 언어의 최종 문장을 선택하는 방법은 도 5 및 도 6을 참조하여 설명한다.
도 3은 다른 실시예에 따른 번역 방법을 나타낸 흐름도이다. 도 3을 참조하면, 단계(310), 단계(330), 단계(340), 및 단계(350)은 도 2의 단계(210), 단계(220), 단계(230), 및 단계(240)에 대응될 수 있으므로, 중복된 설명은 생략한다.
일 실시예에 따른 번역 장치는 단계(320)에서 복수의 번역 모듈들 중 적어도 하나의 번역 모듈에 입력되는 소스 문장, 적어도 하나의 번역 모듈에 포함된 인코더, 및 적어도 하나의 번역 모듈에 포함된 디코더 중 적어도 하나를 변형할 수 있다.
번역 장치가 적어도 하나의 번역 모듈에 포함된 인코더, 및/또는 적어도 하나의 번역 모듈에 포함된 디코더를 변형하는 방법은 다음과 같다.
번역 장치는 적어도 하나의 번역 모듈에 포함된 인코더에 적용되는 파라미터 값 또는 활성 함수에 대하여 노이즈를 적용함으로써 인코더를 변형할 수 있다. 파라미터 값은 신경망으로 구성되는 인코더의 파라미터 혹은 가중치(weight)일 수 있다. 일 실시예와 같이 인코더 및 디코더를 신경망으로 구성하는 경우, 인코더 및 디코더를 학습시키는 과정이 선행적으로 수행된다. 이때, 인코더 및 디코더를 학습시킨다는 것은 신경망을 구성하는 파라미터 또는 가중치의 값을 결정하는 것으로 이해될 수 있다.
번역 장치는 예를 들어, 가중치들의 확률 분포에 따라 가중치에 적용되는 노이즈를 생성하여 적용할 수 있다. 또는 번역 장치는 활성 함수들의 확률 분포에 따라 활성 함수에 적용되는 노이즈를 생성할 수 있다.
마찬가지로, 번역 장치는 적어도 하나의 번역 모듈에 포함된 디코더에 적용되는 파라미터 값 또는 활성 함수에 대하여 노이즈를 적용함으로써 디코더를 변형할 수 있다.
또한, 번역 장치는 적어도 하나의 번역 모듈에 포함된 인코더를, 학습 초기값, 학습 세트, 및 학습 순서 중 적어도 하나를 변경하여 학습된 인코더로 대체함으로써 인코더를 변형할 수 있다. 마찬가지로, 번역 장치는 적어도 하나의 번역 모듈에 포함된 디코더를, 학습 초기값, 학습 세트, 및 학습 순서 중 적어도 하나를 변경하여 학습된 디코더로 대체할 수 있다.
도 4는 일 실시예에 따라 적어도 하나의 번역 모듈에 입력되는 소스 문장을 변형하는 방법을 설명하기 위한 도면이다. 도 4를 참조하면, 일 실시예에 따른 번역 장치는 제1 언어와 관련된 정보에 기초하여, 적어도 하나의 번역 모듈에 입력되는 소스 문장의 어순을 변경할 수 있다. 여기서, 제1 언어와 관련된 정보는 예를 들어, 언어 모델(Language Model)에 저장될 수 있다.
예를 들어, 소스 문장이 "강남역까지 가는 길을 알려줘."라고 하자.
번역 장치는 "가는 길을 알려줘, 강남역까지", "알려줘! 강남역까지 가는 길을", "알려줘, 가는 길을, 강남역까지"와 같이 소스 문장의 어순을 변경함으로써 소스 문장을 변형할 수 있다. 이때, 번역 장치는 소스 문장을 워드 단위 또는 서브 워드 단위로 구분하고, 서브 워드들 간의 어순을 변경함으로써 소스 문장을 변형할 수 있다. 아래에서 설명하는 실시예들에서는 '서브 워드'를 이용하는 경우로 설명하였으나, 실시예들은 '서브 워드' 대신 '워드'를 이용하는 경우에도 적용될 수 있다.
또한, 번역 장치는 제1 언어와 관련된 정보에 기초하여, 적어도 하나의 번역 모듈에 입력되는 소스 문장에 포함된 단어를 유의어(유사어)로 대체할 수 있다. 이때, 제1 언어와 관련된 정보는 유의어 사전을 포함할 수 있다.
유의어(유사어)로 대체되는 단어는 서브 워드(sub-word), 및 워드(word) 중 어느 하나일 수 있다. 서브 워드는 일반적인 문장에서 자주 사용되는 캐릭터들(characters)의 시퀀스로 이해될 수 있다.
번역 장치는 예를 들어, 유의어 사전으로부터 '~까지'의 유의어인 '~으로'를, '알려줘'의 유의어인 '알려주세요', '어떻게 됩니까', '알려주시겠습니까?' 등을, '가는 길을 알려줘'의 유의어인 '어떻게 가죠?', '어떻게 가나요?', '어떻게 갈까요'등을 검색할 수 있다. 번역 장치는 소스 문장에 포함된 단어를 검색된 유의어들로 대체하여 도 4에 도시된 것과 같이 소스 문장을 다양하게 변형할 수 있다.
도 5는 일 실시예에 따라 제2 언어의 최종 문장을 선택하는 방법을 나타낸 흐름도이다. 도 5를 참조하면, 일 실시예에 따른 번역 장치는 제2 언어의 후보 문장들에 대한 스코어들을 계산할 수 있다(510). 번역 장치는 복수의 번역 모듈들 별로 제2 언어의 후보 문장들에 대한 스코어들을 계산할 수 있다. 이때, 후보 문장(들)에 대한 스코어(들)는 후보 문장(들)이 나타날 수 있는 확률 값(들)일 수 있다. 번역 장치는 디코딩 과정에서 각 후보 문장들에 대하여 계산된 확률 값들을 그대로 이용할 수도 있고, 새로운 리스코어링 모델을 이용하여 각 후보 문장들에 대한 스코어를 재산정할 수도 있다.
번역 장치는 단계(510)에서 계산된 제2 언어의 후보 문장들 중 최고 스코어를 가지는 후보 문장을 제2 언어의 최종 문장으로 선택할 수 있다(520).
도 6은 일 실시예에 따라 제2 언어의 후보 문장들에 대한 스코어를 재산정하는 방법을 나타낸 흐름도이다. 도 6을 참조하면, 일 실시예에 따른 번역 장치는 서로 다른 복수의 리스코어링 모델들에 기초하여, 제2 언어의 후보 문장들 각각에 대응하는 복수의 스코어들을 계산할 수 있다(610). 일 실시예에서는 서로 다른 복수의 리스코어링 모델들을 병렬적으로 이용할 수 있다. 복수의 모델들을 병렬적으로 이용하여 복수의 스코어들을 계산하고, 스코어들의 평균값을 이용함으로써 속도 면에서의 손실없이, 번역의 정확도를 향상시킬 수 있다.
번역 장치는 제2 언어의 후보 문장들 각각에 대응하는 복수의 스코어들의 통계(예를 들어, 평균값, 표준 편차 등)를 이용하여, 제2 언어의 후보 문장들 각각에 대응하는 스코어를 계산할 수 있다(620).
도 7은 일 실시예에 따른 번역 모듈의 구성 및 동작을 설명하기 위한 도면이다. 도 7을 참조하면, 일 실시예에 따른 번역 모듈(700)은 인코더(Encoder)(710), 디코더(Decoder)(730) 및 리스코어링 모델(Rescoring model)(750)을 포함할 수 있다.
예를 들어, "강남역까지 가는 길을 알려줘"와 같은 소스 문장이 번역 모듈(700)로 입력된다고 하자. 번역 모듈(700)은 소스 문장을 예를 들어, '강남', '역', '까지', '가는', '길', '을', '알려', '줘' 와 같은 서브 워드의 단위로 구분하여 순차적으로 인코더(710)에 입력할 수 있다.
인코더(710)는 한 문장 전체의 입력이 완료되면, 소스 문장을 인코딩하여 특징 벡터를 생성할 수 있다. 전술한 바와 같이, 번역 모듈(700)은 소스 문장을 인코더로 입력하기 전에, 소스 문장의 어순을 변경하거나, 소스 문장에 포함된 단어(또는 서브 워드)를 유의어로 대체하는 방식으로 소스 문장을 변형할 수 있다. 번역 모듈(700)은 변형된 제1 언어의 소스 문장을 인코더(710)로 입력할 수 있다.
인코더(710)는 신경망(715)으로 구성될 수 있다. 신경망(715)의 구조 및 동작은 도 8을 참조하여 설명한다.
인코더(710)는 신경망(715)에 의해 제1 언어의 소스 문장을 인코딩하여 특징 벡터를 생성할 수 있다. 인코더(710)는 "강남역까지 가는 길을 알려줘"와 같은 하나의 소스 문장에 대하여 '2.542', '0.827', '5.936' 등과 같은 특징 벡터를 생성할 수 있다.
디코더(730)는 인코더(710)에서 생성된 특징 벡터를 디코딩하여 제2 언어의 후보 문장들을 생성할 수 있다. 디코더(730)는 예를 들어, 빔 서치(beam search) 알고리즘을 이용하여 제2 언어의 후보 문장 리스트(m-Best list)를 생성할 수 있다. 제2 언어의 후보 문장 리스트는 예를 들어, "How do I get to Gangnam?", "Please let me know the way to Gangnam Station", "How do I get to Gangnam Station?", 및 "I'll go to Gangnam Station" 등과 같은 후보 문장들을 포함할 수 있다. 이때, 후보 문장들 각각은 0.2, 0.05, 0.6, 0.1 등과 같이 후보 문장 각각에 대응하는 스코어(확률 값)를 포함할 수 있다. 후보 문장들 각각은 디코더(730)에서 제2 언어의 서브 워드 단위로 출력될 수 있다.
일 실시예에서 인코더(710)의 입력 차원은 제1 언어의 '서브 워드'로 구성되는 사전의 차원이고, 디코더(730)의 출력 차원은 제2 언어의 '서브 워드'로 구성되는 사전의 차원일 수 있다. 사전의 차원은 사전에 포함된 서브 워드들의 수일 있다.
리스코어링 모델(750)은 후보 문장들 각각에 대응하는 스코어를 정렬할 수 있다. 리스코어링 모델(750)은 후보 문장들 각각에 대응하는 스코어를, 예를 들어, 스코어가 높은 순서대로 미리 설정된 개수만큼 정렬할 수 있다. 번역 모듈(700)은 리스코어링 모델(750)이 정렬한 미리 설정된 개수의 스코어들 중 가장 높은 스코어에 대응되는 후보 문장("How do I get to Gangnam Station?")을 제2 언어의 최종 문장으로 선택할 수 있다.
일 예로, 리스코어링 모델(750)은 후보 문장들 각각의 원문장(original sentence)이 번역문(translated sentence)으로 번역될 확률값과 번역문이 원문장으로 번역될 확률값을 평균한 평균값을 이용하여 최종 문장을 선택할 수 있다.
도 8은 일 실시예에 따른 인코더를 구성하는 뉴럴 네트워크(715)의 구조 및 동작을 설명하기 위한 도면이다. 뉴럴 네트워크(715)는 입력 레이어(Input layer)(810), 히든 레이어(Hidden layer)(830) 및 출력 레이어(Output layer)(850)를 포함할 수 있다.
입력 레이어(810)의 차원은 제1 언어의 서브 워드의 차원에 대응할 수 있다. 제1 언어는 서브 워드 단위로, 원-핫 벡터(one-hot vector)의 형태로 입력 레이어(810)로 입력될 수 있다. 예를 들어, 인코더로 입력되는 첫 번째 서브 워드가 '강남역'인 경우, 입력 레이어(810)의 복수의 노드들 중 '강남역'에 대응하는 노드에 '1'이 입력되고, 나머지 노드들에는 '0'이 입력될 수 있다. 입력 레이어(810)에 입력된 원-핫 벡터('강남역'에 대응하여 '1'이 맵핑된 벡터)는 히든 레이어(830)를 거쳐 출력 레이어(850)로 전파되며, 출력 레이어(850)는 원-핫 벡터(예를 들어, '강남역'에 대응하여 '1'이 맵핑된 벡터)에 대응하는 특징 벡터(예를 들어, 추상화된 문장 정보)를 출력할 수 있다.
인코더를 구성하는 뉴럴 네트워크(715)는 리커런트(recurren)t 뉴럴 네트워크로 구성될 수 있다. 이로 인하여, 두 번째 이후의 서브 워드들을 인코딩할 때, 적어도 하나의 이전 서브 워드의 인코딩 결과가 영향을 미칠 수 있다.
예를 들어, 두 번째 서브 워드가 '까지'인 경우, '까지'에 대응하여 '1'이 맵핑된 원-핫 벡터가 입력 레이어로 입력될 수 있다. '까지'에 대응하여 '1'이 맵핑된 원-핫 벡터가 히든 레이어를 거쳐 출력 레이어로 전파될 때, 히든 레이어에 포함된 노드들은 첫 번째 서브 워드를 전파시켰던 히든 레이어의 노드들의 출력을 추가적으로 입력 받을 수 있다.
이처럼, 뉴럴 네트워크(715)의 입력 레이어에 제1 언어의 서브 워드가 순차적으로 입력됨에 따라 최종적으로 출력되는 특징 벡터가 생성될 수 있다.
도 9는 일 실시예에 따른 디코더를 구성하는 뉴럴 네트워크(735)의 구조 및 동작을 설명하기 위한 도면이다. 뉴럴 네트워크(735)는 입력 레이어(910), 히든 레이어(930) 및 출력 레이어(950)를 포함할 수 있다.
뉴럴 네트워크(735)는 인코더에서 생성된 특징 벡터를 디코딩하여 제2 언어의 후보 문장들을 생성할 수 있다. 뉴럴 네트워크(735)의 입력 레이어(910)는 인코더에서 최종적으로 생성된 특징 벡터를 입력 받을 수 있다. 특징 벡터는 히든 레이어(930)를 거쳐 출력 레이어(950)로 전파될 수 있다. 출력 레이어(950)의 차원은 제2 언어의 서브 워드로 구성된 사전의 차원에 대응할 수 있다. 출력 레이어(950)에 포함된 각 노드는 제2 언어의 서브 워드에 대응하며, 각 노드의 출력 값은 해당하는 노드의 서브 워드가 출력될 확률을 의미할 수 있다. 빔 서치 알고리즘을 수행하는 번역 장치는 확률 값이 높은 순으로 미리 정해진 수(예를 들어, 3)의 후보 서브 워드들을 선택할 수 있다. 예를 들어, 미리 정해진 3만 개의 서브 워드들 중 특징 벡터가 나타날 확률(스코어)에 해당하는 3개의 스코어들(P1-1, P1-2, P1-3)이 다른 단계로 전파될 수 있다.
후보 서브 워드들이 선택되면, 각 후보 서브 워드에 대응하여 다음 번 후보 서브 워드가 디코딩 된다. 이 때, 인코더의 뉴럴 네트워크와 마찬가지로, 디코더의 뉴럴 네트워크(735)의 히든 레이어(930)의 상태 정보는 다음 번 히든 레이어(들)로 전달될 수 있다. 예를 들어, i 번째 서브 워드를 결정하고자 하는 경우, 뉴럴 네트워크(735)는 1 ~ i-1 번째까지 결정된 서브 워드를 기초로 i 번째 서브 워드의 확률(스코어)을 결정할 수 있다.
전술한 방식으로 후보 서브 워드들의 시퀀스가 생성될 수 있고, 후보 서브 워드들의 시퀀스에 의하여 제2 언어의 후보 문장이 구성될 수 있다. 다만, 하나의 서브 워드를 디코딩할 때마다 미리 정해진 수(예를 들어, 3)의 후보 서브 워드들이 선택되는 경우, 최종 후보 문장의 수가 지수적으로(exponentially) 증가하게 된다. 이러한 현상을 방지하기 위하여 단계마다 프루닝(pruning)이 적용될 수 있다. 프루닝은 후보 문장의 수가 미리 정해진 수로 유지되도록 가지치기 하는 기법으로, 예를 들어, 프루닝을 통하여 두 번째 서브 워드까지 디코딩하여 생성된 9개의 후보 문장들 중 3개의 후보 문장들만 선택되어 다음 단계로 전파될 수 있다.
일 실시예에 따르면, 한 단계에서 서브 워드가 선택되면, 선택된 서브 워드에 의하여 다음 단계의 히든 레이어가 변경될 수 있다. 일 예로, 선택된 서브 워드를 지시하는 임베딩 벡터(embedding vector)가 다음 단계의 히든 레이어에 포함된 노드들의 내부 상태에 반영될 수 있다.
도 10은 일 실시예에 따른 뉴럴 네트워크를 구성하는 리커런트 뉴럴 네트워크(Recurrent Neural Network)를 설명하기 위한 도면이다. 도 10을 참조하면, 리커런트 뉴럴 네트워크의 구조가 도시된다.
리커런트 뉴럴 네트워크(Recurrent Neural Network)는 '순환형 신경망'이라고도 불리며, 음성, 음악, 문자열, 동영상 등과 같이 순차적인 정보가 담긴 데이터를 다루는 에 적합한 신경망 구조이다.
리커런트 뉴럴 네트워크는 데이터에서 규칙적인 패턴을 인식하고, 추상화된 정보를 추출할 수 있다. 리커런트는 '반복적'이라는 뜻으로서, 신경망의 특정 부분이 반복되는 구조를 갖는다는 의미이다. 신경망의 특정 부분이 '반복된다'는 것은 동일한 태스크(task)를 한 시퀀스의 모든 요소마다 적용하고, 출력 결과는 이전의 계산 결과에 영향을 받는다는 것을 의미한다.
도 10에 도시된 리커런트 뉴럴 네트워크의 구조에서 히든 레이어의 뉴런이 자기 자신을 가리키는 화살표를 포함하고 있는 것을 볼 수 있다. 이때, 히든 레이어의 뉴런에서 자기 자신을 가리키는 화살표는 반복되는 구조를 나타내며, 이 화살표를 '순환 가중치(recurrent weight)'라고 부를 수 있다.
순환 가중치는 과거의 데이터에 대한 정보를 기억할 수 있는 기능을 가지고 있으며, 이를 통해 새로운 데이터를 처리할 때, 과거의 기억을 사용할 수 있게 된다. 즉, 사람이 대화할 때, 과거의 대화 내용을 기억하여 현재의 대화 내용을 과거의 대화 내용에 기반한 문맥을 통해 이해하는 것처럼 리커런트 뉴럴 네트워크는 순차적인 데이터 속에서 정보를 파악할 수 있다. 이것이 리커런트 뉴럴 네트워크가 순차적인 데이터를 학습할 수 있는 원리이다.
순환 가중치는 과거 (t-1) 시점의 신경망과 현재 (t) 시점의 신경망을 연결해 주는 역할을 하며, 또한, 과거 (t-2) 시점의 신경망과 과거 (t-1) 시점의 신경망을 연결해 주는 역할 또한 수행한다. 리커런트 뉴럴 네트워크는 이러한 식으로 무한히 시간에 대하여 거슬러 올라가며 모델을 펼치게 되고, 이를 통해 과거 최초의 데이터로부터 현재로 계속해서 정보가 전달될 수 있다.
도 11은 일 실시예에 따른 번역 장치의 블록도이다. 도 11을 참조하면, 일 실시예에 따른 번역 장치(1100)는 복수의 번역 모듈(1110)들, 프로세서(1130), 메모리(1150), 및 송수신 프로세서(1170)를 포함한다. 복수의 번역 모듈(1110)들, 프로세서(1130), 메모리(1150), 및 송수신 프로세서(1170)는 버스(bus)(미도시)를 통해 서로 연결될 수 있다.
번역 모듈(1110)은 수신부(1111), 인코더(1113), 및 디코더(1115)를 포함한다. 수신부(1111)는 제1 언어의 소스 문장을 수신한다. 인코더(1113)는 수신부(1111)가 수신한 소스 문장을 인코딩하여 특징 벡터를 생성한다. 디코더(1115)는 인코더(1113)가 생성한 특징 벡터를 디코딩하여 제2 언어의 후보 문장들을 생성한다. 디코더(1115)는 예를 들어, 빔 서치 알고리즘을 이용하여 특징 벡터를 디코딩 함으로써, 번역 모듈(1110)에 대응하는 미리 정해진 수의 후보 문장들을 생성할 수 있다.
프로세서(1130)는 번역 모듈(1110)에서 생성한 제2 언어의 후보 문장들로부터 제2 언어의 최종 문장을 선택한다. 프로세서(1130)는 제2 언어의 후보 문장들에 대한 스코어들을 계산하고, 제2 언어의 후보 문장들 중 최고 스코어를 가지는 후보 문장을 제2 언어의 최종 문장으로 선택할 수 있다. 프로세서(1130)는 복수의 번역 모듈들 별로 제2 언어의 후보 문장들에 대한 스코어들을 계산할 수 있다.
프로세서(1130)는 복수의 번역 모듈(1110)들 중 적어도 하나의 번역 모듈에 입력되는 소스 문장, 적어도 하나의 번역 모듈에 포함된 인코더, 및 적어도 하나의 번역 모듈에 포함된 디코더 중 적어도 하나를 변형할 수 있다.
프로세서(1130)는 제1 언어와 관련된 정보에 기초하여, 적어도 하나의 번역 모듈에 입력되는 소스 문장의 어순을 변경하는 동작, 및 제1 언어와 관련된 정보에 기초하여, 적어도 하나의 번역 모듈에 입력되는 소스 문장에 포함된 단어를 유의어로 대체하는 동작 중 적어도 하나를 수행할 수 있다.
일 예로, 프로세서(1130)는 적어도 하나의 번역 모듈에 포함된 인코더에 적용되는 파라미터 값 또는 활성 함수에 대하여 노이즈를 적용함으로써 인코더를 변형하는 동작, 및 적어도 하나의 번역 모듈에 포함된 디코더에 적용되는 파라미터 값 또는 활성 함수에 대하여 노이즈를 적용함으로써 디코더를 변형하는 동작 중 적어도 하나를 수행할 수 있다. 다른 예로, 프로세서(1130)는 적어도 하나의 번역 모듈에 포함된 인코더를 학습 초기값, 학습 세트, 및 학습 순서 중 적어도 하나를 변경하여 학습된 인코더로 대체하는 동작, 및 적어도 하나의 번역 모듈에 포함된 디코더를 학습 초기값, 학습 세트, 및 학습 순서 중 적어도 하나를 변경하여 학습된 디코더로 대체하는 동작 중 적어도 하나를 수행할 수 있다.
또한, 프로세서(1130)는 이 밖에도, 도 1 내지 도 10을 통하여 전술한 적어도 하나의 방법을 수행할 수 있다. 프로세서(1130)는 프로그램을 실행하고, 번역 장치(1100)를 제어할 수 있다. 프로세서(1130)에 의하여 실행되는 프로그램 코드는 메모리(1150)에 저장될 수 있다.
메모리(1150)는 제2 언어의 후보 문장들을 저장할 수 있다. 또한, 메모리(1150)는 제2 언어의 최종 문장을 저장할 수 있다. 또한, 메모리(1150)는 송수신 인터페이스(1170)를 통해 수신된 정보를 저장할 수 있다. 이 밖에도, 메모리(1150)는 각종 데이터와 프로그램 등을 저장할 수 있다. 메모리(1150)는 휘발성 메모리 및 비휘발성 메모리를 포함할 수 있다. 메모리(1150)는 하드 디스크 등과 같은 대용량 저장 매체를 구비하여 각종 데이터를 저장할 수 있다. 예를 들어, 메모리(1150)는 하나 이상의 하드 디스크를 이용하여 데이터베이스를 구성하고, 데이터베이스에 제2 언어의 후보 문장들을 저장할 수 있다.
송수신 프로세서(1170)는 제2 언어의 최종 문장을 번역 장치(1100)의 외부로 출력할 수 있다.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
1000: 번역 장치
1110: 번역 모듈
1111: 수신부
1113: 인코더
1115: 디코더
1130: 프로세서
1150: 메모리
1170: 송수신 프로세서

Claims (20)

  1. 인코더(encoder) 및 디코더(decoder)를 포함하는 복수의 번역 모듈들에게 제1 언어의 소스 문장(source sentence) 및 상기 소스 문장의 변형 문장을 포함하는 입력 문장들을 병렬적으로 입력하는 단계;
    상기 입력 문장들을 상기 복수의 번역 모듈들로 병렬적으로 인코딩하여 특징 벡터들을 생성하는 단계;
    상기 특징 벡터들을 상기 복수의 번역 모듈들 별로 병렬적으로 디코딩하여 제2 언어의 후보 문장들을 생성하는 단계;
    상기 제2 언어의 후보 문장들로부터 제2 언어의 최종 문장을 선택하는 단계
    를 포함하고,
    상기 후보 문장들을 생성하는 단계는
    빔 서치 알고리즘을 이용하여, 상기 복수의 번역 모듈들 별로 미리 정해진 수의 후보 문장들을 생성하는 단계를 포함하고,
    상기 빔 서치 알고리즘은 n-베스트 빔 서치 알고리즘보다 낮은 복잡도를 가진 m-베스트 빔 서치 알고리즘인,
    번역 방법.
  2. 제1항에 있어서,
    상기 복수의 번역 모듈들 중 적어도 하나의 번역 모듈에 입력되는 소스 문장, 상기 적어도 하나의 번역 모듈에 포함된 인코더, 및 상기 적어도 하나의 번역 모듈에 포함된 디코더 중 적어도 하나를 변형하는 단계
    를 더 포함하는, 번역 방법.
  3. 제2항에 있어서,
    상기 변형하는 단계는
    상기 제1 언어와 관련된 정보에 기초하여, 상기 적어도 하나의 번역 모듈에 입력되는 소스 문장의 어순을 변경하는 단계; 및
    상기 제1 언어와 관련된 정보에 기초하여, 상기 적어도 하나의 번역 모듈에 입력되는 소스 문장에 포함된 단어를 유의어로 대체하는 단계
    중 적어도 하나를 포함하는, 번역 방법.
  4. 제2항에 있어서,
    상기 변형하는 단계는
    상기 적어도 하나의 번역 모듈에 포함된 인코더에 적용되는 파라미터 값 또는 활성 함수(activation function)에 대하여 노이즈(noise)를 적용함으로써 상기 인코더를 변형하는 단계; 및
    상기 적어도 하나의 번역 모듈에 포함된 디코더에 적용되는 파라미터 값 또는 활성 함수에 대하여 노이즈를 적용함으로써 상기 디코더를 변형하는 단계
    중 적어도 하나를 포함하는, 번역 방법.
  5. 제2항에 있어서,
    상기 변형하는 단계는
    상기 적어도 하나의 번역 모듈에 포함된 인코더를, 학습 초기값, 학습 세트, 및 학습 순서 중 적어도 하나를 변경하여 학습된 인코더로 대체하는 단계; 및
    상기 적어도 하나의 번역 모듈에 포함된 디코더를, 학습 초기값, 학습 세트, 및 학습 순서 중 적어도 하나를 변경하여 학습된 디코더로 대체하는 단계
    중 적어도 하나를 포함하는, 번역 방법.
  6. 삭제
  7. 제1항에 있어서,
    상기 제2 언어의 최종 문장을 선택하는 단계는
    상기 제2 언어의 후보 문장들에 대한 스코어들을 계산하는 단계; 및
    상기 제2 언어의 후보 문장들 중 최고 스코어를 가지는 후보 문장을 상기 제2 언어의 최종 문장으로 선택하는 단계
    를 포함하는, 번역 방법.
  8. 제7항에 있어서,
    상기 제2 언어의 후보 문장들에 대한 스코어들을 계산하는 단계는
    상기 복수의 번역 모듈들 별로 상기 제2 언어의 후보 문장들에 대한 스코어들을 계산하는 단계
    를 포함하는, 번역 방법.
  9. 제7항에 있어서,
    상기 제2 언어의 후보 문장들에 대한 스코어들을 계산하는 단계는
    서로 다른 복수의 리스코어링 모델들에 기초하여, 상기 제2 언어의 후보 문장들 각각에 대응하는 복수의 스코어들을 계산하는 단계; 및
    상기 제2 언어의 후보 문장들 각각에 대응하는 상기 복수의 스코어들의 통계를 이용하여, 상기 제2 언어의 후보 문장들 각각에 대응하는 스코어를 계산하는 단계
    를 포함하는, 번역 방법.
  10. 하드웨어와 결합되어 제1항 내지 제5항, 및 제7항 내지 제9항 중에서 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.
  11. 복수의 번역 모듈들; 및
    프로세서
    를 포함하고,
    상기 복수의 번역 모듈들 각각은
    제1 언어의 소스 문장 및 상기 소스 문장의 변형 문장을 포함하는 입력 문장들을 수신하는 수신부;
    상기 입력 문장을 인코딩하여 특징 벡터를 생성하는 인코더; 및
    상기 특징 벡터를 디코딩하여 제2 언어의 후보 문장들을 생성하는 디코더
    를 포함하며,
    상기 복수의 번역 모듈들은
    인코딩 및 디코딩 기반의 변역 동작을 병렬적으로 수행하고,
    빔 서치 알고리즘을 이용하여, 상기 복수의 번역 모듈들 별로 미리 정해진 수의 상기 후보 문장들을 생성하고,
    상기 빔 서치 알고리즘은
    n-베스트 빔 서치 알고리즘보다 낮은 복잡도를 가진 m-베스트 빔 서치 알고리즘이고,
    상기 프로세서는
    상기 제2 언어의 후보 문장들로부터 제2 언어의 최종 문장을 선택하는,
    번역 장치.
  12. 제11항에 있어서,
    상기 프로세서는
    상기 복수의 번역 모듈들 중 적어도 하나의 번역 모듈에 입력되는 소스 문장, 상기 적어도 하나의 번역 모듈에 포함된 인코더, 및 상기 적어도 하나의 번역 모듈에 포함된 디코더 중 적어도 하나를 변형하는, 번역 장치.
  13. 제12항에 있어서,
    상기 프로세서는
    상기 제1 언어와 관련된 정보에 기초하여, 상기 적어도 하나의 번역 모듈에 입력되는 소스 문장의 어순을 변경하는 동작, 및
    상기 제1 언어와 관련된 정보에 기초하여, 상기 적어도 하나의 번역 모듈에 입력되는 소스 문장에 포함된 단어를 유의어로 대체하는 동작
    중 적어도 하나를 수행하는, 번역 장치.
  14. 제12항에 있어서,
    상기 프로세서는
    상기 적어도 하나의 번역 모듈에 포함된 인코더에 적용되는 파라미터 값 또는 활성 함수(activation function)에 대하여 노이즈(noise)를 적용함으로써 상기 인코더를 변형하는 동작, 및
    상기 적어도 하나의 번역 모듈에 포함된 디코더에 적용되는 파라미터 값 또는 활성 함수에 대하여 노이즈를 적용함으로써 상기 디코더를 변형하는 동작
    중 적어도 하나를 수행하는, 번역 장치.
  15. 제12항에 있어서,
    상기 프로세서는
    상기 적어도 하나의 번역 모듈에 포함된 인코더를 학습 초기값, 학습 세트, 및 학습 순서 중 적어도 하나를 변경하여 학습된 인코더로 대체하는 동작, 및
    상기 적어도 하나의 번역 모듈에 포함된 디코더를 학습 초기값, 학습 세트, 및 학습 순서 중 적어도 하나를 변경하여 학습된 디코더로 대체하는 동작
    중 적어도 하나를 수행하는, 번역 장치.
  16. 삭제
  17. 제11항에 있어서,
    상기 프로세서는
    상기 제2 언어의 후보 문장들에 대한 스코어들을 계산하고, 상기 제2 언어의 후보 문장들 중 최고 스코어를 가지는 후보 문장을 상기 제2 언어의 최종 문장으로 선택하는, 번역 장치.
  18. 제17항에 있어서,
    상기 프로세서는
    상기 복수의 번역 모듈들 별로 상기 제2 언어의 후보 문장들에 대한 스코어들을 계산하는, 번역 장치.
  19. 제17항에 있어서,
    상기 프로세서는
    서로 다른 복수의 리스코어링 모델들에 기초하여, 상기 제2 언어의 후보 문장들 각각에 대응하는 복수의 스코어들을 계산하고, 상기 제2 언어의 후보 문장들 각각에 대응하는 상기 복수의 스코어들의 통계를 이용하여, 상기 제2 언어의 후보 문장들 각각에 대응하는 스코어를 계산하는, 번역 장치.
  20. 제11항에 있어서,
    상기 제2 언어의 후보 문장들을 저장하는 메모리
    를 더 포함하는, 번역 장치.
KR1020160101726A 2016-08-10 2016-08-10 병렬 처리에 기초한 번역 방법 및 장치 KR102565275B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020160101726A KR102565275B1 (ko) 2016-08-10 2016-08-10 병렬 처리에 기초한 번역 방법 및 장치
US15/450,333 US10902216B2 (en) 2016-08-10 2017-03-06 Parallel processing-based translation method and apparatus
CN201710347966.6A CN107729324A (zh) 2016-08-10 2017-05-17 基于并行处理的翻译方法和设备
EP17180037.8A EP3282368A1 (en) 2016-08-10 2017-07-06 Parallel processing-based translation method and apparatus
JP2017148956A JP7066349B2 (ja) 2016-08-10 2017-08-01 翻訳方法、翻訳装置及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160101726A KR102565275B1 (ko) 2016-08-10 2016-08-10 병렬 처리에 기초한 번역 방법 및 장치

Publications (2)

Publication Number Publication Date
KR20180017622A KR20180017622A (ko) 2018-02-21
KR102565275B1 true KR102565275B1 (ko) 2023-08-09

Family

ID=59298315

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160101726A KR102565275B1 (ko) 2016-08-10 2016-08-10 병렬 처리에 기초한 번역 방법 및 장치

Country Status (5)

Country Link
US (1) US10902216B2 (ko)
EP (1) EP3282368A1 (ko)
JP (1) JP7066349B2 (ko)
KR (1) KR102565275B1 (ko)
CN (1) CN107729324A (ko)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10706351B2 (en) * 2016-08-30 2020-07-07 American Software Safety Reliability Company Recurrent encoder and decoder
WO2018066083A1 (ja) * 2016-10-04 2018-04-12 富士通株式会社 学習プログラム、情報処理装置および学習方法
WO2018083670A1 (en) * 2016-11-04 2018-05-11 Deepmind Technologies Limited Sequence transduction neural networks
JP6897168B2 (ja) * 2017-03-06 2021-06-30 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
KR102509822B1 (ko) * 2017-09-25 2023-03-14 삼성전자주식회사 문장 생성 방법 및 장치
CN108509411B (zh) * 2017-10-10 2021-05-11 腾讯科技(深圳)有限公司 语义分析方法和装置
CN110472251B (zh) * 2018-05-10 2023-05-30 腾讯科技(深圳)有限公司 翻译模型训练的方法、语句翻译的方法、设备及存储介质
KR20200023664A (ko) * 2018-08-14 2020-03-06 삼성전자주식회사 응답 추론 방법 및 장치
US20200090035A1 (en) * 2018-09-19 2020-03-19 International Business Machines Corporation Encoder-decoder memory-augmented neural network architectures
US11151334B2 (en) * 2018-09-26 2021-10-19 Huawei Technologies Co., Ltd. Systems and methods for multilingual text generation field
CN111062206B (zh) * 2018-10-16 2023-11-21 株式会社理光 一种子词单元的拆分方法、装置及计算机可读存储介质
JP7439755B2 (ja) * 2018-10-19 2024-02-28 ソニーグループ株式会社 情報処理装置、情報処理方法及び情報処理プログラム
RU2699396C1 (ru) * 2018-11-19 2019-09-05 Общество С Ограниченной Ответственностью "Инвек" Нейронная сеть для интерпретирования предложений на естественном языке
US11043214B1 (en) * 2018-11-29 2021-06-22 Amazon Technologies, Inc. Speech recognition using dialog history
US10963652B2 (en) * 2018-12-11 2021-03-30 Salesforce.Com, Inc. Structured text translation
CN118711577A (zh) * 2018-12-14 2024-09-27 谷歌有限责任公司 用于联网系统的基于语音的接口
KR102699828B1 (ko) 2018-12-18 2024-08-29 삼성전자주식회사 어텐션 모델과 하이퍼네트워크를 이용한 기계 번역 방법 및 장치
KR102545666B1 (ko) 2018-12-18 2023-06-21 삼성전자주식회사 페르소나에 기반하여 문장을 제공하는 방법 및 이를 지원하는 전자 장치
CN111368558B (zh) * 2018-12-25 2024-01-02 Tcl科技集团股份有限公司 基于神经网络的实时翻译方法、智能终端及存储介质
CN109710953B (zh) * 2018-12-29 2023-04-11 成都金山互动娱乐科技有限公司 一种翻译方法及装置、计算设备、存储介质和芯片
CN115455988A (zh) * 2018-12-29 2022-12-09 苏州七星天专利运营管理有限责任公司 一种高风险语句的处理方法和系统
CN111476039B (zh) * 2019-01-04 2023-06-30 深圳永德利科技股份有限公司 智能车载系统的即时语言翻译方法及相关产品
US11106873B2 (en) * 2019-01-22 2021-08-31 Sap Se Context-based translation retrieval via multilingual space
CN110162604B (zh) * 2019-01-24 2023-09-12 腾讯科技(深圳)有限公司 语句生成方法、装置、设备及存储介质
CN111783435B (zh) * 2019-03-18 2024-06-25 株式会社理光 共享词汇的选择方法、装置及存储介质
US12032920B2 (en) * 2019-03-29 2024-07-09 Google Llc Direct speech-to-speech translation via machine learning
CN110175335B (zh) * 2019-05-08 2023-05-09 北京百度网讯科技有限公司 翻译模型的训练方法和装置
US11507760B2 (en) * 2019-06-07 2022-11-22 Semiconductor Energy Laboratory Co., Ltd. Machine translation method, machine translation system, program, and non-transitory computer-readable storage medium
CN110245363A (zh) * 2019-06-24 2019-09-17 付金龙 翻译方法、翻译系统及使用该系统的翻译机
CN110457673B (zh) * 2019-06-25 2023-12-19 北京奇艺世纪科技有限公司 一种自然语言转换为手语的方法及装置
CN110489762B (zh) * 2019-06-26 2023-07-04 中译语通科技股份有限公司 基于神经网络机器翻译的术语翻译方法、存储介质和装置
KR20210037307A (ko) 2019-09-27 2021-04-06 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
CN112825109B (zh) * 2019-11-20 2024-02-23 南京贝湾信息科技有限公司 一种句子对齐方法及计算设备
CN111079450B (zh) * 2019-12-20 2021-01-22 北京百度网讯科技有限公司 基于顺句驱动的语言转换方法和装置
CN111753556B (zh) * 2020-06-24 2022-01-04 掌阅科技股份有限公司 双语对照阅读的方法、终端及计算机存储介质
EP4150501A1 (en) * 2020-08-07 2023-03-22 Google LLC Systems and methods for contextual post-editing of sentence-level translations
KR20220055954A (ko) * 2020-10-27 2022-05-04 삼성전자주식회사 전자 장치 및 그 제어 방법
CN112257467B (zh) * 2020-11-03 2023-06-30 沈阳雅译网络技术有限公司 一种面向gpu设备的神经机器翻译系统解码加速方法
US11769019B1 (en) * 2020-11-19 2023-09-26 Amazon Technologies, Inc. Machine translation with adapted neural networks
CN112686028B (zh) * 2020-12-25 2021-09-03 掌阅科技股份有限公司 基于相似词的文本翻译方法、计算设备及计算机存储介质
KR102690953B1 (ko) * 2021-09-02 2024-08-06 고려대학교 산학협력단 기계 번역 품질 예측을 이용한 최적의 번역 자막 생성 장치 및 방법
KR20240071777A (ko) * 2022-11-16 2024-05-23 삼성전자주식회사 전자 장치 및 이의 기계 번역 방법

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2376335B (en) * 2001-06-28 2003-07-23 Vox Generation Ltd Address recognition using an automatic speech recogniser
AUPR956901A0 (en) 2001-12-17 2002-01-24 Jayaratne, Neville Real time translator
JP2004038406A (ja) * 2002-07-01 2004-02-05 Advanced Telecommunication Research Institute International 複数個の翻訳結果から最良訳を選択する方法、最良訳を選択するための回帰木データを生成する方法、最良訳選択型の機械翻訳プログラム、回帰木生成プログラム、および回帰木データを記憶した記憶媒体
JP3919720B2 (ja) * 2003-08-28 2007-05-30 株式会社国際電気通信基礎技術研究所 換言装置及びコンピュータプログラム
JP4064413B2 (ja) 2005-06-27 2008-03-19 株式会社東芝 コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム
EP2527990B1 (en) 2006-02-17 2020-01-15 Google LLC Using distributed models for machine translation
CA2661535A1 (en) 2006-08-18 2008-02-21 National Research Council Of Canada Means and method for training a statistical machine translation system
US7881928B2 (en) * 2006-09-01 2011-02-01 International Business Machines Corporation Enhanced linguistic transformation
US8798988B1 (en) * 2006-10-24 2014-08-05 Google Inc. Identifying related terms in different languages
US8326598B1 (en) 2007-03-26 2012-12-04 Google Inc. Consensus translations from multiple machine translation systems
US8180624B2 (en) 2007-09-05 2012-05-15 Microsoft Corporation Fast beam-search decoding for phrasal statistical machine translation
US8150677B2 (en) 2008-06-26 2012-04-03 Microsoft Corporation Machine translation using language order templates
JP5572624B2 (ja) 2008-07-03 2014-08-13 グーグル・インコーポレーテッド 機械翻訳に対するパラメータの最適化
KR100961717B1 (ko) 2008-09-16 2010-06-10 한국전자통신연구원 병렬 코퍼스를 이용한 기계번역 오류 탐지 방법 및 장치
KR101301535B1 (ko) 2009-12-02 2013-09-04 한국전자통신연구원 하이브리드 번역 장치 및 그 방법
US8279861B2 (en) * 2009-12-08 2012-10-02 International Business Machines Corporation Real-time VoIP communications using n-Way selective language processing
US8914401B2 (en) 2009-12-30 2014-12-16 At&T Intellectual Property I, L.P. System and method for an N-best list interface
JP2012159969A (ja) * 2011-01-31 2012-08-23 Nec Corp 機械翻訳装置、方法およびプログラム
FI125823B (en) * 2011-11-03 2016-02-29 Rex Partners Oy A measure of the quality of machine translation
US8527276B1 (en) 2012-10-25 2013-09-03 Google Inc. Speech synthesis using deep neural networks
US8996352B2 (en) * 2013-02-08 2015-03-31 Machine Zone, Inc. Systems and methods for correcting translations in multi-user multi-lingual communications
RU2644071C2 (ru) * 2013-03-15 2018-02-07 Дзе Дан Энд Брэдстрит Корпорейшн Курирование многоязычных коммерческих признаков и синтез транслитерации
US9858272B2 (en) * 2014-02-16 2018-01-02 International Business Machines Corporation Context enriched application text translation
KR101864361B1 (ko) 2014-04-08 2018-06-04 네이버 주식회사 다양한 의미 범주에 기반한 번역 결과 제공 방법 및 시스템
US9652453B2 (en) * 2014-04-14 2017-05-16 Xerox Corporation Estimation of parameters for machine translation without in-domain parallel data
US10181098B2 (en) 2014-06-06 2019-01-15 Google Llc Generating representations of input sequences using neural networks
EP3210132A1 (en) * 2014-10-24 2017-08-30 Google, Inc. Neural machine translation systems with rare word processing
US9697201B2 (en) * 2014-11-24 2017-07-04 Microsoft Technology Licensing, Llc Adapting machine translation data using damaging channel model
KR101675092B1 (ko) 2015-02-11 2016-11-10 김종우 잠재 고객에 대한 프로모션 제공 시스템, 방법 및 그 방법을 실행시키기 위한 컴퓨터로 읽을 수 있는 프로그램이 저장된 기록매체

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Cho, Kyunghyun, et al., On the properties of neural machine translation: Encoder-decoder approaches., arXiv preprint arXiv:1409.1259, 2014*
Cho, Kyunghyun., Noisy parallel approximate decoding for conditional recurrent language model., arXiv preprint arXiv:1605.03835, 2016*
Ren, Fuji, and Hongchi Shi., Parallel machine translation: principles and practice., Proceedings Seventh IEEE International Conference on Engineering of Complex Computer Systems. IEEE, 2001*
Sutskever, Ilya, Oriol Vinyals, and Quoc V. Le., Sequence to sequence learning with neural networks., Advances in neural information processing systems 27, 2014*

Also Published As

Publication number Publication date
US10902216B2 (en) 2021-01-26
US20180046618A1 (en) 2018-02-15
EP3282368A1 (en) 2018-02-14
CN107729324A (zh) 2018-02-23
JP2018026127A (ja) 2018-02-15
KR20180017622A (ko) 2018-02-21
JP7066349B2 (ja) 2022-05-13

Similar Documents

Publication Publication Date Title
KR102565275B1 (ko) 병렬 처리에 기초한 번역 방법 및 장치
KR102565274B1 (ko) 자동 통역 방법 및 장치, 및 기계 번역 방법 및 장치
US20210141799A1 (en) Dialogue system, a method of obtaining a response from a dialogue system, and a method of training a dialogue system
KR102424514B1 (ko) 언어 처리 방법 및 장치
CN107870902B (zh) 神经机器翻译系统
EP3916611A1 (en) Method, apparatus, computer program, and storage medium for training text generation model
CN110326002B (zh) 使用在线注意的序列处理
KR20190073525A (ko) 기계 학습 작업의 암시적 브리징
KR20180001889A (ko) 언어 처리 방법 및 장치
US20170140753A1 (en) Generating target sequences from input sequences using partial conditioning
CN109074517B (zh) 全局归一化神经网络
WO2020046807A1 (en) Cross-lingual classification using multilingual neural machine translation
CN112487182A (zh) 文本处理模型的训练方法、文本处理方法及装置
CN110196967B (zh) 基于深度转换架构的序列标注方法和装置
KR20180047409A (ko) 문장 생성 장치 및 방법
KR20210043995A (ko) 모델 학습 방법 및 장치, 및 시퀀스 인식 방법
Xu et al. Exploiting shared information for multi-intent natural language sentence classification.
JP2021125217A (ja) マルチホップ機械読み取りのための潜在質問再定式化および情報蓄積
KR20200075615A (ko) 기계 번역 방법 및 장치
CN111310441A (zh) 基于bert的语音识别后文本修正方法、装置、终端及介质
US20230029759A1 (en) Method of classifying utterance emotion in dialogue using word-level emotion embedding based on semi-supervised learning and long short-term memory model
US12062365B2 (en) Apparatus and method for training dialogue summary model
KR20230016794A (ko) 언어 모델을 이용한 데이터 생성 방법, 컴퓨터 장치, 및 컴퓨터 프로그램
CN112395888A (zh) 机器翻译设备和方法
JP2021117989A (ja) 言語生成方法、装置及び電子機器

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right