CN109558570A - 句生成方法和设备 - Google Patents
句生成方法和设备 Download PDFInfo
- Publication number
- CN109558570A CN109558570A CN201810383162.6A CN201810383162A CN109558570A CN 109558570 A CN109558570 A CN 109558570A CN 201810383162 A CN201810383162 A CN 201810383162A CN 109558570 A CN109558570 A CN 109558570A
- Authority
- CN
- China
- Prior art keywords
- word
- words
- probability
- sentence
- source
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 239000013598 vector Substances 0.000 claims abstract description 45
- 238000013519 translation Methods 0.000 claims description 49
- 230000004044 response Effects 0.000 claims description 45
- 238000000605 extraction Methods 0.000 claims description 10
- 239000000284 extract Substances 0.000 claims description 6
- 230000001143 conditioned effect Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000014616 translation Effects 0.000 claims 10
- 238000010586 diagram Methods 0.000 description 10
- 230000015654 memory Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000003252 repetitive effect Effects 0.000 description 3
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000011469 building brick Substances 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/47—Machine-assisted translation, e.g. using translation memory
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/242—Dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/237—Lexical tools
- G06F40/247—Thesauruses; Synonyms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/42—Data-driven translation
- G06F40/44—Statistical methods, e.g. probability models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Machine Translation (AREA)
Abstract
公开一种句生成方法和设备。所述句生成方法包括:生成基于源句生成的源词集合的对应词集合;通过基于经由对源句进行编码生成的多个特征向量执行解码,来生成多个词;基于源词集合和对应词集合中的任一个或二者,调节生成的多个词中的至少一个的概率;基于调节的概率和未调节的概率,从包括生成的多个词中的每个的不同的字符串选择多个字符串。
Description
本申请要求于2017年9月25日提交到韩国知识产权局的第10-2017-0123569号韩国专利申请的权益,该韩国专利申请的全部公开出于所有目的通过引用包含于此。
技术领域
下面的描述涉及一种句生成方法和设备。
背景技术
用户可使用机器翻译来翻译与用户的母语不同的语言的句、段落、短语或词。机器翻译的结果可直接影响用户理解,因此已经积极地进行提高机器翻译的准确性的研究。
发明内容
提供本发明内容从而以简化的形式介绍将在下面的具体实施方式中被进一步描述的构思的选择。本发明内容不意在确定所要求保护的主题的关键特征或必要特征,也不意在用于辅助确定所要求保护的主题的范围。
在一个总体方面,一种句生成方法包括:生成基于源句生成的源词集合的对应词集合;通过基于经由对源句进行编码生成的多个特征向量执行解码,来生成多个词;基于源词集合和对应词集合中的任一个或二者,调节生成的多个词中的至少一个的概率;基于调节的概率和未调节的概率,从包括生成的多个词中的每个的不同的字符串选择多个字符串。
调节概率的步骤可包括:响应于在生成的多个词之中识别的词包括在对应词集合中,调节识别的词的概率。
调节概率的步骤可包括:响应于在生成的多个词之中识别的词不包括在对应词集合中,验证在包括识别的词的组中的其他词和对应词集合之中是否存在普通词;响应于普通词被验证为存在且普通词是生成的多个词之一,调节普通词的概率。
调节概率的步骤可包括:基于生成的多个词中的每个的概率,识别生成的多个词之中的词;并且响应于识别的词包括在对应词集合中,调节识别的词的概率。
执行解码的步骤可包括:使用所述多个特征向量和多个权重计算上下文向量;基于计算的上下文向量和之前的解码结果,生成所述多个词。
调节概率的步骤可包括:基于用于执行解码的多个权重之中的最大值,识别与生成的多个词之中的具有最大概率的词相应的源词,其中,识别的源词是源句中的多个词之一;响应于识别的源词包括在源词集合中,从对应词集合检索识别的源词的对应词;响应于检索到的对应词是生成的多个词之一,调节检索到的对应词的概率。
调节概率的步骤可包括:响应于检索到的对应词的概率被调节,基于生成的多个词之中的除了检索到的对应词之外的剩余词的概率和检索到的对应词的调节的概率,识别检索到的对应词之中的词和所述剩余词;响应于识别的词包括在对应词集合中,调节识别的词的概率。
所述句生成方法还可包括:响应于选择的多个字符串是源句的翻译的句的候选:计算选择的多个字符串中的每个的分数;将选择的多个字符串中的每个的覆盖度应用于选择的多个字符串的各自的分数;基于应用选择的多个字符串中的每个的覆盖度的结果,将选择的多个字符串之一确定为翻译的句,其中,选择的多个字符串中的每个的覆盖度可指示对应词集合中有多少词包括在选择的多个字符串中的每个中。
源词集合可包括从源句提取的词、提取的词的同义词和提取的词的基本形式中的任意一个,或者任意两个或更多个的任意组合。对应词集合可包括通过以另一语言表示源词集合中的词而获得的翻译的词、翻译的词的同义词和翻译的词的基本形式中的任意一个,或者任意两个或更多个的任意组合。
源句和源词集合可以是第一语言。生成的多个词和对应词集合可以是与第一语言不同的第二语言。
可使用第一语言-第二语言词典作为参考生成对应词集合。
在另一总体方面,一种存储指令的非暂时性计算机可读存储介质,当由处理器执行所述指令时使处理器执行如上所述的句生成方法。
在另一总体方面,一种句生成设备包括:控制器,被配置为:生成基于源句生成的源词集合的对应词集合;通过基于经由对源句进行编码生成的多个特征向量执行解码,来生成多个词;基于源词集合和对应词集合中的任一个或二者,调节生成的多个词中的至少一个的概率;基于调节的概率和未调节的概率,从包括生成的多个词中的每个的不同的字符串选择多个字符串。
控制器还可被配置为:响应于在生成的多个词之中识别的词包括在对应词集合中,调节识别的词的概率。
控制器还可被配置为:响应于在生成的多个词之中识别的词不包括在对应词集合中,验证在包括识别的词的组中的其他词和对应词集合之中是否存在普通词。控制器还可被配置为:响应于普通词被验证为存在且普通词是生成的多个词之一,调节普通词的概率。
控制器还可被配置为:基于生成的多个词中的每个的概率来识别生成的多个词之中的词;响应于识别的词包括在对应词集合中,调节识别的词的概率。
控制器还可被配置为:使用所述多个特征向量和多个权重计算上下文向量,并基于计算的上下文向量和之前的解码结果来生成所述多个词。
控制器还可被配置为:基于用于执行解码的多个权重的最大值来识别与生成的多个词之中的具有最大概率的词相应的源词,其中,识别的源词是源句中的多个词之一;响应于识别的源词包括在源词集合中,从对应词集合检索识别的源词的对应词;响应于检索到的对应词是生成的多个词之一,调节检索到的对应词的概率。
控制器还可被配置为:响应于检索到的对应词的概率被调节,基于生成的多个词之中的除了检索到的对应词之外的剩余词的概率和检索到的对应词的调节的概率,识别检索到的对应词之中的词和所述剩余词。控制器还可被配置为:响应于识别的词包括在对应词集合中,调节识别的词的概率。
控制器还可被配置为:响应于选择的多个字符串是源句的翻译的句的候选:计算选择的多个字符串中的每个的分数,将选择的多个字符串中的每个的覆盖度应用于选择的多个字符串的各自的分数,并基于应用选择的多个字符串中的每个的覆盖度的结果,将选择的多个字符串之一确定为翻译的句,其中,选择的多个字符串中的每个的覆盖度指示对应词集合中有多少词包括在选择的多个字符串中的每个中。
源词集合可包括从源句提取的词、提取的词的同义词和提取的词的基本形式中的任意一个,或者任意两个或更多个的任意组合。对应词集合可包括通过以另一语言表示源词集合中的词而获得的翻译的词、翻译的词的同义词和翻译的词的基本形式中的任意一个,或者任意两个或更多个的任意组合。
源句和源词集合可以是第一语言。生成的多个词和对应词集合可以是与第一语言不同的第二语言。
可使用第一语言-第二语言词典作为参考生成对应词集合。
在另一实施例中,一种机器翻译方法包括:基于源句生成源词集合,其中,源词集合和源句是第一语言;通过使用词典生成与源词集合相应的对应词集合,其中,对应词集合是与第一语言不同的第二语言;通过执行对源句的解码生成第二语言的多个词;基于源词集合和对应词集合中的任一个或二者,增加生成的多个词中的至少一个的概率;基于增加的概率和在所述增加之前的概率,从包括生成的多个词中的每个的不同的字符串选择多个字符串。
增加概率的步骤可包括:响应于生成的多个词之中的选择的词包括在对应词集合中,增加选择的词的概率。
增加概率的步骤可包括:响应于生成的多个词之中的选择的词不包括在对应词集合中,验证在包括选择的词的组中的其他词和对应词集合之中是否存在普通词;响应于普通词被验证为存在且普通词是生成的多个词之一,增加普通词的概率。
所述机器翻译方法还可包括:响应于选择的多个字符串是源句的翻译的句的候选:通过将包括在所述多个字符串中的每个中的多个词的概率相加,计算选择的多个字符串中的每个的分数;将选择的多个字符串中的每个的覆盖度与选择的多个字符串的各自的分数相乘;基于相乘的结果,将选择的多个字符串之一确定为翻译的句,其中,选择的多个字符串中的每个的覆盖度指示对应词集合中有多少词包括在选择的多个字符串中的每个中。
在另一总体方面,一种机器翻译设备包括:词集合生成器,被配置为:基于源句生成源词集合,其中,源词集合和源句是第一语言;通过使用词典生成与源词集合相应的对应词集合,其中,对应词集合是与第一语言不同的第二语言;翻译器,被配置为:通过执行对源句的解码生成第二语言的多个词;基于源词集合和对应词集合中的任一个或二者,增加生成的多个词中的至少一个的概率;基于增加的概率和在所述增加之前的概率,从包括生成的多个词中的每个的不同的字符串选择多个字符串。
翻译器还可被配置为:响应于生成的多个词之中的选择的词包括在对应词集合中,增加选择的词的概率。
翻译器还可被配置为:响应于生成的多个词之中的选择的词不包括在对应词集合中,验证在包括选择的词的组中的其他词和对应词集合之中是否存在普通词。翻译器还可被配置为:响应于普通词被验证为存在且普通词是生成的多个词之一,增加普通词的概率。
翻译器还被配置为:响应于选择的多个字符串是源句的翻译的句的候选:通过将包括在所述多个字符串中的每个中的多个词的概率相加,计算选择的多个字符串中的每个的分数;将选择的多个字符串中的每个的覆盖度与选择的多个字符串的各自的分数相乘;基于相乘的结果,将选择的多个字符串之一确定为翻译的句,其中,选择的多个字符串中的每个的覆盖度指示对应词集合中有多少词包括在选择的多个字符串中的每个中。
其他特征和方面从下面的具体实施方式、附图和权利要求将是清楚的。
附图说明
图1是示出句生成设备的示例的示图。
图2是示出词集合生成器的操作的示例的示图。
图3至图6是示出翻译器的操作的示例的示图。
图7是示出当翻译器选择翻译的句的候选字符串时将要执行的操作的示例的示图。
图8是示出句生成方法的示例的流程图。
图9是示出句生成设备的另一示例的示图。
贯穿附图和具体实施方式,相同的附图参考标号将被理解为表示相同的元件、特征和结构。为了清楚、说明和便利,附图可不按比例,并且附图中的元件的相对大小、比例和描写可被夸大。
具体实施方式
提供下面的详细描述以帮助读者获得对在此描述的方法、设备和/或系统的全面理解。然而,在理解本申请的公开后,在此描述的方法、设备和/或系统的各种改变、修改和等同物将是清楚的。例如,在此描述的操作的顺序仅是示例,操作的顺序不被局限于在此阐述的顺序,除了必须按特定次序发生的操作之外,操作的顺序可如在理解本申请的公开后将清楚的那样改变。此外,为了更加清楚和简洁,本领域中已知的特征的描述可被省略。
在此描述的特征可以以不同的形式来实现,并且不将被解释为受限于在此描述的示例。相反,在此描述的示例已仅被提供,以示出在理解本申请的公开之后将是清楚的实施在此描述的方法、设备和/或系统的许多可行方式中的一些方式。
贯穿说明书,当元件(诸如,层、区域或基底)被描述为在另一元件“之上”、“连接到”或“结合到”另一元件时,该元件可能直接在所述另一元件“之上”、“连接到”或“结合到”所述另一元件,或者可存在介于它们之间的一个或多个其他元件。相反,当元件被描述为“直接”在另一元件“之上”、“直接连接到”或“直接结合到”另一元件时,可不存在介于它们之间的其他元件。如在此使用的,术语“和/或”包括相关所列项的任意一个或相关所列项的任意两个或更多个的任意组合。
尽管在此可使用诸如“第一”、“第二”和“第三”的术语来描述各种构件、组件、区域、层或部分,但是这些构件、组件、区域、层或部分不受这些术语限制。相反,这些术语仅用于将一个构件、组件、区域、层或部分与另一构件、组件、区域、层或部分区分开来。因此,在不脱离示例的教导的情况下,在此描述的示例中所称的第一构件、组件、区域、层或部分还可被称为第二构件、组件、区域、层或部分。
在此使用的术语仅为了描述各种示例,而不将被用于限制本公开。除非上下文另外清楚地指示,否则单数冠词也意在包括复数形式。术语“包括”、包含”和“具有”指定存在叙述的特征、数量、操作、构件、元件和/或它们的组合,但不排除存在或添加一个或多个其他特征、数量、操作、构件、元件和/或它们的组合。
除非另外定义,否则在此使用的所有术语(包括技术术语和科学术语)具有如与本公开所属领域中的普通技术人员通常理解的含义相同的含义。除非在此明确地如此定义,否则术语(诸如,通用词典中定义的那些术语)将被解释为具有与它们在相关领域的上下文中的含义一致的含义,而不将被解释为理想化或过于形式化的意义。
此外,在实施例的描述中,当认为与公知相关的结构或功能的详细描述将导致本公开的模糊解释时,将省略这样的描述。
术语“词”贯穿以下描述使用。将理解,在此使用的术语“词”可指示单个词或者包括组合在一起的多个词的词组合。
图1是示出句生成设备100的示例的示图。
参照图1,句生成设备100包括词集合生成器110和翻译器120。
词集合生成器110基于源句来生成源词集合以及与源词集合相应的对应词集合。例如,源词集合包括从源句提取的词、提取的词的同义词和/或提取的词的基本形式。例如,对应词集合包括通过以另一语言表示源词集合中的词而获得的翻译的词、翻译的词的同义词和/或翻译的词的基本形式。将参照图2更详细描述词集合生成器110。
翻译器120通过对源句进行编码来生成特征向量,并通过基于特征向量执行解码来生成词。翻译器120基于源词集合和对应词集合中的至少一个来增加生成的多个词中的至少一个包括在字符串中的概率。因此,生成的多个词中的至少一个包括在字符串中的概率可增加。翻译器120可基于统计机器翻译(SMT)或神经机器翻译(NMT)。将参照图3至图6详细描述翻译器120。
图2是示出词集合生成器110的操作的示例的示图。
参照图2,词集合生成器110包括源词集合生成器210和对应词集合生成器220。
源词集合生成器210从源句提取至少一个词,并生成包括提取的词的源词集合。例如,源词集合生成器210通过将关键词识别(keyword spotting)或命名实体识别(named-entity recognition)应用于第一语言(例如,韩语)的源句来提取关键词。根据一个示例,源词集合生成器210使用第一语言词典作为参考将提取的词的同义词和/或基本形式添加到源词集合。
对应词集合生成器220确定与源词集合中的词相应的对应词,并生成包括对应词的对应词集合。例如,对应词是通过以与第一语言不同的第二语言(例如,英语)表示源词集合中的词而获得的翻译的词。翻译的词可使用第一语言-第二语言词典(例如,韩语-英语词典)作为参考来生成。根据一个示例,对应词集合生成器220使用第二语言词典作为参考将对应词的同义词和/或基本形式添加到对应词集合。
例如,如在图2中所示,源词集合生成器210从源句 提取词 和然后,源词集合生成器210生成包括提取的词的源词集合211。源词集合生成器210将词的同义词和添加到源词集合211。此外,源词集合生成器210将词的基本形式添加到源词集合211,还将词的基本形式添加到源词集合211。
对应词集合生成器220确定源词集合211中的词和的对应词“your”以及源词集合211中的词的对应词“inventionrelated to the duties”。此外,对应词集合生成器220确定源词集合211中的词和的对应词“was filed”,和源词集合211中的词和的对应词“let youknow”。对应词集合生成器220生成包括对应词“your”、“invention related to the duties”、“was filed”和“let youknow”的对应词集合221。对应词集合生成器220将对应词“was filed”的同义词“have beenapplied”和/或“was applied”添加到对应词集合221。此外,对应词集合生成器220将对应词“let youknow”的同义词“informyou”和/或“notify you”添加到对应词集合221。
在一个示例中,源词集合211中的词可能是模糊的,因此,对应词集合生成器220可能无法容易地确定词的对应词。这里,术语“模糊”或“歧义”指示词可被翻译为具有不同含义的词。在这样的示例中,对应词集合生成器220可使用词的邻近词作为参考来确定词的对应词。
例如,在源句“DHL”的情况下,源词集合生成器210可通过从源句提取词“DHL”、和来生成源词集合。在这样的示例中,词被翻译为具有不同含义的“specialpraise”和“specialdelivery”,因此,对应词集合生成器220可能无法容易地确定词的对应词。因此,对应词集合生成器220使用词的邻近词“DHL”作为参考来确定词的对应词为“specialdelivery”。
图3至图6是示出翻译器120的操作的示例的示图。
参照图3,翻译器120包括编码器310和解码器320。
编码器310对源句进行编码以生成特征向量。例如,编码器310对源句中的每个词进行编码以生成源句中的每个词的特征向量。生成的特征向量可以是实数向量。根据一个示例,编码器310基于神经网络(例如,递归神经网络(RNN))。
解码器320重复地执行解码。解码器320在每次解码使用特征向量和之前的解码结果以执行解码。解码器320通过这样的解码完成源句的翻译的句。根据一个示例,解码器320基于神经网络(例如,RNN)。将参照图4在下文中描述解码器320在每个解码时间操作的示例方式。
参照图4,在解码时间t,解码器320使用特征向量和之前的解码结果执行解码。解码器320通过解码生成多个词“let”、“inform”、……、和“notify”。生成的多个词“let”、“inform”、……、和“notify”中的每个具有概率。词“let”的概率Plet是词“let”跟随词“to”的概率。词“inform”的概率Pinform是词“inform”跟随词“to”的概率。词“notify”的概率Pnotify是词“notify”跟随词“to”的概率。例如,Plet大于Pinform指示词“let”比词“inform”更可能跟随词“to”。
解码器320在生成的多个词之中识别满足预设标准的词。如在图4中所示,解码器320基于每个生成的词的概率来在生成的多个词之中识别具有较大概率的前K个词(例如,前两个词“let”和“inform”)。
解码器320验证识别的词是否包括在对应词集合221中。响应于识别的词包括在对应词集合221中,解码器320调节识别的词的概率。例如,如所示,解码器320验证识别的词“let”和“inform”中的每个是否包括在对应词集合221中,并验证出识别的词“let”和“inform”包括在对应词集合221中。在这样的示例中,解码器320调节识别的词“let”的概率Plet和识别的词“inform”的概率Pinform。例如,解码器320通过将值β1加到Plet来调节Plet,通过将值β2加到Pinform来调节Pinform。在此使用的值β1和值β2可以是彼此相同或不同的正实数。
解码器320基于调节的概率和未调节的概率从包括生成的多个词中的每个的不同的字符串选择一些字符串。这里,因为存在具有被调节为更大的概率的词,所以包括这样的词的字符串可比包括具有未被调节的概率的词的字符串更可能被选择。例如,如在图4中所示,解码器320对分别包括生成的多个词“let”、“inform”、……、“notify”的不同的字符串“I'dlike to let”、“I'd like to inform”、……、和“I'd like to notify”中的每个执行束搜索(beamsearch),以选择一些字符串。在一个示例中,解码器320计算字符串“I'd liketo let”、字符串“I'dlike to inform”、……、和字符串“I'd like to notify”中的每个的分数,并选择具有大的分数的字符串。将被选择的字符串的数量可取决于束搜索的规模。例如,在束搜索的规模是3的情况下,解码器320选择具有较大分数的前三个字符串。每个字符串的分数可以是通过将包括在每个字符串中的词的概率相加获得的和。例如,包括具有被调节为更大的概率的词“let”的字符串“I'dlike to let”的分数以及包括具有被调节为更大的概率的词“inform”的字符串“I'd like to inform”的分数增加,因此,字符串“I'dlike to let”和字符串“I'd like to inform”更可能被选择。例如,如在图4中所示,解码器320选择具有更大的分数的三个字符串“I'dlike to let”、“I'dlike to inform”和“I'dlike toΔΔΔ”。
当所述字符串被选择时,在解码时间t+1,解码器320生成跟随词“let”的词、跟随词“inform”的词和跟随词“ΔΔΔ”的词。解码器320允许词“let”被词“youknow”跟随,并允许词“inform”被词“you”跟随,这将在下文中更详细地描述。
在这个示例中,词“let”是对应词集合221中的“let youknow”的部分,词“inform”是对应词集合221中的“informyou”的部分。也就是说,在解码时间t选择的词“let”和词“inform”中的每个是对应词集合221中的短语的部分。在这样的情况下,解码器320使用包括在对应词集合221中的短语“let youknow”作为参考,在解码时间t+1选择跟随词“let”的词“you”,并在解码时间t+2选择跟随词“you”的词“know”。通过这样的选择方法,在不增加词“you”的概率Pyou和词“know”的概率Pknow的情况下,词“you”在解码时间t+1被强制选择,并且词“know”在解码时间t+2也被强制选择。根据一个示例,解码器320在解码时间t+1增加概率Pyou以选择词“you”,并在解码时间t+2增加概率Pknow以选择词“know”。相似地,解码器320在解码时间t+1选择跟随词“inform”的词“you”。因此,对应词集合221中的短语可包括在诸如“I'dlike to let you know”和“I'd like to informyou”的字符串中。
如上所述,解码器320基于在解码时间生成的多个词的概率的降序来识别包括在具有较大概率的前K个词中的词。当识别的词包括在对应词集合221中时,解码器320随之调节识别的词的概率。然而,识别的词可不包括在对应词集合中。在这样的情况下,解码器320验证普通词是否存在于包括识别的词的组和对应词集合221中。普通词是指属于包括识别的词的组和对应词集合221二者的词。当作为验证的结果,普通词被验证为存在,并且普通词是在解码时间生成的多个词之一时,解码器320调节普通词的概率,这将参照如在图4中所示的解码时间n在下文中描述。
例如,如所示,解码器320基于特征向量和之前的解码结果在解码时间n执行解码,并生成词“work”、词“○○○”、……、和词“invention”。解码器320在生成的多个词“work”、词“○○○”、……、和词“invention”之中识别具有较大概率的前K个词,例如,“work”和“○○○”。解码器320验证识别的词“work”和识别的词“○○○”是否包括在对应词集合221中。因为识别的词“work”和识别的词“○○○”不包括在对应词集合221中,所以解码器320验证普通词是否存在于包括识别的词“work”和识别的词“○○○”中的每个的组中的其他词(即,所述组中除识别的词之外的词)以及对应词集合221中的词之中。在此描述的组为具有相同或相似含义或属性的词的集合。例如,如在图4中所示,解码器320验证出词“invention”是包括词“work”的组330中的其他词和对应词集合221中的词之中的普通词,并还验证出在包括词“○○○”的组340中的其他词和对应词集合221中的词之中不存在普通词。
解码器320验证普通词“invention”是否是在解码时间n生成的多个词之一,并基于验证的结果调节普通词“invention”的概率Pinvention。例如,如在图4中所示,因为普通词“invention”是在解码时间n生成的多个词之一,所以解码器320通过将值加到普通词“invention”的概率Pinvention来调节普通词“invention”的概率Pinvention。因此,包括普通词“invention”的字符串被选择的概率可增加。
根据一个示例,翻译器120推断与在解码时间生成的多个词相应的源词。在这样的情况下,翻译器120验证源词是否包括在源词集合211中。当源词包括在源词集合211中时,翻译器120从对应词集合221搜索源词的对应词,并调节检索到的对应词的概率,这将参照图5更加详细地描述。
参照图5,翻译器120包括编码器310、权重计算器510和解码器320。将参照图5在下文中描述的翻译器120可以是基于注意的(attention-based)翻译器。
编码器310对源句进行编码以生成特征向量。例如,如所示,编码器310对源句进行编码以生成词的特征向量h1、词的特征向量h2、词的特征向量h3和词的特征向量h4。
权重计算器510在每个解码时间计算权重,解码器320在每个解码时间执行解码。例如,如所示,权重计算器510在解码时间n基于特征向量h1、特征向量h2、特征向量h3和特征向量h4以及在之前的解码时间的词“your”的隐藏状态信息来计算权重αn,1、权重αn,2、权重αn,3和权重αn,4。权重计算器510基于特征向量h1、特征向量h2、特征向量h3和特征向量h4和权重αn,1、权重αn,2、权重αn,3和权重αn,4来计算上下文向量cn。解码器320基于上下文向量cn执行解码以生成词“work”、……、词“invention”。
当词“work”、……、词“invention”被生成时,解码器320基于最大权重来识别与具有最大概率的词相应的源词。也就是说,解码器320基于所述权重之中的最大值来识别对生成具有最大概率的词做出最大贡献的源词。源词是源句中的词之一。如在图5中所示,当权重αn,2是权重αn,1、权重αn,2、权重αn,3和权重αn,4之中的最大权重时,解码器320验证出权重αn,2与特征向量h2相关联,并将关于特征向量h2的词识别为与词“work”对应的源词。
解码器320验证识别的源词是否包括在源词集合211中。当识别的源词包括在源词集合211中时,解码器320从对应词集合221搜索识别的源词的对应词。当检索到的对应词是在解码时间n被生成时,解码器320调节检索到的对应词的概率。根据一个示例,短语从对应词集合221被检索到。在这样的情况下,当短语中的词被生成时,解码器320调节短语中的所述词的概率。例如,如在图5中所示,解码器320验证识别的词是否包括在源词集合211中。因为识别的词包括在源词集合211中,所以解码器320从对应词集合221搜索识别的词的对应词“invention related to the duties”。检索到的对应词“invention related to the duties”是短语。因此,解码器320验证检索到的对应词“invention related to the duties”的第一词“invention”是否是在解码时间n被生成。因为词“invention”是在解码时间n被生成,所以解码器320通过将w1加到概率Pinvention来调节词“invention”的概率Pinvention。在这个示例中,w1是正实数。然而,当词“invention”不是在解码时间n被生成时,解码器320调节具有最大概率的词“work”的概率。
解码器320基于调节的概率和未调节的概率从包括生成的多个词中的每个的不同的字符串选择一些字符串。例如,解码器320通过执行束搜索来选择字符串。上面已参照图4描述了字符串的选择,因此,为了清楚和简明,这里省略更详细的和重复的描述。
在一个示例中,在在将词“invention”的概率Pinvention调节为Pinvention+w1之后选择字符串之前,解码器320如上面参照图4所述地调节概率,这将参照图6更加详细地描述。
参照图6,当概率Pinvention被调节为Pinvention+w1时,词“invention”包括在基于概率的降序的前K个词中。解码器320将词“invention”和词“work”识别为前K个词。
解码器320验证识别的词“invention”和识别的词“work”中的每个是否包括在对应词集合221中。如在图6中所示,识别的词“invention”包括在对应词集合221中,识别的词“work”不包括在对应词集合221中。在这样的情况下,解码器320将β1加到识别的词“invention”的概率Pinvention+w1,因此,词“invention”的概率Pinvention从当概率Pinvention通过解码被计算出时起增加w1+β1。因此,包括词“invention”的字符串被选择的概率进一步增加。
图7是示出当翻译器选择翻译的句的候选字符串时将要执行的操作的示例的示图。
参照图7,翻译器120选择下面的表1中的字符串作为源句 的翻译的句的候选字符串。
[表1]
翻译器120计算候选字符串中的每个的分数。例如,在第一候选字符串的情况下,翻译器120通过将“I'd”的概率、“let”的概率(或者,“let you know”的概率)、……、和“wasfield”的概率相加,来计算第一候选字符串的分数S1。相似地,翻译器120分别计算第二候选字符串的分数S2和第三候选字符串的分数S3。
翻译器120将计算的分数之中的具有最大分数的候选字符串选择为最终句。例如,当S1=0.7、S2=0.6且S3=0.55时,翻译器120可将第一候选字符串选择为最终句,因为S1是分数之中最大的。
在一个示例中,翻译器120将每个候选字符串的覆盖度(coverage)应用于每个候选字符串的分数,并基于覆盖度的应用结果将候选字符串之一选择为源句的翻译的句。在此使用的覆盖度指示对应词集合中有多少词被覆盖或包括在每个候选字符串中。例如,任一候选字符串的覆盖度指示对应词集合中的被覆盖或包括在所述任一候选字符串中的词的数量或比例。对应词集合中的每个词的同义词或基本形式也可以是将被覆盖的目标。
如在图7中所示,第一候选字符串包括或覆盖对应词集合221中的多个词之中的覆盖目标710“your”、覆盖目标720“invention related to the duties”、覆盖目标730“wasfiled”和覆盖目标740“let you know”。在这样的情况下,翻译器120确定第一候选字符串包括或覆盖全部四个覆盖目标710至740。
第二候选字符串包括或覆盖对应词集合221中的多个词之中的覆盖目标710“your”、覆盖目标730“have been applied”和覆盖目标740“informyou”。在这样的情况下,翻译器120确定第二候选字符串包括或覆盖四个覆盖目标710至740中的三个覆盖目标。
第三候选字符串包括或覆盖对应词集合221中的多个词之中的覆盖目标710“your”和覆盖目标740“let you know”。在这样的情况下,翻译器120确定第三候选字符串包括或覆盖四个覆盖目标710至740中的两个覆盖目标。
翻译器120将每个候选字符串的覆盖度应用于每个候选字符串的分数。例如,第一候选字符串包括或覆盖四个覆盖目标710至740中的四个覆盖目标,因此,翻译器120将C1=4/4=1应用于S1。第二候选字符串包括或覆盖四个覆盖目标710至740中的三个覆盖目标,因此,翻译器120将C2=3/4应用于S2。相似地,第三候选字符串包括或覆盖四个覆盖目标710至740中的两个覆盖目标,因此,翻译器120将C3=2/4应用于S3。
翻译器120基于将每个覆盖度应用于每个分数的结果将多个候选字符串之一选择为翻译的句。例如,当结果是S1C1=0.7、S2C2=0.6×3/4=0.45且S3C3=0.55×2/4=0.275时,翻译器120将具有S1C1的第一候选字符串选择为翻译的句,因为S1C1是结果中最大的。如所述,具有对应词集合221的高的或大的覆盖度的候选字符串被选择为翻译的句,因此主关键词可不会被从翻译的句忽略。因此,翻译性能被提高。
在一个示例中,翻译器120使用之前确定的覆盖度来处理另一源句,并因此防止已覆盖的词重复地出现在该另一源句的翻译的句中。例如,当翻译器120将源句翻译为“I'd like to letyou know that your invention related to the duties was field”时,上面的翻译的句包括或覆盖“let you know”。在这种情况下,当翻译器120在对另一源句执行机器翻译期间生成“let you know”时,翻译器120减小“letyou know”的概率。因此,“let you know”可不包括在翻译该另一源句的结果中,“let youknow”可不会多余地出现。
图8是示出句生成方法的示例的流程图。将参照图8在下文中描述的图8的句生成方法可由句生成设备100执行。
参照图8,在操作810中,句生成设备100生成基于源句生成的源词集合的对应词集合。
在操作820中,句生成设备100通过基于经由对源句进行编码生成的特征向量执行解码来生成词。
在操作830中,句生成设备100基于源词集合和对应词集合中的一个或二者来调节生成的多个词中的至少一个的概率。
在操作840中,句生成设备100基于调节的概率和未调节的概率从包括生成的多个词中的每个的不同的字符串选择一些字符串。
参照图1至图7提供的描述可适用于上面参照图8描述的操作,因此,为了清楚和简明,这里省略更详细的和重复的描述。
图9是示出句生成设备100的另一示例的示图。
参照图9,句生成设备100包括存储器910和控制器920。
存储器910存储源句以及由控制器920执行的操作的结果。
控制器920可由图1中示出的上述的词集合生成器110和翻译器120实现。
在一个示例中,控制器920生成基于源句生成的源词集合的对应词集合。控制器920通过基于经由对源句进行编码生成的特征向量执行解码来生成词。控制器920基于源词集合和对应词集合中的一个或二者来调节生成的多个词中的至少一个的概率。控制器920基于调节的概率和未调节的概率从包括生成的多个词中的每个的不同的字符串选择一些字符串。
句生成设备100基于源词集合和/或对应词集合执行解码,因此有效地扩大将在解码中被检索的字符串的范围。
参照图1至图7提供的描述可适用于此,因此,为了清楚和简明,这里省略更详细的和重复的描述。
由硬件组件来实现图1中的句生成设备100、词集合生成器110和翻译器120、图2中的词集合生成器110、源词集合生成器210和对应词集合生成器220、图3中的翻译器120、编码器310和解码器320以及图9中的句生成设备100、存储器910和控制器920。可用于执行在本申请中的适当位置描述的操作的硬件组件的示例包括:控制器、传感器、生成器、驱动器、存储器、比较器、算术逻辑单元、加法器、减法器、乘法器、除法器、积分器和被配置为执行在本申请中描述的操作的任何其他电子组件。在其他示例中,执行在本申请中描述的操作的一个或多个硬件组件通过计算硬件(例如,通过一个或多个处理器或计算机)来实现。可通过一个或多个处理元件(诸如,逻辑门阵列、控制器和算术逻辑单元、数字信号处理器、微型计算机、可编程逻辑控制器、现场可编辑门阵列、可编程逻辑阵列、微处理器)或被配置为以限定的方式响应并执行指令来实现期望的结果的任何其他装置或装置的组合,来实现处理器或计算机。在一个示例中,处理器或计算机包括(或连接到)存储由处理器或计算机执行的指令或软件的一个或多个存储器。由处理器或计算机实现的硬件组件可执行指令或软件(诸如,操作系统(OS)和在OS上运行的一个或多个软件应用),以执行在本申请中描述的操作。硬件组件还可响应于指令或软件的执行,访问、操纵、处理、创建和存储数据。为了简明,单数术语“处理器”或“计算机”可用于本申请中描述的示例的描述中,但在其他示例中,多个处理器或多个计算机可被使用,或者一个处理器或一个计算机可包括多个处理器元件或多种类型的处理器元件或者两者。例如,可通过单个处理器或者两个或更多个处理器或者一个处理器和一个控制器,来实现单个硬件组件或者两个或更多个硬件组件。可通过一个或多个处理器或者一个处理器和一个控制器,来实现一个或多个硬件组件,并且可通过一个或多个其他处理器、或者另一处理器和另一控制器,来实现一个或多个其他硬件组件。一个或多个处理器、或者一个处理器和一个控制器可实现单个硬件组件、或者两个或更多个硬件组件。硬件组件可具有任意一个或多个不同的处理配置,不同的处理配置的示例包括:单处理器、独立处理器、并行处理器、单指令单数据(SISD)多处理、单指令多数据(SIMD)多处理、多指令单数据(MISD)多处理以及多指令多数据(MIMD)多处理。
通过计算硬件(例如,通过一个或多个处理器或计算机)来执行图2和
图4至图8中示出的方法,其中,计算硬件被实现为如上所述地执行指令或软件,以执行在本申请中描述的由所述方法所执行的操作。例如,单个操作或者两个或更多个操作可通过单个处理器或者两个或更多个处理器或者一个处理器和一个控制器来执行。一个或多个操作可通过一个或多个处理器或者一个处理器和一个控制器来执行,且一个或多个其他操作可通过一个或多个其他处理器或者另一处理器和另一控制器来执行。一个或多个处理器或者一个处理器和一个控制器可执行单个操作、或者两个或更多个操作。
用于控制计算硬件(例如,一个或多个处理器或计算机)实现硬件组件并执行如上所述的方法的指令或软件被写为计算机程序、代码段、指令或它们的任意组合,以单独地或共同地指示或配置该一个或多个处理器或计算机按照机器或专用计算机那样进行操作,以执行由硬件组件和如上所述的方法执行的操作。在一个示例中,指令或软件包括直接由该一个或多个处理器或计算机执行的机器代码,诸如,由编译器产生的机器代码。在另一示例中,指令或软件包括由该一个或多个处理器或计算机使用解释器执行的高级代码。可基于附图中示出的框图和流程图以及说明书中的相应描述使用任何编程语言编写指令或软件,其中,附图中示出的框图和流程图以及说明书中的相应描述公开了用于执行由硬件组件和如上所述的方法执行的操作的算法。
用于控制计算硬件(例如,一个或多个处理器或计算机)实现硬件组件并执行如上所述的方法的指令或软件、以及任何相关联的数据、数据文件以及数据结构被记录、存储或固定在一个或多个非暂时性计算机可读存储介质中或一个或多个非暂时性计算机可读存储介质上。非暂时性计算机可读存储介质的示例包括:只读存储器(ROM)、随机存取存储器(RAM)、闪存、CD-ROM、CD-R、CD+R、CD-RW、CD+RW、DVD-ROM、DVD-R、DVD+R、DVD-RW、DVD+RW、DVD-RAM、BD-ROM、BD-R、BD-R LTH、BD-RE、磁带、软盘、磁光数据存储装置、光学数据存储装置、硬盘、固态盘、和任何其他设备,该任何其他设备被配置为以非暂时方式存储指令或软件、以及任何相关联的数据、数据文件以及数据结构,并向一个或多个处理器或计算机提供指令或软件、以及任何相关联的数据、数据文件以及数据结构,以便该一个或多个处理器和计算机可执行指令。在一个示例中,指令或软件以及任何相关联的数据、数据文件以及数据结构分布在联网的计算机系统上,使得指令和软件以及任何相关联的数据、数据文件以及数据结构以分布方式被该一个或多个处理器或计算机存储、访问和执行。
尽管本公开包括特定的示例,但是在理解本申请的公开之后将清楚的是,在不脱离权利要求和它们的等同物的精神和范围的情况下,可在这些示例中做出形式和细节上的各种改变。在此描述的示例被认为仅是描述性的,而非为了限制的目的。在每一示例中的特征或方面的描述将被认为适用于其他示例中的相似特征或方面。如果描述的技术以不同的顺序被执行,和/或如果在描述的系统、架构、装置、或电路中的组件以不同的方式组合,和/或被其他组件或者它们的等同物代替或补充,则可实现合适的结果。因此,公开的范围不是由具体实施方式所限定,而是由权利要求和它们的等同物限定,并且在权利要求和它们的等同物的范围内的所有变化将被解释为被包括在本公开中。
Claims (23)
1.一种句生成方法,包括:
生成基于源句生成的源词集合的对应词集合;
通过基于经由对源句进行编码生成的多个特征向量执行解码,来生成多个词;
基于源词集合和对应词集合中的一个或二者,调节生成的多个词中的至少一个的概率;
基于调节的概率和未调节的概率,从包括生成的多个词中的每个的不同的字符串选择多个字符串。
2.如权利要求1所述的句生成方法,其中,调节概率的步骤包括:
响应于在生成的多个词之中识别的词包括在对应词集合中,调节识别的词的概率。
3.如权利要求1所述的句生成方法,其中,调节概率的步骤包括:
响应于在生成的多个词之中识别的词不包括在对应词集合中,验证在包括识别的词的组中的其他词和对应词集合之中是否存在普通词;
响应于普通词被验证为存在且普通词是生成的多个词之一,调节普通词的概率。
4.如权利要求1所述的句生成方法,其中,调节概率的步骤包括:
基于生成的多个词中的每个的概率,识别生成的多个词之中的词;
响应于识别的词包括在对应词集合中,调节识别的词的概率。
5.如权利要求1所述的句生成方法,其中,执行解码的步骤包括:
使用所述多个特征向量和多个权重计算上下文向量;
基于计算的上下文向量和之前的解码结果,生成所述多个词。
6.如权利要求1所述的句生成方法,其中,调节概率的步骤包括:
基于用于执行解码的多个权重之中的最大值,识别与生成的多个词之中的具有最大概率的词相应的源词,其中,识别的源词是源句中的多个词之一;
响应于识别的源词包括在源词集合中,从对应词集合检索识别的源词的对应词;
响应于检索到的对应词是生成的多个词之一,调节检索到的对应词的概率。
7.如权利要求6所述的句生成方法,其中,调节概率的步骤还包括:
响应于检索到的对应词的概率被调节,基于生成的多个词之中的除了检索到的对应词之外的剩余词的概率和检索到的对应词的调节的概率,识别检索到的对应词之中的词和所述剩余词;
响应于识别的词包括在对应词集合中,调节识别的词的概率。
8.如权利要求1所述的句生成方法,还包括:响应于选择的多个字符串是源句的翻译的句的候选:
计算选择的多个字符串中的每个的分数;
将选择的多个字符串中的每个的覆盖度应用于选择的多个字符串的对应的一个字符串的分数;
基于应用选择的多个字符串中的每个的覆盖度的结果,将选择的多个字符串之一确定为翻译的句,
其中,选择的多个字符串中的每个的覆盖度指示对应词集合中有多少词包括在选择的多个字符串中的每个中。
9.如权利要求1所述的句生成方法,其中,源词集合包括从源句提取的词、提取的词的同义词和提取的词的基本形式中的任意一个,或者任意两个或更多个的任意组合,
对应词集合包括通过以另一语言表示源词集合中的词而获得的翻译的词、翻译的词的同义词和翻译的词的基本形式中的任意一个,或者任意两个或更多个的任意组合。
10.如权利要求1所述的句生成方法,其中,源句和源词集合是第一语言,
生成的多个词和对应词集合是与第一语言不同的第二语言。
11.如权利要求1所述的句生成方法,其中,使用第一语言-第二语言词典作为参考生成对应词集合。
12.一种存储指令的非暂时性计算机可读存储介质,当由处理器执行所述指令时,使处理器执行如权利要求1所述的句生成方法。
13.一种句生成设备,包括:
控制器,被配置为:
生成基于源句生成的源词集合的对应词集合;
通过基于经由对源句进行编码生成的多个特征向量执行解码,来生成多个词;
基于源词集合和对应词集合中的任一个或二者,调节生成的多个词中的至少一个的概率;
基于调节的概率和未调节的概率,从包括生成的多个词中的每个的不同的字符串选择多个字符串。
14.如权利要求13所述的句生成设备,其中,控制器还被配置为:响应于在生成的多个词之中识别的词包括在对应词集合中,调节识别的词的概率。
15.如权利要求13所述的句生成设备,其中,
控制器还被配置为:响应于在生成的多个词之中识别的词不包括在对应词集合中,验证在包括识别的词的组中的其他词和对应词集合之中是否存在普通词,
控制器还被配置为:响应于普通词被验证为存在且普通词是生成的多个词之一,调节普通词的概率。
16.如权利要求13所述的句生成设备,其中,控制器还被配置为:
基于生成的多个词中的每个的概率,识别生成的多个词之中的词,
响应于识别的词包括在对应词集合中,调节识别的词的概率。
17.如权利要求13所述的句生成设备,其中,控制器还被配置为:
使用所述多个特征向量和多个权重计算上下文向量;
基于计算的上下文向量和之前的解码结果,生成所述多个词。
18.如权利要求13所述的句生成设备,其中,控制器还被配置为:
基于用于执行解码的多个权重之中的最大值,识别与生成的多个词之中的具有最大概率的词相应的源词,其中,识别的源词是源句中的多个词之一;
响应于识别的源词包括在源词集合中,从对应词集合检索识别的源词的对应词,
响应于检索到的对应词是生成的多个词之一,调节检索到的对应词的概率。
19.如权利要求18所述的句生成设备,其中,
控制器还被配置为:响应于检索到的对应词的概率被调节,基于生成的多个词之中的除了检索到的对应词之外的剩余词的概率和检索到的对应词的调节的概率,识别检索到的对应词之中的词和所述剩余词,
控制器还被配置为:响应于识别的词包括在对应词集合中,调节识别的词的概率。
20.如权利要求13所述的句生成设备,其中,控制器还被配置为:响应于选择的多个字符串是源句的翻译的句的候选:
计算选择的多个字符串中的每个的分数;
将选择的多个字符串中的每个的覆盖度应用于选择的多个字符串的对应的一个字符串的分数;
基于应用选择的多个字符串中的每个的覆盖度的结果,将选择的多个字符串之一确定为翻译的句,
其中,选择的多个字符串中的每个的覆盖度指示对应词集合中有多少词包括在选择的多个字符串中的每个中。
21.如权利要求13所述的句生成设备,其中,
源词集合包括从源句提取的词、提取的词的同义词和提取的词的基本形式中的任意一个,或者任意两个或更多个的任意组合,
对应词集合包括通过以另一语言表示源词集合中的词而获得的翻译的词、翻译的词的同义词和翻译的词的基本形式中的任意一个,或者任意两个或更多个的任意组合。
22.如权利要求13所述的句生成设备,其中,
源句和源词集合是第一语言,
生成的多个词和对应词集合是与第一语言不同的第二语言。
23.如权利要求13所述的句生成设备,其中,使用第一语言-第二语言词典作为参考生成对应词集合。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170123569A KR102509822B1 (ko) | 2017-09-25 | 2017-09-25 | 문장 생성 방법 및 장치 |
KR10-2017-0123569 | 2017-09-25 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109558570A true CN109558570A (zh) | 2019-04-02 |
CN109558570B CN109558570B (zh) | 2024-01-23 |
Family
ID=63173965
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810383162.6A Active CN109558570B (zh) | 2017-09-25 | 2018-04-26 | 句生成方法和设备 |
Country Status (5)
Country | Link |
---|---|
US (2) | US10572604B2 (zh) |
EP (1) | EP3460679A1 (zh) |
JP (1) | JP7181019B2 (zh) |
KR (1) | KR102509822B1 (zh) |
CN (1) | CN109558570B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110489762A (zh) * | 2019-06-26 | 2019-11-22 | 中译语通科技股份有限公司 | 基于神经网络机器翻译的术语翻译方法、存储介质和装置 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102509822B1 (ko) * | 2017-09-25 | 2023-03-14 | 삼성전자주식회사 | 문장 생성 방법 및 장치 |
CN110555203B (zh) * | 2018-05-31 | 2023-05-30 | 北京百度网讯科技有限公司 | 文本复述方法、装置、服务器及存储介质 |
JP7259650B2 (ja) * | 2019-09-02 | 2023-04-18 | 日本電信電話株式会社 | 翻訳装置、翻訳方法及びプログラム |
CN113435194B (zh) * | 2021-06-22 | 2023-07-21 | 中国平安人寿保险股份有限公司 | 词汇切分方法、装置、终端设备及存储介质 |
KR102607826B1 (ko) * | 2021-10-14 | 2023-11-30 | 비큐리오 주식회사 | 심층 신경망 기반의 문서 분석 시스템과 방법 및 이를 구현하기 위한 프로그램이 저장된 기록 매체 및 매체에 저장된 컴퓨터프로그램 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0449230A2 (en) * | 1990-03-27 | 1991-10-02 | Hitachi, Ltd. | Translation method and system for commmunication between speakers of different languages |
US20080162111A1 (en) * | 2006-12-28 | 2008-07-03 | Srinivas Bangalore | Sequence classification for machine translation |
US20090228263A1 (en) * | 2008-03-07 | 2009-09-10 | Kabushiki Kaisha Toshiba | Machine translating apparatus, method, and computer program product |
WO2012060540A1 (ko) * | 2010-11-05 | 2012-05-10 | 에스케이텔레콤 주식회사 | 구문 구조 변환 모델과 어휘 변환 모델을 결합한 기계 번역 장치 및 기계 번역 방법 |
CN102650987A (zh) * | 2011-02-25 | 2012-08-29 | 北京百度网讯科技有限公司 | 一种基于源语言复述资源的机器翻译方法及装置 |
US20130138586A1 (en) * | 2011-11-30 | 2013-05-30 | Electronics And Telecommunications Research Instit Ute | Service goal interpreting apparatus and method for goal-driven semantic service discovery |
US8788258B1 (en) * | 2007-03-15 | 2014-07-22 | At&T Intellectual Property Ii, L.P. | Machine translation using global lexical selection and sentence reconstruction |
US20140358519A1 (en) * | 2013-06-03 | 2014-12-04 | Xerox Corporation | Confidence-driven rewriting of source texts for improved translation |
CN106484682A (zh) * | 2015-08-25 | 2017-03-08 | 阿里巴巴集团控股有限公司 | 基于统计的机器翻译方法、装置及电子设备 |
CN106649288A (zh) * | 2016-12-12 | 2017-05-10 | 北京百度网讯科技有限公司 | 基于人工智能的翻译方法和装置 |
CN107038158A (zh) * | 2016-02-01 | 2017-08-11 | 松下知识产权经营株式会社 | 对译语料库制作方法、装置、程序以及机器翻译系统 |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3657338B2 (ja) * | 1996-02-16 | 2005-06-08 | 株式会社東芝 | 翻訳装置 |
US5995922A (en) * | 1996-05-02 | 1999-11-30 | Microsoft Corporation | Identifying information related to an input word in an electronic dictionary |
US5966686A (en) * | 1996-06-28 | 1999-10-12 | Microsoft Corporation | Method and system for computing semantic logical forms from syntax trees |
US5991710A (en) * | 1997-05-20 | 1999-11-23 | International Business Machines Corporation | Statistical translation system with features based on phrases or groups of words |
JP4042360B2 (ja) | 2001-07-18 | 2008-02-06 | 日本電気株式会社 | 自動通訳システム及びその方法並びにプログラム |
US6952691B2 (en) * | 2002-02-01 | 2005-10-04 | International Business Machines Corporation | Method and system for searching a multi-lingual database |
US7346487B2 (en) | 2003-07-23 | 2008-03-18 | Microsoft Corporation | Method and apparatus for identifying translations |
EP1894125A4 (en) * | 2005-06-17 | 2015-12-02 | Nat Res Council Canada | MEANS AND METHOD FOR ADAPTED LANGUAGE TRANSLATION |
US20070011132A1 (en) * | 2005-06-17 | 2007-01-11 | Microsoft Corporation | Named entity translation |
US8433556B2 (en) * | 2006-11-02 | 2013-04-30 | University Of Southern California | Semi-supervised training for statistical word alignment |
JP4791984B2 (ja) * | 2007-02-27 | 2011-10-12 | 株式会社東芝 | 入力された音声を処理する装置、方法およびプログラム |
JP2008305167A (ja) | 2007-06-07 | 2008-12-18 | Toshiba Corp | 原言語文を目的言語文に機械翻訳する装置、方法およびプログラム |
US8341096B2 (en) * | 2009-11-27 | 2012-12-25 | At&T Intellectual Property I, Lp | System, method and computer program product for incremental learning of system log formats |
US9208448B2 (en) * | 2009-11-27 | 2015-12-08 | At&T Intellectual Property I, Lp | System, method and computer program product for incremental learning of system log formats |
US20110202484A1 (en) * | 2010-02-18 | 2011-08-18 | International Business Machines Corporation | Analyzing parallel topics from correlated documents |
JP5555542B2 (ja) | 2010-05-20 | 2014-07-23 | 日本電信電話株式会社 | 自動単語対応付け装置とその方法とプログラム |
US9552355B2 (en) * | 2010-05-20 | 2017-01-24 | Xerox Corporation | Dynamic bi-phrases for statistical machine translation |
US8775155B2 (en) * | 2010-10-25 | 2014-07-08 | Xerox Corporation | Machine translation using overlapping biphrase alignments and sampling |
US8352245B1 (en) * | 2010-12-30 | 2013-01-08 | Google Inc. | Adjusting language models |
KR20120077800A (ko) | 2010-12-31 | 2012-07-10 | 에스케이플래닛 주식회사 | 자동 번역 시스템에서 외국어 문장에 포함된 단어의 유의어를 제공하는 방법, 번역 장치 및 단말기, 그리고 이 방법을 실행시키기 위한 프로그램을 저장한 기록매체 |
US8688454B2 (en) | 2011-07-06 | 2014-04-01 | Sri International | Method and apparatus for adapting a language model in response to error correction |
US10176168B2 (en) * | 2011-11-15 | 2019-01-08 | Microsoft Technology Licensing, Llc | Statistical machine translation based search query spelling correction |
US9047268B2 (en) * | 2013-01-31 | 2015-06-02 | Google Inc. | Character and word level language models for out-of-vocabulary text input |
US8756499B1 (en) * | 2013-04-29 | 2014-06-17 | Google Inc. | Gesture keyboard input of non-dictionary character strings using substitute scoring |
JP6186198B2 (ja) | 2013-07-17 | 2017-08-23 | 株式会社エヌ・ティ・ティ・データ | 学習モデル作成装置、翻訳装置、学習モデル作成方法、及びプログラム |
KR101616031B1 (ko) | 2014-07-17 | 2016-04-28 | 동아대학교 산학협력단 | 위키피디아의 언어자원과 병렬 코퍼스를 이용한 교차언어 검색기의 질의어 번역 시스템 및 방법 |
WO2016065327A1 (en) | 2014-10-24 | 2016-04-28 | Google Inc. | Neural machine translation systems with rare word processing |
KR102396250B1 (ko) | 2015-07-31 | 2022-05-09 | 삼성전자주식회사 | 대역 어휘 결정 장치 및 방법 |
CN106484681B (zh) | 2015-08-25 | 2019-07-09 | 阿里巴巴集团控股有限公司 | 一种生成候选译文的方法、装置及电子设备 |
US10402734B2 (en) * | 2015-08-26 | 2019-09-03 | Google Llc | Temporal based word segmentation |
CN109074242A (zh) * | 2016-05-06 | 2018-12-21 | 电子湾有限公司 | 在神经机器翻译中使用元信息 |
KR20180001889A (ko) * | 2016-06-28 | 2018-01-05 | 삼성전자주식회사 | 언어 처리 방법 및 장치 |
KR102565274B1 (ko) * | 2016-07-07 | 2023-08-09 | 삼성전자주식회사 | 자동 통역 방법 및 장치, 및 기계 번역 방법 및 장치 |
KR102565275B1 (ko) * | 2016-08-10 | 2023-08-09 | 삼성전자주식회사 | 병렬 처리에 기초한 번역 방법 및 장치 |
KR102577584B1 (ko) * | 2016-08-16 | 2023-09-12 | 삼성전자주식회사 | 기계 번역 방법 및 장치 |
US10402495B1 (en) * | 2016-09-01 | 2019-09-03 | Facebook, Inc. | Abstractive sentence summarization |
KR102509822B1 (ko) * | 2017-09-25 | 2023-03-14 | 삼성전자주식회사 | 문장 생성 방법 및 장치 |
-
2017
- 2017-09-25 KR KR1020170123569A patent/KR102509822B1/ko active IP Right Grant
-
2018
- 2018-04-05 US US15/945,979 patent/US10572604B2/en active Active
- 2018-04-26 CN CN201810383162.6A patent/CN109558570B/zh active Active
- 2018-07-17 JP JP2018133932A patent/JP7181019B2/ja active Active
- 2018-08-07 EP EP18187748.1A patent/EP3460679A1/en active Pending
-
2020
- 2020-01-17 US US16/745,947 patent/US10990765B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0449230A2 (en) * | 1990-03-27 | 1991-10-02 | Hitachi, Ltd. | Translation method and system for commmunication between speakers of different languages |
US20080162111A1 (en) * | 2006-12-28 | 2008-07-03 | Srinivas Bangalore | Sequence classification for machine translation |
US8788258B1 (en) * | 2007-03-15 | 2014-07-22 | At&T Intellectual Property Ii, L.P. | Machine translation using global lexical selection and sentence reconstruction |
US20090228263A1 (en) * | 2008-03-07 | 2009-09-10 | Kabushiki Kaisha Toshiba | Machine translating apparatus, method, and computer program product |
WO2012060540A1 (ko) * | 2010-11-05 | 2012-05-10 | 에스케이텔레콤 주식회사 | 구문 구조 변환 모델과 어휘 변환 모델을 결합한 기계 번역 장치 및 기계 번역 방법 |
CN103189860A (zh) * | 2010-11-05 | 2013-07-03 | Sk普兰尼特有限公司 | 组合句法转换模型与词汇转换模型的机器翻译装置和机器翻译方法 |
CN102650987A (zh) * | 2011-02-25 | 2012-08-29 | 北京百度网讯科技有限公司 | 一种基于源语言复述资源的机器翻译方法及装置 |
US20130138586A1 (en) * | 2011-11-30 | 2013-05-30 | Electronics And Telecommunications Research Instit Ute | Service goal interpreting apparatus and method for goal-driven semantic service discovery |
US20140358519A1 (en) * | 2013-06-03 | 2014-12-04 | Xerox Corporation | Confidence-driven rewriting of source texts for improved translation |
CN106484682A (zh) * | 2015-08-25 | 2017-03-08 | 阿里巴巴集团控股有限公司 | 基于统计的机器翻译方法、装置及电子设备 |
CN107038158A (zh) * | 2016-02-01 | 2017-08-11 | 松下知识产权经营株式会社 | 对译语料库制作方法、装置、程序以及机器翻译系统 |
CN106649288A (zh) * | 2016-12-12 | 2017-05-10 | 北京百度网讯科技有限公司 | 基于人工智能的翻译方法和装置 |
Non-Patent Citations (2)
Title |
---|
JIANQIANG WANG, ETC: "Combining bidirectional translation and synonymy for cross-language information retrieval", 《SIGIR \'06: PROCEEDINGS OF THE 29TH ANNUAL INTERNATIONAL ACM SIGIR CONFERENCE ON RESEARCH AND DEVELOPMENT IN INFORMATION RETRIEVAL》, pages 202 - 209 * |
赵丽珠: "词语学视阈下的科技文本汉英翻译策略探析", 《语文学刊(外语教育教学)》, pages 47 - 48 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110489762A (zh) * | 2019-06-26 | 2019-11-22 | 中译语通科技股份有限公司 | 基于神经网络机器翻译的术语翻译方法、存储介质和装置 |
CN110489762B (zh) * | 2019-06-26 | 2023-07-04 | 中译语通科技股份有限公司 | 基于神经网络机器翻译的术语翻译方法、存储介质和装置 |
Also Published As
Publication number | Publication date |
---|---|
US10990765B2 (en) | 2021-04-27 |
EP3460679A1 (en) | 2019-03-27 |
US10572604B2 (en) | 2020-02-25 |
US20200175233A1 (en) | 2020-06-04 |
KR102509822B1 (ko) | 2023-03-14 |
JP2019061655A (ja) | 2019-04-18 |
CN109558570B (zh) | 2024-01-23 |
JP7181019B2 (ja) | 2022-11-30 |
KR20190034939A (ko) | 2019-04-03 |
US20190095433A1 (en) | 2019-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Rei | Semi-supervised multitask learning for sequence labeling | |
CN109558570A (zh) | 句生成方法和设备 | |
KR102542914B1 (ko) | 다중언어 번역 장치 및 다중언어 번역 방법 | |
Li et al. | Incremental joint extraction of entity mentions and relations | |
Specia et al. | Multi-level translation quality prediction with quest++ | |
Sahu et al. | Recurrent neural network models for disease name recognition using domain invariant features | |
US10997964B2 (en) | System and method for text normalization using atomic tokens | |
US11210470B2 (en) | Automatic text segmentation based on relevant context | |
US9824085B2 (en) | Personal language model for input method editor | |
JP7290861B2 (ja) | 質問応答システムのための回答分類器及び表現ジェネレータ、並びに表現ジェネレータを訓練するためのコンピュータプログラム | |
US11593557B2 (en) | Domain-specific grammar correction system, server and method for academic text | |
JP2012108570A (ja) | 単語意味関係抽出装置及び単語意味関係抽出方法 | |
US10963647B2 (en) | Predicting probability of occurrence of a string using sequence of vectors | |
Dadas et al. | A bidirectional iterative algorithm for nested named entity recognition | |
Albared et al. | Recent progress of named entity recognition over the most popular datasets | |
CN113051910B (zh) | 一种用于预测人物角色情绪的方法和装置 | |
Trye et al. | A hybrid architecture for labelling bilingual māori-english tweets | |
Horn | Exploring Word Usage Change with Continuously Evolving Embeddings | |
Mi et al. | Improving Loanword Identification in Low‐Resource Language with Data Augmentation and Multiple Feature Fusion | |
Sai et al. | Stacked embeddings and multiple fine-tuned XLM-roBERTa models for enhanced hostility identification | |
Chorowski et al. | Read, tag, and parse all at once, or fully-neural dependency parsing | |
Arora et al. | Identifying named entities as they are typed | |
Vivoli et al. | Multimodal transformer for comics text-cloze | |
Mutuvi et al. | Analyzing the Impact of Tokenization on Multilingual Epidemic Surveillance in Low-Resource Languages | |
Raja et al. | Adversarial attacks against deep learning systems for ICD-9 code assignment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |