WO2022264232A1 - 学習装置、対訳文出力装置、学習方法、対訳文出力方法およびプログラム - Google Patents

学習装置、対訳文出力装置、学習方法、対訳文出力方法およびプログラム Download PDF

Info

Publication number
WO2022264232A1
WO2022264232A1 PCT/JP2021/022581 JP2021022581W WO2022264232A1 WO 2022264232 A1 WO2022264232 A1 WO 2022264232A1 JP 2021022581 W JP2021022581 W JP 2021022581W WO 2022264232 A1 WO2022264232 A1 WO 2022264232A1
Authority
WO
WIPO (PCT)
Prior art keywords
language
vector
compressed
similarity
language model
Prior art date
Application number
PCT/JP2021/022581
Other languages
English (en)
French (fr)
Inventor
敏 鈴木
昌明 永田
Original Assignee
日本電信電話株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電信電話株式会社 filed Critical 日本電信電話株式会社
Priority to PCT/JP2021/022581 priority Critical patent/WO2022264232A1/ja
Priority to JP2023528774A priority patent/JPWO2022264232A1/ja
Publication of WO2022264232A1 publication Critical patent/WO2022264232A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/44Statistical methods, e.g. probability models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/45Example-based machine translation; Alignment

Definitions

  • the present invention relates to a learning device, a parallel translation output device, a learning method, a parallel translation output method, and a program.
  • a technology is known that realizes automatic translation using natural language processing using bilingual data. For example, in the case of Japanese-to-English translation, there is a known method of increasing the accuracy of translation by learning a large number of correspondences between Japanese and English documents.
  • Non-Patent Document 1 discloses a technique for mapping sentences with similar meanings to vectors with a high degree of similarity.
  • the bilingual data that can be used in the above conventional technology is a set of similar texts or a set of pairs of bilingual texts. It is necessary to perform correspondence manually. Therefore, there is a problem that it is difficult to prepare a large amount of easy-to-use bilingual data.
  • the disclosed technology aims to output texts with similar meanings in different languages without relying on bilingual data.
  • the disclosed technology is a learning device for updating parameters of a language model, comprising: a first language compression vector generation unit that generates a first compression vector by compressing a first language corpus based on the language model; a first parameter updating unit for updating the parameters of the language model based on the first compressed vector; and a second language for generating a second compressed vector by compressing the corpus of the second language based on the language model.
  • a compression vector generation unit a second parameter update unit that updates the parameters of the language model based on the second compression vector; and the first compression vector and the second compression vector generated from text having the same meaning, respectively.
  • a third parameter updating unit for updating parameters of the language model based on the similarity.
  • FIG. 3 is a functional configuration diagram of a learning device;
  • FIG. 1 is a first diagram showing an example of a language model;
  • FIG. 4 is a second diagram showing an example of a language model;
  • FIG. 11 is a third diagram showing an example of a language model;
  • 6 is a flowchart showing an example of the flow of learning processing;
  • 2 is a functional configuration diagram of a parallel translation output device;
  • the bilingual text is text in the second language corresponding to the input text in the first language, and includes words, phrases, sentences, paragraphs, and the like.
  • FIG. 1 is a functional configuration diagram of a learning device.
  • the learning device 10 includes a model storage unit 11, a first language corpus acquisition unit 12, a first language compression vector generation unit 13, a first parameter update unit 14, a second language corpus acquisition unit 15, a second language A compression vector generator 16 , a second parameter updater 17 , a similarity calculator 18 , and a third parameter updater 19 are provided.
  • the model storage unit 11 stores the language model 100.
  • the language model 100 is an autoencoder that compresses or decompresses text in a first language (e.g., Japanese) and a second language (e.g., English), and generates a compression vector corresponding to the text input to the hidden layer. learned to do.
  • a first language e.g., Japanese
  • a second language e.g., English
  • the first language corpus acquisition unit 12 acquires the first language corpus 80.
  • the first language corpus 80 is a monolingual corpus in which Japanese text is structured and accumulated, for example, when Japanese is the first language.
  • the first language compression vector generation unit 13 compresses the first language corpus based on the language model 100 to generate a compression vector (first compression vector).
  • the first parameter updating unit 14 updates the model parameters of the language model 100 by using the first language corpus 80 and learning so that the generated compression vector has the meaning corresponding to the corpus.
  • the second language corpus acquisition unit 15 acquires the second language corpus 81.
  • the second language corpus 81 is a monolingual corpus in which English texts are structured and accumulated, for example, when English is the second language.
  • the second language compression vector generation unit 16 compresses the second language corpus based on the language model 100 to generate a compression vector (second compression vector).
  • the second parameter updating unit 17 updates the model parameters of the language model 100 by using the second language corpus 81 and learning so that the generated compression vector has the meaning corresponding to the corpus.
  • the similarity calculation unit 18 extracts a compressed vector (first compressed vector) generated from the first language corpus 80 and a compressed vector (second compressed vector) generated from the second language corpus 81 from texts with the same meaning. Compute the similarity of these compressed vectors when they are generated.
  • the similarity is, for example, the norm or cosine distance between compressed vectors. It should be noted that the similarity calculation unit 18 determines based on a bilingual corpus or the like whether or not the texts are generated from texts having the same meaning.
  • first language compression vector generation unit 13 and the second language compression vector generation unit 16 generate a first language compression vector (first compression vector) and a second language compression vector (second 2 compressed vectors) may be generated by compressing the bilingual corpus rather than the first language corpus 80 or the second language corpus 81 .
  • the third parameter update unit 19 updates the model parameters of the language model 100 so as to maximize the similarity of compressed vectors generated from texts with the same meaning.
  • FIG. 2 is a first diagram showing a configuration example of a language model.
  • the language model 100 shown in FIG. 2 includes (1) an encoder 101, an intermediate layer 102, and a decoder 103 corresponding to the first language autoencoder, and (2) an encoder 104 and an intermediate layer 105 corresponding to the second language autoencoder. and decoder 106 .
  • the targets of processing by the third parameter update unit 19 are the encoder 101 and the intermediate layer 102 involved in the generation of the compression vector of the first language, and the encoder 104 and the intermediate layer 104 involved in the generation of the compression vector of the second language. 105.
  • Encoders 101, 104 and decoders 103, 106 may apply existing language models such as Transformers/Bert (reference [1]), respectively.
  • the form of the language model shown in FIG. 2 can be used, for example, when applying cosine distance as the degree of similarity between compressed vectors. It is a form that can be
  • FIG. 3 is a second diagram showing a configuration example of the language model.
  • the language model 100 shown in FIG. 3 includes (1) an encoder 101, an intermediate layer 102, and a decoder 103 corresponding to an autoencoder for a first language, and (2) an encoder 104 and an intermediate layer 102 corresponding to an autoencoder for a second language. and decoder 106 . That is, the intermediate layer included in the language model 100 is the intermediate layer 102 common to the first language and the second language.
  • the targets of processing by the third parameter update unit 19 are the encoder 101 and the intermediate layer 102 involved in the generation of the compression vector of the first language, and the encoder 104 and the intermediate layer 104 involved in the generation of the compression vector of the second language. 102.
  • the form of the language model shown in FIG. 3 is almost the same as the form of the language model shown in FIG. 2, but can be used when the semantic spaces of the two languages completely match.
  • FIG. 4 is a third diagram showing a configuration example of the language model.
  • the language model 100 shown in FIG. 4 includes (1) an encoder 101, an intermediate layer 102, and a decoder 103 corresponding to an autoencoder for a first language, and (2) an encoder 101 and an intermediate layer 102 corresponding to an autoencoder for a second language. and decoder 106 . That is, the encoder and intermediate layer included in the language model 100 are the encoder 101 and intermediate layer 102 common to the first language and the second language.
  • (3) targets of processing by the third parameter updating unit 19 are the encoder 101 and the intermediate layer 102 involved in generating the compression vectors of the first language and the second language.
  • the form of the language model shown in FIG. 4 is, for example, a model when the multilingual model of Sentence-Bert (Non-Patent Document 1) is applied to (3) of the language model shown in FIG. It is a formal form that can be applied when the functions of two encoders are already included.
  • the form of the language model shown in FIG. 4 is substantially the same as the form of the language model shown in FIG. 2 or FIG.
  • the learning device 10 starts learning processing in response to a user's operation or the like, or periodically.
  • FIG. 5 is a flowchart showing an example of the flow of learning processing.
  • the first language corpus acquisition unit 12 acquires a first language corpus (step S11).
  • the first language compression vector generation unit 13 generates compression vectors of the first language corpus (step S12).
  • the first parameter updating unit 14 updates the parameters of the language model based on the compression vector of the corpus of the first language (step S13).
  • step S11 to step S13 corresponds to the first learning for learning the autoencoder of the first language.
  • the second language corpus acquisition unit 15 acquires a second language corpus (step S14).
  • the second language compression vector generator 16 generates a compression vector of the second language corpus (step S15).
  • the second parameter updating unit 17 updates the parameters of the language model based on the compression vector of the corpus of the second language (step S16).
  • step S14 to step S16 corresponds to the second learning for learning the autoencoder of the second language.
  • the similarity calculation unit 18 calculates the similarity between the compressed vector of the first language corpus and the compressed vector of the second language corpus (step S17).
  • the calculated similarity is, for example, the norm or cosine distance between compressed vectors.
  • the third parameter updating unit 19 updates the parameters of the language model based on the degree of similarity (step S18). For example, the third parameter updating unit 19 updates the parameters of the language model so as to minimize the norm or cosine distance between compressed vectors having a common meaning.
  • step S17 to step S18 corresponds to the third learning for maximizing the similarity (minimizing the norm or cosine distance).
  • the learning device 10 compresses each text of the first language and the second language as a vector in one semantic space by combining three learning (parameter updating) processes. It can be transformed, and if the text has the same meaning, it can be learned to obtain an equivalent compression vector.
  • the learning device 10 may repeat learning in order for each fixed number of times as a method of combining learning, or may pool all learning errors for a fixed period and update the weights as a batch process. good.
  • FIG. 6 is a functional configuration diagram of a parallel translation output device.
  • the parallel translation output device 20 includes a model storage unit 21, a first language text acquisition unit 22, a first language compression vector generation unit 23, a second language translation candidate acquisition unit 24, and a second language compression vector generation unit. 25 , a similarity calculation unit 26 , a translation selection unit 27 and an output unit 28 .
  • the model storage unit 21 stores the language model 200.
  • the language model 200 is a trained language model whose parameters have been updated by the learning device 10 .
  • the first language text acquisition unit 22 acquires the first language text 90.
  • the first language text 90 is Japanese text to be translated, for example, when a bilingual sentence is output with Japanese as the first language.
  • the first language compression vector generation unit 23 compresses the first language text based on the language model 200 to generate a compression vector (first compression vector).
  • the second language parallel translation candidate acquisition unit 24 acquires the second language parallel translation candidate 91 .
  • the second language parallel translation candidates 91 are a set of English texts that are candidates for parallel translation of Japanese, which is an example of the first language, when English is the second language, for example.
  • the second language compression vector generation unit 25 compresses the second language translation candidate based on the language model 200 to generate a compression vector (second compression vector).
  • the similarity calculation unit 26 calculates a compression vector (first compression vector) generated from the text in the first language and each compression vector (second compression vector) generated from a plurality of candidates for translation in the second language. Calculate the similarity of The similarity calculation method is the same as that of the similarity calculation unit 18 of the learning device 10 .
  • the bilingual sentence selection unit 27 selects a bilingual sentence from a plurality of bilingual sentence candidates based on the degree of similarity. Specifically, when the degree of similarity is the cosine distance of the compressed vector, the bilingual sentence selection unit 27 selects the compression vector having the smallest cosine distance among a plurality of compressed vectors generated from the bilingual sentence candidates. Select a parallel translation.
  • the output unit 28 outputs the selected translated text. Specifically, the output unit 28 transmits information indicating the translated text to another device or the like, or displays the information on a display device or the like.
  • FIG. 7 is a diagram for explaining how to use the language model in parallel-translation output processing.
  • a language model 200 shown in FIG. 7 is obtained by applying the language model 100 shown in FIG. 2 to the parallel translation output process.
  • the language model 200 includes (1) an encoder 201 and an intermediate layer 202 for generating compression vectors for text in the first language, and (2) an encoder 203 and an intermediate layer 204 for generating compression vectors for candidate parallel translations in the second language. , (3) an intermediate layer 205 relating to similarity calculation, and (4) a storage unit 206 for storing information indicating the calculated similarity.
  • the parallel translation output device 20 starts the parallel translation output process in response to a user's operation or the like or periodically.
  • FIG. 8 is a flow chart showing an example of the flow of parallel translation output processing.
  • the first language text acquisition unit 22 acquires the first language text (step S21).
  • the first language compression vector generator 23 generates a compression vector for the first language text (step S22).
  • the second language parallel translation candidate acquisition unit 24 acquires the second language translation sentence candidates (step S23).
  • the second language compression vector generation unit 25 generates compression vectors of candidates for parallel translation sentences in the second language (step S24).
  • the similarity calculation unit 26 calculates the similarity between the compression vector of the first language text and the compression vector of the parallel translation candidate of the second language (step S25).
  • the bilingual sentence selection unit 27 selects a bilingual sentence based on the degree of similarity (step S26).
  • the output unit 28 outputs the selected translated text (step S27).
  • the learning device 10 and the parallel translation output device 20 can be implemented, for example, by causing a computer to execute a program describing the processing details described in this embodiment.
  • this "computer” may be a physical machine or a virtual machine on the cloud.
  • the "hardware” described here is virtual hardware.
  • the above program can be recorded on a computer-readable recording medium (portable memory, etc.), saved, or distributed. It is also possible to provide the above program through a network such as the Internet or e-mail.
  • FIG. 9 is a diagram showing a hardware configuration example of the computer.
  • the computer of FIG. 9 has a drive device 1000, an auxiliary storage device 1002, a memory device 1003, a CPU 1004, an interface device 1005, a display device 1006, an input device 1007, an output device 1008, etc., which are interconnected by a bus B, respectively.
  • a program that implements the processing in the computer is provided by a recording medium 1001 such as a CD-ROM or memory card, for example.
  • a recording medium 1001 such as a CD-ROM or memory card
  • the program is installed from the recording medium 1001 to the auxiliary storage device 1002 via the drive device 1000 .
  • the program does not necessarily need to be installed from the recording medium 1001, and may be downloaded from another computer via the network.
  • the auxiliary storage device 1002 stores installed programs, as well as necessary files and data.
  • the memory device 1003 reads and stores the program from the auxiliary storage device 1002 when a program activation instruction is received.
  • the CPU 1004 implements functions related to the device according to programs stored in the memory device 1003 .
  • the interface device 1005 is used as an interface for connecting to the network.
  • a display device 1006 displays a GUI (Graphical User Interface) or the like by a program.
  • An input device 1007 is composed of a keyboard, a mouse, buttons, a touch panel, or the like, and is used to input various operational instructions.
  • the output device 1008 outputs the calculation result.
  • the computer may include a GPU (Graphics Processing Unit) or TPU (Tensor Processing Unit) instead of the CPU 1004, or may include a GPU or TPU in addition to the CPU 1004. In that case, the processing may be divided and executed such that the GPU or TPU executes processing that requires special computation, such as a neural network, and the CPU 1004 executes other processing.
  • the learning device 10 According to the learning device 10 according to the present embodiment, by combining three learning (parameter updating) processes, the texts of the first language and the second language are compressed and transformed as vectors in one semantic space. is possible, and if the text has the same meaning, it learns to obtain an equivalent compression vector.
  • the bilingual sentence output device 20 can easily find sentences with similar meanings between different languages, and select and output highly accurate bilingual sentences. be able to.
  • a learning device for updating parameters of a language model comprising: a first language compressed vector generator for generating a first compressed vector obtained by compressing a first language corpus based on the language model; a first parameter updating unit that updates parameters of the language model based on the first compression vector; a second language compressed vector generator for generating a second compressed vector obtained by compressing a second language corpus based on the language model; a second parameter updating unit that updates parameters of the language model based on the second compression vector; a similarity calculation unit that calculates a similarity between the first compressed vector and the second compressed vector generated from texts having the same meaning; a third parameter updating unit that updates parameters of the language model based on the similarity; learning device.
  • the similarity calculation unit calculates the norm or cosine distance between the first compressed vector and the second compressed vector as the similarity
  • the third parameter updating unit updates the parameter so as to minimize the norm or the cosine distance
  • a learning device A learning device according to claim 1.
  • the language model is an autoencoder that includes an encoder that generates compressed vectors of a first language in the hidden layer and an encoder that generates compressed vectors of the second language in the hidden layer, 3.
  • a parallel translation output device for outputting a second language parallel translation of a first language text, a first language compression vector generator for compressing the first language text to generate a first compression vector; a second language compression vector generation unit that compresses the plurality of translation candidates of the second language to generate a second compression vector; a similarity calculation unit that calculates a similarity between the first compressed vector and each of the second compressed vectors; a bilingual sentence selection unit that selects a bilingual sentence from bilingual sentence candidates based on the degree of similarity; an output unit that outputs the selected bilingual sentence, Parallel text output device.
  • a learning method executed by a learning device for updating parameters of a language model comprising: generating a first compression vector that compresses a corpus of a first language based on the language model; updating parameters of the language model based on the first compression vector; generating a second compression vector that compresses a corpus of a second language based on the language model; updating parameters of the language model based on the second compression vector; calculating a similarity between the first compressed vector and the second compressed vector, each generated from text having the same meaning; updating language model parameters based on the similarity; learning method.
  • a parallel translation output method executed by a parallel translation output device for outputting a parallel translation of a first language text in a second language comprising: compressing the first language text to generate a first compression vector; compressing the plurality of translation candidates in the second language to generate a second compression vector; calculating a similarity between the first compressed vector and each of the second compressed vectors; selecting a bilingual sentence from bilingual sentence candidates based on the similarity; and outputting the selected bilingual sentence.
  • Parallel text output method A program for causing a computer to function as each unit in the learning device according to any one of items 1 to 3, or for causing a computer to function as each unit in the bilingual sentence output device according to item 4. program.
  • Second language corpus 100 Language model 200 Language model 1000 Drive device 1001 Recording medium 1002 Auxiliary Storage device 1003 Memory device 1004 CPU 1005 interface device 1006 display device 1007 input device 1008 output device

Abstract

言語モデルのパラメータを更新するための学習装置であって、前記言語モデルに基づいて、第一言語のコーパスを圧縮した第一圧縮ベクトルを生成する第一言語圧縮ベクトル生成部と、前記第一圧縮ベクトルに基づいて、前記言語モデルのパラメータを更新する第一パラメータ更新部と、前記言語モデルに基づいて、第二言語のコーパスを圧縮した第二圧縮ベクトルを生成する第二言語圧縮ベクトル生成部と、前記第二圧縮ベクトルに基づいて、前記言語モデルのパラメータを更新する第二パラメータ更新部と、それぞれ意味が同じテキストから生成された前記第一圧縮ベクトルと前記第二圧縮ベクトルの類似度を算出する類似度算出部と、前記類似度に基づいて、言語モデルのパラメータを更新する第三パラメータ更新部と、を備える学習装置である。

Description

学習装置、対訳文出力装置、学習方法、対訳文出力方法およびプログラム
 本発明は、学習装置、対訳文出力装置、学習方法、対訳文出力方法およびプログラムに関する。
 自然言語処理による自動翻訳を、対訳データを用いて実現する技術が知られている。例えば、日英翻訳であれば、日本語文書と英語文書との対応を大量に学習させることで翻訳精度を上げる方法が知られている。
 非特許文献1には、意味が類似する文を類似度の高いベクトルへと写像する技術が開示されている。
Nils Reimers,SentenceTransformers Documentation,[online],インターネット<URL:https://www.sbert.net/index.html>
 上記の従来技術において利用できる対訳データは、類似したテキストの集合、或いは、対訳テキストのペアの集合であるが、テキスト同士の対応付けが明確でないものも多く、それらに関しては利用を諦めるか、あるいは人手で対応付けを行うなどが必要である。そのため、利用しやすい対訳データを大量に準備することが難しいという問題がある。
 開示の技術は、対訳データによらずに、異なる言語間で意味の近いテキストを出力することを目的とする。
 開示の技術は、言語モデルのパラメータを更新するための学習装置であって、前記言語モデルに基づいて、第一言語のコーパスを圧縮した第一圧縮ベクトルを生成する第一言語圧縮ベクトル生成部と、前記第一圧縮ベクトルに基づいて、前記言語モデルのパラメータを更新する第一パラメータ更新部と、前記言語モデルに基づいて、第二言語のコーパスを圧縮した第二圧縮ベクトルを生成する第二言語圧縮ベクトル生成部と、前記第二圧縮ベクトルに基づいて、前記言語モデルのパラメータを更新する第二パラメータ更新部と、それぞれ意味が同じテキストから生成された前記第一圧縮ベクトルと前記第二圧縮ベクトルの類似度を算出する類似度算出部と、前記類似度に基づいて、言語モデルのパラメータを更新する第三パラメータ更新部と、を備える学習装置である。
 対訳データによらずに、異なる言語間で意味の近いテキストを出力することができる。
学習装置の機能構成図である。 言語モデルの一例を示す第一の図である。 言語モデルの一例を示す第二の図である。 言語モデルの一例を示す第三の図である。 学習処理の流れの一例を示すフローチャートである。 対訳文出力装置の機能構成図である。 対訳文出力処理における言語モデルの使用方法について説明するための図である。 対訳文出力処理の流れの一例を示すフローチャートである。 コンピュータのハードウェア構成例を示す図である。
 以下、図面を参照して本発明の実施の形態(本実施の形態)を説明する。以下で説明する実施の形態は一例に過ぎず、本発明が適用される実施の形態は、以下の実施の形態に限られるわけではない。
 (本実施の形態の概要)
 本実施の形態に係る学習装置は、二つの言語のそれぞれのテキストを一つの意味空間上にベクトルとして圧縮変換する学習と、二つの言語の対訳コーパスを用いて同じ意味の文を入力とした場合に、各言語の圧縮ベクトルを一致或いは近傍に集める学習と、を行って、言語モデルのパラメータを更新する。また、本実施の形態に係る対訳文出力装置は、学習装置によって更新されたパラメータを適用した言語モデルに基づいて対訳文を出力する。なお、対訳文とは、入力された第一言語のテキストに対応する第二言語のテキストであって、単語、フレーズ、文章、段落等を含む。
 (学習装置の機能構成例)
 図1は、学習装置の機能構成図である。学習装置10は、モデル記憶部11と、第一言語コーパス取得部12と、第一言語圧縮ベクトル生成部13と、第一パラメータ更新部14と、第二言語コーパス取得部15と、第二言語圧縮ベクトル生成部16と、第二パラメータ更新部17と、類似度算出部18と、第三パラメータ更新部19と、を備える。
 モデル記憶部11は、言語モデル100を記憶する。言語モデル100は、第一言語(例えば日本語)と第二言語(例えば英語)のそれぞれのテキストを圧縮または復元するオートエンコーダであって、中間層に入力されたテキストに対応する圧縮ベクトルを生成するように学習される。
 第一言語コーパス取得部12は、第一言語コーパス80を取得する。第一言語コーパス80は、例えば日本語を第一言語とする場合、日本語のテキストを構造化して集積された単言語のコーパスである。
 第一言語圧縮ベクトル生成部13は、言語モデル100に基づいて第一言語のコーパスを圧縮して、圧縮ベクトル(第一圧縮ベクトル)を生成する。
 第一パラメータ更新部14は、第一言語コーパス80を使用して、生成された圧縮ベクトルがコーパスに対応する意味となるように学習することによって、言語モデル100のモデルパラメータを更新する。
 第二言語コーパス取得部15は、第二言語コーパス81を取得する。第二言語コーパス81は、例えば英語を第二言語とする場合、英語のテキストを構造化して集積された単言語のコーパスである。
 第二言語圧縮ベクトル生成部16は、言語モデル100に基づいて第二言語のコーパスを圧縮して、圧縮ベクトル(第二圧縮ベクトル)を生成する。
 第二パラメータ更新部17は、第二言語コーパス81を使用して、生成された圧縮ベクトルがコーパスに対応する意味となるように学習することによって、言語モデル100のモデルパラメータを更新する。
 類似度算出部18は、第一言語コーパス80から生成された圧縮ベクトル(第一圧縮ベクトル)と、第二言語コーパス81から生成された圧縮ベクトル(第二圧縮ベクトル)が、同じ意味のテキストから生成された場合に、これらの圧縮ベクトルの類似度を算出する。類似度は、例えば圧縮ベクトル間のノルムまたはcosine距離等である。なお、類似度算出部18は、同じ意味のテキストから生成されたか否かを、対訳コーパス等に基づいて判定する。また、第一言語圧縮ベクトル生成部13および第二言語圧縮ベクトル生成部16は、類似度の算出の対象となる第一言語の圧縮ベクトル(第一圧縮ベクトル)と第二言語の圧縮ベクトル(第二圧縮ベクトル)とを、第一言語コーパス80または第二言語コーパス81ではなく対訳コーパスを圧縮して生成しても良い。
 第三パラメータ更新部19は、同じ意味のテキストから生成される圧縮ベクトルの類似度を最大化するように、言語モデル100のモデルパラメータを更新する。
 (言語モデルの構成例)
 図2は、言語モデルの構成例を示す第一の図である。図2に示す言語モデル100は、(1)第一言語のオートエンコーダに相当するエンコーダ101、中間層102およびデコーダ103と、(2)第二言語のオートエンコーダに相当するエンコーダ104、中間層105およびデコーダ106と、を含む。また、(3)第三パラメータ更新部19による処理の対象は、第一言語の圧縮ベクトルの生成に関わるエンコーダ101および中間層102と、第二言語の圧縮ベクトルの生成に関わるエンコーダ104および中間層105である。
 エンコーダ101,104およびデコーダ103,106は、それぞれTransformers/Bert等(参考文献[1])の既存の言語モデルを適用しても良い。
 図2に示す言語モデルの形態は、圧縮ベクトル同士の類似度としてcosine距離を適用する場合などに使用でき、2つの言語の意味空間が完全な一致ではなく、緩やかに対応する場合にも用いることができる形態である。
 図3は、言語モデルの構成例を示す第二の図である。図3に示す言語モデル100は、(1)第一言語のオートエンコーダに相当するエンコーダ101、中間層102およびデコーダ103と、(2)第二言語のオートエンコーダに相当するエンコーダ104、中間層102およびデコーダ106と、を含む。すなわち、言語モデル100が備える中間層は、第一言語と第二言語で共通の中間層102となっている。また、(3)第三パラメータ更新部19による処理の対象は、第一言語の圧縮ベクトルの生成に関わるエンコーダ101および中間層102と、第二言語の圧縮ベクトルの生成に関わるエンコーダ104および中間層102である。
 図3に示す言語モデルの形態は、図2に示す言語モデルの形態とほぼ同等であるが、2つの言語の意味空間が完全に一致する場合に用いることができる。
 図4は、言語モデルの構成例を示す第三の図である。図4に示す言語モデル100は、(1)第一言語のオートエンコーダに相当するエンコーダ101、中間層102およびデコーダ103と、(2)第二言語のオートエンコーダに相当するエンコーダ101、中間層102およびデコーダ106と、を含む。すなわち、言語モデル100が備えるエンコーダおよび中間層は、第一言語と第二言語で共通のエンコーダ101および中間層102となっている。また、(3)第三パラメータ更新部19による処理の対象は、第一言語および第二言語の圧縮ベクトルの生成に関わるエンコーダ101および中間層102である。
 図4に示す言語モデルの形態は、例えば、図2に示す言語モデルの(3)にSentence-Bert(非特許文献1)の多言語モデルを適用した場合のモデルであり、適用するモデル内に二つのエンコーダの機能を既に含んでいる場合に適用できる形式的な形態である。図4に示す言語モデルの形態は、実質的には図2または図3に示す言語モデルの形態と同等である。
 同様に、二つのデコーダの機能を一つのデコーダに包含する場合には、形式的に一つのデコーダにより表現することもできる。
 (学習装置の動作例)
 次に、学習装置10の動作例について、図面を参照して説明する。学習装置10は、ユーザの操作等を受けて、または定期的に、学習処理を開始する。
 図5は、学習処理の流れの一例を示すフローチャートである。第一言語コーパス取得部12は、第一言語のコーパスを取得する(ステップS11)。次に、第一言語圧縮ベクトル生成部13は、第一言語のコーパスの圧縮ベクトルを生成する(ステップS12)。続いて、第一パラメータ更新部14は、第一言語のコーパスの圧縮ベクトルに基づいて、言語モデルのパラメータを更新する(ステップS13)。
 ステップS11からステップS13までの処理は、第一言語のオートエンコーダを学習するための第一の学習に相当する。
 また、第二言語コーパス取得部15は、第二言語のコーパスを取得する(ステップS14)。次に、第二言語圧縮ベクトル生成部16は、第二言語のコーパスの圧縮ベクトルを生成する(ステップS15)。続いて、第二パラメータ更新部17は、第二言語のコーパスの圧縮ベクトルに基づいて、言語モデルのパラメータを更新する(ステップS16)。
 ステップS14からステップS16までの処理は、第二言語のオートエンコーダを学習するための第二の学習に相当する。
 続いて、類似度算出部18は、第一言語のコーパスの圧縮ベクトルと、第二言語のコーパスの圧縮ベクトルとの類似度を算出する(ステップS17)。算出される類似度は、例えば圧縮ベクトル間のノルムまたはcosine距離等である。
 そして、第三パラメータ更新部19は、類似度に基づいて、言語モデルのパラメータを更新する(ステップS18)。例えば、第三パラメータ更新部19は、意味が共通する圧縮ベクトル間のノルムまたはcosine距離を最小化するように、言語モデルのパラメータを更新する。
 ステップS17からステップS18までの処理は、類似度を最大化(ノルムまたはcosine距離を最小化)するための第三の学習に相当する。
 このようにして、本実施の形態に係る学習装置10は、3つの学習(パラメータ更新)処理を組み合わせることによって、第一言語および第二言語のそれぞれのテキストを一つの意味空間上にベクトルとして圧縮変換することが可能となり、意味が同じテキストであれば、同等の圧縮ベクトルを得られるように学習することができる。
 また、第三の学習のみでは過学習が起こる可能性が高いが、第一、第二の学習を組み合わせることにより、汎化の学習効果が得られ、過学習が抑制されることが期待できる。
 なお、学習装置10は、学習の組み合わせ方としては、それぞれを一定回数毎に順番に学習を繰り返しても良いし、一定期間の学習誤差を全てプールし、バッチ処理として重みの更新を行っても良い。
 (対訳文出力装置の機能構成)
 図6は、対訳文出力装置の機能構成図である。対訳文出力装置20は、モデル記憶部21と、第一言語テキスト取得部22と、第一言語圧縮ベクトル生成部23と、第二言語対訳文候補取得部24と、第二言語圧縮ベクトル生成部25と、類似度算出部26と、対訳文選択部27と、出力部28と、を備える。
 モデル記憶部21は、言語モデル200を記憶する。言語モデル200は、学習装置10によってパラメータを更新された学習済みの言語モデルである。
 第一言語テキスト取得部22は、第一言語テキスト90を取得する。第一言語テキスト90は、例えば日本語を第一言語として対訳文を出力する場合、対訳の対象となる日本語のテキストである。
 第一言語圧縮ベクトル生成部23は、言語モデル200に基づいて第一言語のテキストを圧縮して、圧縮ベクトル(第一圧縮ベクトル)を生成する。
 第二言語対訳文候補取得部24は、第二言語対訳文候補91を取得する。第二言語対訳文候補91は、例えば英語を第二言語とする場合、第一言語の一例である日本語の対訳の候補となる英語のテキストの集合である。
 第二言語圧縮ベクトル生成部25は、言語モデル200に基づいて第二言語の対訳文候補を圧縮して、圧縮ベクトル(第二圧縮ベクトル)を生成する。
 類似度算出部26は、第一言語のテキストから生成された圧縮ベクトル(第一圧縮ベクトル)と、第二言語の複数の対訳文候補から生成されたそれぞれの圧縮ベクトル(第二圧縮ベクトル)との類似度を算出する。類似度の算出方法は、学習装置10の類似度算出部18と同様である。
 対訳文選択部27は、複数の対訳文の候補から、類似度に基づいて対訳文を選択する。具体的には、類似度が圧縮ベクトルのcosine距離である場合、対訳文選択部27は、対訳文候補から生成された複数の圧縮ベクトルのうち、cosine距離が最小となる圧縮ベクトルの生成元の対訳文を選択する。
 出力部28は、選択された対訳文を出力する。具体的には、出力部28は、対訳文を示す情報を他の装置等に送信するか、または表示装置等に表示する。
 (対訳文出力処理における言語モデル)
 図7は、対訳文出力処理における言語モデルの使用方法について説明するための図である。図7に示す言語モデル200は、図2に示した言語モデル100を対訳文の出力処理に適用したものである。
 言語モデル200は、(1)第一言語のテキストの圧縮ベクトルの生成に関するエンコーダ201および中間層202と、(2)第二言語の対訳文候補の圧縮ベクトルの生成に関するエンコーダ203および中間層204と、(3)類似度の算出に関する中間層205と、(4)算出された類似度を示す情報を記憶する記憶部206と、を含む。
 (対訳文出力装置の動作例)
 次に、対訳文出力装置20の動作例について、図面を参照して説明する。対訳文出力装置20は、ユーザの操作等を受けて、または定期的に、対訳文出力処理を開始する。
 図8は、対訳文出力処理の流れの一例を示すフローチャートである。第一言語テキスト取得部22は、第一言語テキストを取得する(ステップS21)。次に、第一言語圧縮ベクトル生成部23は、第一言語テキストの圧縮ベクトルを生成する(ステップS22)。
 続いて、第二言語対訳文候補取得部24は、第二言語の対訳文の候補を取得する(ステップS23)。第二言語圧縮ベクトル生成部25は、第二言語の対訳文の候補の圧縮ベクトルを生成する(ステップS24)。
 次に、類似度算出部26は、第一言語テキストの圧縮ベクトルと、第二言語の対訳文の候補の圧縮ベクトルとの類似度を算出する(ステップS25)。対訳文選択部27は、類似度に基づいて対訳文を選択する(ステップS26)。
 そして、出力部28は、選択された対訳文を出力する(ステップS27)。
 (本実施の形態に係るハードウェア構成例)
 学習装置10および対訳文出力装置20は、例えば、コンピュータに、本実施の形態で説明する処理内容を記述したプログラムを実行させることにより実現可能である。なお、この「コンピュータ」は、物理マシンであってもよいし、クラウド上の仮想マシンであってもよい。仮想マシンを使用する場合、ここで説明する「ハードウェア」は仮想的なハードウェアである。
 上記プログラムは、コンピュータが読み取り可能な記録媒体(可搬メモリ等)に記録して、保存したり、配布したりすることが可能である。また、上記プログラムをインターネットや電子メール等、ネットワークを通して提供することも可能である。
 図9は、上記コンピュータのハードウェア構成例を示す図である。図9のコンピュータは、それぞれバスBで相互に接続されているドライブ装置1000、補助記憶装置1002、メモリ装置1003、CPU1004、インタフェース装置1005、表示装置1006、入力装置1007、出力装置1008等を有する。
 当該コンピュータでの処理を実現するプログラムは、例えば、CD-ROM又はメモリカード等の記録媒体1001によって提供される。プログラムを記憶した記録媒体1001がドライブ装置1000にセットされると、プログラムが記録媒体1001からドライブ装置1000を介して補助記憶装置1002にインストールされる。但し、プログラムのインストールは必ずしも記録媒体1001より行う必要はなく、ネットワークを介して他のコンピュータよりダウンロードするようにしてもよい。補助記憶装置1002は、インストールされたプログラムを格納すると共に、必要なファイルやデータ等を格納する。
 メモリ装置1003は、プログラムの起動指示があった場合に、補助記憶装置1002からプログラムを読み出して格納する。CPU1004は、メモリ装置1003に格納されたプログラムに従って、当該装置に係る機能を実現する。インタフェース装置1005は、ネットワークに接続するためのインタフェースとして用いられる。表示装置1006はプログラムによるGUI(Graphical User Interface)等を表示する。入力装置1007はキーボード及びマウス、ボタン、又はタッチパネル等で構成され、様々な操作指示を入力させるために用いられる。出力装置1008は演算結果を出力する。なお、上記コンピュータは、CPU1004の代わりにGPU(Graphics Processing Unit)またはTPU(Tensor processing unit)を備えていても良く、CPU1004に加えて、GPUまたはTPUを備えていても良い。その場合、例えばニューラルネットワーク等の特殊な演算が必要な処理をGPUまたはTPUが実行し、その他の処理をCPU1004が実行する、というように処理を分担して実行しても良い。
 (本実施の形態の効果)
 本実施の形態に係る学習装置10によれば、3つの学習(パラメータ更新)処理を組み合わせることによって、第一言語および第二言語のそれぞれのテキストを一つの意味空間上にベクトルとして圧縮変換することが可能となり、意味が同じテキストであれば、同等の圧縮ベクトルを得られるように学習する。
 近年ではインターネット等を介して膨大な数の単言語のコーパスが提供されているため、単言語のコーパスの収集は比較的容易である。したがって、入手しやすい単言語のコーパスを利用することによって、大量の学習データを利用でき、圧縮次元における意味空間の滑らかさを実現させることができる。
 このようにして学習された言語モデルを利用することによって、対訳文出力装置20は、異なる言語間で意味の近い文を発見することが容易になり、精度の高い対訳文を選択して出力することができる。
 (参考文献)
 [1]:The Hugging Face Team,Transformers,[online],インターネット<URL:https://huggingface.co/transformers/index.html>
 (実施の形態のまとめ)
 本明細書には、少なくとも下記の各項に記載した学習装置、対訳文出力装置、学習方法、対訳文出力方法およびプログラムが記載されている。
(第1項)
 言語モデルのパラメータを更新するための学習装置であって、
 前記言語モデルに基づいて、第一言語のコーパスを圧縮した第一圧縮ベクトルを生成する第一言語圧縮ベクトル生成部と、
 前記第一圧縮ベクトルに基づいて、前記言語モデルのパラメータを更新する第一パラメータ更新部と、
 前記言語モデルに基づいて、第二言語のコーパスを圧縮した第二圧縮ベクトルを生成する第二言語圧縮ベクトル生成部と、
 前記第二圧縮ベクトルに基づいて、前記言語モデルのパラメータを更新する第二パラメータ更新部と、
 それぞれ意味が同じテキストから生成された前記第一圧縮ベクトルと前記第二圧縮ベクトルの類似度を算出する類似度算出部と、
 前記類似度に基づいて、言語モデルのパラメータを更新する第三パラメータ更新部と、を備える、
 学習装置。
(第2項)
 前記類似度算出部は、前記第一圧縮ベクトルと前記第二圧縮ベクトルとのノルムまたはcosine距離を、前記類似度として算出し、
 前記第三パラメータ更新部は、前記ノルムまたは前記cosine距離を最小化するように前記パラメータを更新する、
 第1項に記載の学習装置。
(第3項)
 前記言語モデルは、第一言語の圧縮ベクトルを中間層に生成するエンコーダと、第二言語の圧縮ベクトルを中間層に生成するエンコーダと、を含むオートエンコーダである、
 第1項または第2項に記載の学習装置。
(第4項)
 第一言語のテキストの第二言語の対訳文を出力するための対訳文出力装置であって、
 前記第一言語のテキストを圧縮して第一圧縮ベクトルを生成する第一言語圧縮ベクトル生成部と、
 前記第二言語の複数の対訳文候補を圧縮して第二圧縮ベクトルを生成する第二言語圧縮ベクトル生成部と、
 前記第一圧縮ベクトルと、それぞれの前記第二圧縮ベクトルとの類似度を算出する類似度算出部と、
 前記類似度に基づいて対訳文候補から対訳文を選択する対訳文選択部と、
 選択された前記対訳文を出力する出力部と、を備える、
 対訳文出力装置。
(第5項)
 言語モデルのパラメータを更新するための学習装置が実行する学習方法であって、
 前記言語モデルに基づいて、第一言語のコーパスを圧縮した第一圧縮ベクトルを生成するステップと、
 前記第一圧縮ベクトルに基づいて、前記言語モデルのパラメータを更新するステップと、
 前記言語モデルに基づいて、第二言語のコーパスを圧縮した第二圧縮ベクトルを生成するステップと、
 前記第二圧縮ベクトルに基づいて、前記言語モデルのパラメータを更新するステップと、
 それぞれ意味が同じテキストから生成された前記第一圧縮ベクトルと前記第二圧縮ベクトルの類似度を算出するステップと、
 前記類似度に基づいて、言語モデルのパラメータを更新するステップと、を備える、
 学習方法。
(第6項)
 第一言語のテキストの第二言語の対訳文を出力するための対訳文出力装置が実行する対訳文出力方法であって、
 前記第一言語のテキストを圧縮して第一圧縮ベクトルを生成するステップと、
 前記第二言語の複数の対訳文候補を圧縮して第二圧縮ベクトルを生成するステップと、
 前記第一圧縮ベクトルと、それぞれの前記第二圧縮ベクトルとの類似度を算出するステップと、
 前記類似度に基づいて対訳文候補から対訳文を選択するステップと、
 選択された前記対訳文を出力するステップと、を備える、
 対訳文出力方法。
(第7項)
 コンピュータを、第1項から第3項のいずれか1項に記載の学習装置における各部として機能させるためのプログラム、または、コンピュータを、第4項に記載の対訳文出力装置における各部として機能させるためのプログラム。
 以上、本実施の形態について説明したが、本発明はかかる特定の実施形態に限定されるものではなく、請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
10 学習装置
11 モデル記憶部
12 第一言語コーパス取得部
13 第一言語圧縮ベクトル生成部
14 第一パラメータ更新部
15 第二言語コーパス取得部
16 第二言語圧縮ベクトル生成部
17 第二パラメータ更新部
18 類似度算出部
19 第三パラメータ更新部
20 対訳文出力装置
21 モデル記憶部
22 第一言語テキスト取得部
23 第一言語圧縮ベクトル生成部
24 第二言語対訳文候補取得部
25 第二言語圧縮ベクトル生成部
26 類似度算出部
27 対訳文選択部
28 出力部
80 第一言語コーパス
81 第二言語コーパス
90 第一言語テキスト
91 第二言語対訳文候補
100 言語モデル
200 言語モデル
1000 ドライブ装置
1001 記録媒体
1002 補助記憶装置
1003 メモリ装置
1004 CPU
1005 インタフェース装置
1006 表示装置
1007 入力装置
1008 出力装置

Claims (7)

  1.  言語モデルのパラメータを更新するための学習装置であって、
     前記言語モデルに基づいて、第一言語のコーパスを圧縮した第一圧縮ベクトルを生成する第一言語圧縮ベクトル生成部と、
     前記第一圧縮ベクトルに基づいて、前記言語モデルのパラメータを更新する第一パラメータ更新部と、
     前記言語モデルに基づいて、第二言語のコーパスを圧縮した第二圧縮ベクトルを生成する第二言語圧縮ベクトル生成部と、
     前記第二圧縮ベクトルに基づいて、前記言語モデルのパラメータを更新する第二パラメータ更新部と、
     それぞれ意味が同じテキストから生成された前記第一圧縮ベクトルと前記第二圧縮ベクトルの類似度を算出する類似度算出部と、
     前記類似度に基づいて、言語モデルのパラメータを更新する第三パラメータ更新部と、を備える、
     学習装置。
  2.  前記類似度算出部は、前記第一圧縮ベクトルと前記第二圧縮ベクトルとのノルムまたはcosine距離を、前記類似度として算出し、
     前記第三パラメータ更新部は、前記ノルムまたは前記cosine距離を最小化するように前記パラメータを更新する、
     請求項1に記載の学習装置。
  3.  前記言語モデルは、第一言語の圧縮ベクトルを中間層に生成するエンコーダと、第二言語の圧縮ベクトルを中間層に生成するエンコーダと、を含むオートエンコーダである、
     請求項1または2に記載の学習装置。
  4.  第一言語のテキストの第二言語の対訳文を出力するための対訳文出力装置であって、
     前記第一言語のテキストを圧縮して第一圧縮ベクトルを生成する第一言語圧縮ベクトル生成部と、
     前記第二言語の複数の対訳文候補を圧縮して第二圧縮ベクトルを生成する第二言語圧縮ベクトル生成部と、
     前記第一圧縮ベクトルと、それぞれの前記第二圧縮ベクトルとの類似度を算出する類似度算出部と、
     前記類似度に基づいて対訳文候補から対訳文を選択する対訳文選択部と、
     選択された前記対訳文を出力する出力部と、を備える、
     対訳文出力装置。
  5.  言語モデルのパラメータを更新するための学習装置が実行する学習方法であって、
     前記言語モデルに基づいて、第一言語のコーパスを圧縮した第一圧縮ベクトルを生成するステップと、
     前記第一圧縮ベクトルに基づいて、前記言語モデルのパラメータを更新するステップと、
     前記言語モデルに基づいて、第二言語のコーパスを圧縮した第二圧縮ベクトルを生成するステップと、
     前記第二圧縮ベクトルに基づいて、前記言語モデルのパラメータを更新するステップと、
     それぞれ意味が同じテキストから生成された前記第一圧縮ベクトルと前記第二圧縮ベクトルの類似度を算出するステップと、
     前記類似度に基づいて、言語モデルのパラメータを更新するステップと、を備える、
     学習方法。
  6.  第一言語のテキストの第二言語の対訳文を出力するための対訳文出力装置が実行する対訳文出力方法であって、
     前記第一言語のテキストを圧縮して第一圧縮ベクトルを生成するステップと、
     前記第二言語の複数の対訳文候補を圧縮して第二圧縮ベクトルを生成するステップと、
     前記第一圧縮ベクトルと、それぞれの前記第二圧縮ベクトルとの類似度を算出するステップと、
     前記類似度に基づいて対訳文候補から対訳文を選択するステップと、
     選択された前記対訳文を出力するステップと、を備える、
     対訳文出力方法。
  7.  コンピュータを、請求項1から3のいずれか1項に記載の学習装置における各部として機能させるためのプログラム、または、コンピュータを、請求項4に記載の対訳文出力装置における各部として機能させるためのプログラム。
PCT/JP2021/022581 2021-06-14 2021-06-14 学習装置、対訳文出力装置、学習方法、対訳文出力方法およびプログラム WO2022264232A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/022581 WO2022264232A1 (ja) 2021-06-14 2021-06-14 学習装置、対訳文出力装置、学習方法、対訳文出力方法およびプログラム
JP2023528774A JPWO2022264232A1 (ja) 2021-06-14 2021-06-14

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/022581 WO2022264232A1 (ja) 2021-06-14 2021-06-14 学習装置、対訳文出力装置、学習方法、対訳文出力方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2022264232A1 true WO2022264232A1 (ja) 2022-12-22

Family

ID=84526874

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/022581 WO2022264232A1 (ja) 2021-06-14 2021-06-14 学習装置、対訳文出力装置、学習方法、対訳文出力方法およびプログラム

Country Status (2)

Country Link
JP (1) JPWO2022264232A1 (ja)
WO (1) WO2022264232A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014010634A (ja) * 2012-06-29 2014-01-20 National Institute Of Information & Communication Technology 対訳表現抽出装置、対訳表現抽出方法及び対訳表現抽出のためのコンピュータプログラム
US20170060854A1 (en) * 2015-08-25 2017-03-02 Alibaba Group Holding Limited Statistics-based machine translation method, apparatus and electronic device
WO2018055983A1 (ja) * 2016-09-23 2018-03-29 パナソニックIpマネジメント株式会社 翻訳装置、翻訳システム、および評価サーバ

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014010634A (ja) * 2012-06-29 2014-01-20 National Institute Of Information & Communication Technology 対訳表現抽出装置、対訳表現抽出方法及び対訳表現抽出のためのコンピュータプログラム
US20170060854A1 (en) * 2015-08-25 2017-03-02 Alibaba Group Holding Limited Statistics-based machine translation method, apparatus and electronic device
WO2018055983A1 (ja) * 2016-09-23 2018-03-29 パナソニックIpマネジメント株式会社 翻訳装置、翻訳システム、および評価サーバ

Also Published As

Publication number Publication date
JPWO2022264232A1 (ja) 2022-12-22

Similar Documents

Publication Publication Date Title
CN109213995B (zh) 一种基于双语词嵌入的跨语言文本相似度评估技术
US20150127373A1 (en) Interactive Multilingual Word-Alignment Techniques
WO2014196375A1 (ja) 翻訳装置、学習装置、翻訳方法、および記録媒体
JP2007199793A (ja) 単語アライメント例文対訳辞書学習装置と訳語抽出装置
JP6817556B2 (ja) 類似文生成方法、類似文生成プログラム、類似文生成装置及び類似文生成システム
JP2009129032A (ja) 翻訳装置及び翻訳プログラム
CN111144140A (zh) 基于零次学习的中泰双语语料生成方法及装置
EP2851809A2 (en) Machine translation apparatus and method
Xiong et al. Extended HMM and ranking models for Chinese spelling correction
WO2022264232A1 (ja) 学習装置、対訳文出力装置、学習方法、対訳文出力方法およびプログラム
JP2017010274A (ja) 対応付け装置及びプログラム
JP5791097B2 (ja) 対訳フレーズ学習装置、フレーズベース統計的機械翻訳装置、対訳フレーズ学習方法、および対訳フレーズ生産方法
JP2020177196A (ja) 手話cg制作支援装置及びプログラム
US20210312144A1 (en) Translation device, translation method, and program
Boitet et al. Evolution of MT with the Web
Maarif et al. Survey on language processing algorithm for sign language synthesizer
JP5428199B2 (ja) 対訳文抽出装置及び対訳文抽出方法
Zhu et al. Sentence-level paraphrasing for machine translation system combination
JP2019008744A (ja) 学習装置、テキスト生成装置、方法、及びプログラム
Carson-Berndsen et al. Integrated language technology as part of next generation localisation
US20200279024A1 (en) Non-transitory computer readable medium
JP5298833B2 (ja) 翻訳装置及び翻訳プログラム
WO2014203681A1 (ja) 対訳フレーズ学習装置、統計的機械翻訳装置、対訳フレーズ学習方法、および記録媒体
WO2024004183A1 (ja) 抽出装置、生成装置、抽出方法、生成方法、及びプログラム
Kri et al. Phrase-based machine translation of Digaru-English

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21945912

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023528774

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE