JP7122835B2 - Machine translation device, translation trained model and judgment trained model - Google Patents

Machine translation device, translation trained model and judgment trained model Download PDF

Info

Publication number
JP7122835B2
JP7122835B2 JP2018024067A JP2018024067A JP7122835B2 JP 7122835 B2 JP7122835 B2 JP 7122835B2 JP 2018024067 A JP2018024067 A JP 2018024067A JP 2018024067 A JP2018024067 A JP 2018024067A JP 7122835 B2 JP7122835 B2 JP 7122835B2
Authority
JP
Japan
Prior art keywords
translation
category
unit
corpus
machine
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018024067A
Other languages
Japanese (ja)
Other versions
JP2019139629A (en
Inventor
保静 松岡
俊允 中村
聡一朗 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2018024067A priority Critical patent/JP7122835B2/en
Publication of JP2019139629A publication Critical patent/JP2019139629A/en
Application granted granted Critical
Publication of JP7122835B2 publication Critical patent/JP7122835B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、機械翻訳を行う機械翻訳装置、翻訳学習済みモデル及び判定学習済みモデルに関する。 The present invention relates to a machine translation device that performs machine translation, a translation-learned model, and a determination-learned model.

近年、機械翻訳においてニューラルネットワークを用いたニューラル機械翻訳が注目されつつある。従来の統計ベースの機械翻訳に比べて、より自然な翻訳が可能なため、ニューラルネットワークを用いた機械学習による翻訳システムが開発されている。例えば下記特許文献1では、ニューラルネットワークを用いた機械翻訳装置が開示されている。 In recent years, attention has been focused on neural machine translation using neural networks in machine translation. A translation system based on machine learning using a neural network has been developed because it enables more natural translation than conventional statistical-based machine translation. For example, Patent Document 1 below discloses a machine translation device using a neural network.

特開平06-332935号公報JP-A-06-332935

しかしながら、ニューラルネットワーク等を用いた機械翻訳では、翻訳対象の語彙数が増えるほど、例えばニューラルネットワークのサイズが大きくなることで、翻訳処理時間が増えるという問題がある。 However, in machine translation using a neural network or the like, there is a problem that as the number of words to be translated increases, for example, the size of the neural network increases, resulting in an increase in translation processing time.

そこで、本発明はかかる課題に鑑みて為されたものであり、機械翻訳における翻訳処理時間を抑えることができる機械翻訳装置、翻訳学習済みモデル及び判定学習済みモデルを提供することを目的とする。 Therefore, the present invention has been made in view of such problems, and aims to provide a machine translation device, a translation-learned model, and a determination-learned model that can reduce translation processing time in machine translation.

上記課題を解決するため、本発明の一側面に係る機械翻訳装置は、カテゴリごとの翻訳部であって、各翻訳部は属するカテゴリのコーパスを用いた機械学習により得られた翻訳学習済みモデルを用いて当該カテゴリの文章を翻訳する、翻訳部と、入力された入力文章のカテゴリを、各翻訳部の機械学習で用いたコーパスに基づいた機械学習により得られた判定学習済みモデルを用いて判定する判定部と、判定部によって判定されたカテゴリの翻訳部を用いて入力文章を翻訳し、翻訳結果を出力する制御部と、を備える。 In order to solve the above problems, the machine translation device according to one aspect of the present invention is a translation unit for each category, and each translation unit uses a translation trained model obtained by machine learning using the corpus of the category to which it belongs. A translation unit that translates sentences in the category using a translation unit, and the category of the input sentence is judged using a judgment-learned model obtained by machine learning based on the corpus used in the machine learning of each translation unit. and a control unit that translates the input sentence using the translation unit of the category determined by the determination unit and outputs the translation result.

このような機械翻訳装置によれば、カテゴリごとの翻訳部の翻訳学習済みモデルを用いて文章が翻訳される。この場合、例えば、単体の翻訳部が扱う翻訳対象の語彙は、属するカテゴリで使われる語彙に限定できるため、翻訳学習済みモデルが扱う語彙数を少なくすることができる。それにより、単体の翻訳部の翻訳処理時間を抑えることができ、機械翻訳装置全体の翻訳処理時間を抑えることができる。また、判定学習済みモデルは、翻訳部の翻訳学習済みモデルの機械学習で用いたコーパスに基づいた機械学習により得られた学習済みモデルである。そのような判定学習済みモデルを用いてカテゴリを判定するため、例えば、翻訳学習済みモデルが得意とする文章のカテゴリをより正確に判定することができる。それにより、より正確なカテゴリの翻訳部により翻訳されるため、翻訳精度を向上することができる。 According to such a machine translation device, sentences are translated using a translation-learned model of the translation unit for each category. In this case, for example, the vocabulary to be translated handled by the single translation unit can be limited to the vocabulary used in the category to which it belongs, so the number of vocabulary handled by the translation trained model can be reduced. As a result, the translation processing time of a single translation unit can be reduced, and the translation processing time of the entire machine translation apparatus can be reduced. Also, the judgment-learned model is a learned model obtained by machine learning based on the corpus used in the machine learning of the translation-learned model of the translation unit. Since a category is determined using such a determination-learned model, for example, the category of sentences that the translation-learned model is good at can be determined more accurately. As a result, the translation is performed by the translation unit of the more accurate category, so that the translation accuracy can be improved.

本発明によれば、機械翻訳における翻訳処理時間を抑えることができる。 According to the present invention, translation processing time in machine translation can be reduced.

本発明の実施形態に係る機械翻訳装置1の機能ブロック図である。1 is a functional block diagram of a machine translation device 1 according to an embodiment of the present invention; FIG. 翻訳部10の学習例を示す図である。4 is a diagram showing a learning example of the translation unit 10; FIG. 判定部11の学習例を示す図である。4 is a diagram showing a learning example of a determination unit 11; FIG. 判定部11による判定処理の一例を示す概念図である。4 is a conceptual diagram showing an example of determination processing by a determination unit 11; FIG. 判定部11による判定処理の一例を示すフローチャートである。4 is a flowchart showing an example of determination processing by a determination unit 11; 語彙数と翻訳処理時間との関係の一例を示すグラフである。10 is a graph showing an example of the relationship between the number of vocabularies and translation processing time; 本発明の実施形態に係る機械翻訳装置1のハードウェア構成図である。1 is a hardware configuration diagram of a machine translation device 1 according to an embodiment of the present invention; FIG.

以下、図面とともに装置の実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。また、以下の説明における実施形態は、本発明の具体例であり、特に本発明を限定する旨の記載がない限り、これらの実施形態に限定されないものとする。 Hereinafter, embodiments of the apparatus will be described in detail along with the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and overlapping descriptions are omitted. Moreover, the embodiments in the following description are specific examples of the present invention, and the present invention is not limited to these embodiments unless otherwise specified.

図1は、機械翻訳装置1の機能ブロック図である。図1に示す通り、機械翻訳装置1は、翻訳部10A、翻訳部10B、翻訳部10C、判定部11及び制御部12を含んで構成される。なお、翻訳部10A、翻訳部10B及び翻訳部10Cを総称して翻訳部10と適宜記す。 FIG. 1 is a functional block diagram of the machine translation device 1. As shown in FIG. As shown in FIG. 1, the machine translation device 1 includes a translation section 10A, a translation section 10B, a translation section 10C, a determination section 11 and a control section 12. FIG. The translation unit 10A, the translation unit 10B, and the translation unit 10C are collectively referred to as the translation unit 10 as appropriate.

機械翻訳装置1は、ユーザ等により入力された文章(入力文章)を翻訳し、翻訳結果をユーザ等に出力するコンピュータ装置である。翻訳とは、ある言語(第1言語)で表された文章を、他の言語(第2言語)に置き換えて表すことである。一例として、日本語の文章から英語の文章への翻訳が挙げられるが、これに限るものではない。文章は、一つ以上の文から構成される。文は、文字等で書かれたまとまった一連の言葉である。翻訳結果は、翻訳した結果に基づく情報であり、例えば、翻訳された文章(翻訳文章)等であるが、これに限るものではない。 The machine translation device 1 is a computer device that translates a text (input text) input by a user or the like and outputs the translation result to the user or the like. Translation is to replace a sentence expressed in a certain language (first language) with another language (second language). One example is translation from Japanese text to English text, but it is not limited to this. A sentence is composed of one or more sentences. A sentence is a series of cohesive words written in letters or the like. The translation result is information based on the translation result, and is, for example, a translated sentence (translated sentence), but is not limited to this.

以下、図1に示す機械翻訳装置1の各機能ブロックについて説明する。 Each functional block of the machine translation apparatus 1 shown in FIG. 1 will be described below.

翻訳部10は、カテゴリごとの翻訳部10であって、各翻訳部10は属するカテゴリのコーパスを用いた機械学習により得られた学習済みモデル(翻訳学習済みモデル)を用いて当該カテゴリの文章を翻訳する。図1に示す通り、機械翻訳装置1は、カテゴリAの翻訳部10A(翻訳部10AはカテゴリAに属する)、カテゴリBの翻訳部10B(翻訳部10BはカテゴリBに属する)及びカテゴリCの翻訳部10C(翻訳部10CはカテゴリCに属する)を含んで構成される。なお、カテゴリは3つに限るものではなく、1つ以上であればいかなる数であってもよい。 The translation unit 10 is a translation unit 10 for each category, and each translation unit 10 uses a trained model (translation trained model) obtained by machine learning using the corpus of the category to which it belongs to translate sentences of the category. translate. As shown in FIG. 1, the machine translation apparatus 1 includes a category A translation unit 10A (the translation unit 10A belongs to category A), a category B translation unit 10B (the translation unit 10B belongs to category B), and a category C translation unit. It includes a section 10C (the translation section 10C belongs to category C). Note that the number of categories is not limited to three, and may be any number of one or more.

カテゴリは、文章の分類上の区分、文章の種類、文章のジャンル、文章の領域、文章の分野又は文章のドメインである。カテゴリは、利用シーンに相当するものであり、例えば、病院で良く使われる話し言葉に強いカテゴリや、IT(Information Technology)分野のマニュアル等で良く使われる書き言葉に強いカテゴリ等である。本実施形態では、カテゴリAは医療カテゴリ、カテゴリBは旅行カテゴリ、カテゴリCは買物カテゴリを想定する。 A category is a taxonomic division of text, a text type, a text genre, a text area, a text field, or a text domain. A category corresponds to a usage scene, and includes, for example, a category that is strong against spoken language often used in hospitals, a category that is strong against written language often used in manuals in the field of IT (Information Technology), and the like. In this embodiment, it is assumed that category A is a medical category, category B is a travel category, and category C is a shopping category.

コーパスは、自然言語の文章を構造化し、大規模に集積したデータ(データベース)の一部又は全部である。本実施形態におけるコーパスは、第1言語(日本語)と、当該第1言語の翻訳である第2言語(英語)とが対応付けられたコーパス(対訳コーパス、対訳データ)を想定する。コーパスを用いた機械学習により学習済みモデルを得る処理や、学習済みモデルを用いて文章を翻訳する処理は、従来技術に則った処理である。 A corpus is part or all of data (database) that structures natural language sentences and accumulates them on a large scale. The corpus in this embodiment is assumed to be a corpus (parallel translation corpus, parallel translation data) in which a first language (Japanese) is associated with a second language (English) which is a translation of the first language. The process of obtaining a trained model by machine learning using a corpus and the process of translating sentences using the trained model are processes in accordance with conventional techniques.

学習済みモデルは、コンピュータプログラムとパラメータとの組み合わせである。また、学習済みモデルは、ニューラルネットワークの構造と当該ニューラルネットワークの各ニューロン間の結びつきの強さであるパラメータ(重み付け係数)との組み合わせである。また、学習済みモデルは、コンピュータに対する指令であって、一の結果を得る(所定の処理を実行する)ことができるように組み合わされたもの、すなわち、コンピュータを機能させるコンピュータプログラムである。 A trained model is a combination of a computer program and parameters. A trained model is a combination of a neural network structure and a parameter (weighting coefficient) that is the strength of connection between neurons of the neural network. Also, a trained model is a command to a computer that is combined to obtain a result (perform a predetermined process), that is, a computer program that causes the computer to function.

図2は、翻訳部10の学習例を示す図である。例えば、カテゴリAに属する翻訳部10Aは、機械学習を行う際に用いる学習データとして、カテゴリA専用コーパス及び汎用コーパスを用いる。カテゴリA専用コーパスは、カテゴリAに特化したコーパスであり、例えば、医療分野で良く使われる文章に関するコーパスである。汎用コーパスは、汎用的な言い回しに関するコーパスである。汎用コーパスは、語彙数を削減するために、特殊な専門用語や特別なカテゴリでしか使わない用語等は含まない文章又は単語等で構成する。翻訳部10B及び翻訳部10Cの学習についても、翻訳部10Aの学習と同様である。すなわち、カテゴリBに属する翻訳部10Bは、学習データとしてカテゴリB専用コーパス(例えば、旅行分野で良く使われる文章に関するコーパス)及び汎用コーパスを用い、カテゴリCに属する翻訳部10Cは、学習データとしてカテゴリC専用コーパス(例えば、買物分野で良く使われる文章に関するコーパス)及び汎用コーパスを用いる。 FIG. 2 is a diagram showing a learning example of the translation unit 10. As shown in FIG. For example, the translation unit 10A belonging to category A uses the category A dedicated corpus and general-purpose corpus as learning data used when performing machine learning. The category A dedicated corpus is a corpus specialized for category A, for example, a corpus related to sentences often used in the medical field. A generic corpus is a corpus of generic phrases. The general-purpose corpus consists of sentences or words that do not include special technical terms or terms that are used only in special categories, in order to reduce the number of vocabularies. The learning of the translation units 10B and 10C is similar to the learning of the translation unit 10A. That is, the translation unit 10B belonging to category B uses a corpus dedicated to category B (for example, a corpus related to sentences often used in the field of travel) and a general-purpose corpus as learning data, and the translation unit 10C belonging to category C uses category A C-specific corpus (for example, a corpus of sentences often used in the shopping field) and a general-purpose corpus are used.

以上のように、各カテゴリに属する翻訳部10はそれぞれ、当該カテゴリの専用コーパスに汎用コーパスを加えたコーパスで学習させる。なお、専用コーパスは、排他的であってもよく、その場合、同じ文章が他のコーパスに含まれることは無い。機械学習を行う際に、専用コーパスだけでは汎用的な言い回しに対応できないため、一部又は全ての翻訳部10にて、上述の通り共通に用いる汎用コーパスを利用している。また、翻訳部10A、翻訳部10B及び翻訳部10Cのいずれか一つ以上は、学習データとして汎用コーパスを用いずに、専用コーパスのみを用いてもよい。 As described above, the translation units 10 belonging to each category are trained using a corpus obtained by adding a general-purpose corpus to the dedicated corpus of the category. Note that the dedicated corpus may be exclusive, in which case the same sentences will not be included in other corpora. When performing machine learning, a dedicated corpus alone cannot handle general-purpose phrases, so some or all of the translation units 10 use a common general-purpose corpus as described above. Also, one or more of the translation units 10A, 10B, and 10C may use only a dedicated corpus as learning data without using a general-purpose corpus.

翻訳学習済みモデルは、ニューラルネットワークに基づく学習済みモデルであってもよい。また、翻訳学習済みモデルは、リカレントニューラルネットワークに基づく学習済みモデルであってもよい。また、翻訳学習済みモデルは、ニューラルネットワークに限らず、機械学習可能な情報処理に基づく学習済みモデルであってもよい。 The translation trained model may be a neural network-based trained model. Also, the translation trained model may be a trained model based on a recurrent neural network. Also, the translation-trained model is not limited to a neural network, and may be a trained model based on information processing that can be machine-learned.

翻訳学習済みモデルは、カテゴリごとの翻訳部10であって、各翻訳部10は属するカテゴリの文章を翻訳する、翻訳部10と、入力された入力文章のカテゴリを判定する判定部11と、判定部11によって判定されたカテゴリの翻訳部10を用いて入力文章を翻訳し、翻訳結果を出力する制御部12と、を備える機械翻訳装置1の翻訳部10が文章を翻訳する際に用いる翻訳学習済みモデルであって、当該翻訳学習済みモデルを用いる翻訳部10が属するカテゴリのコーパス(専用コーパス)を用いて重み付け係数が学習されたニューラルネットワークにより構成され、判定部11は、当該翻訳学習済みモデルの学習で用いたコーパス(専用コーパス)に基づいた機械学習により得られた判定学習済みモデルを用いてカテゴリを判定してもよい。 The translation-learned model is a translation unit 10 for each category, and each translation unit 10 translates sentences of the category to which it belongs. Translation learning used when the translation unit 10 of the machine translation device 1, which includes a control unit 12 that translates the input sentence using the translation unit 10 of the category determined by the unit 11 and outputs the translation result, translates the sentence. It is a trained model, and is composed of a neural network in which weighting coefficients have been learned using a corpus (dedicated corpus) of the category to which the translation unit 10 using the translation trained model belongs. The category may be determined using a model that has undergone determination training obtained by machine learning based on the corpus (dedicated corpus) used in the learning of .

翻訳学習済みモデルは、所定のカテゴリの入力された入力文章を翻訳し、翻訳結果を出力するよう、コンピュータを機能させるための翻訳学習済みモデルであって、カテゴリのコーパス(専用コーパス)を用いて重み付け係数が学習されたニューラルネットワークにより構成され、当該カテゴリは、当該コーパス(専用コーパス)に基づいた機械学習により得られた判定学習済みモデルを用いて判定された入力文章のカテゴリであってもよい。 A translation-trained model is a translation-trained model for functioning a computer to translate an input sentence of a predetermined category and output a translation result, using a category corpus (dedicated corpus) The category may be the category of the input text determined using a trained model obtained by machine learning based on the corpus (dedicated corpus). .

判定部11は、(後述の制御部12より)入力された入力文章のカテゴリを、各翻訳部10(翻訳部10A、翻訳部10B及び翻訳部10C)の機械学習で用いたコーパス(専用コーパス)に基づいた機械学習により得られた判定学習済みモデルを用いて判定する。コーパスに基づいた機械学習により学習済みモデルを得る処理や、学習済みモデルを用いて文章のカテゴリを判定する処理は、従来技術に則った処理である。 The determination unit 11 puts the category of the input text (from the control unit 12, which will be described later) into a corpus (dedicated corpus) used in machine learning of each translation unit 10 (translation unit 10A, translation unit 10B, and translation unit 10C). A decision-learned model obtained by machine learning based on is used for decision making. The process of obtaining a trained model by machine learning based on a corpus and the process of determining the category of sentences using the trained model are processes in accordance with conventional techniques.

図3は、判定部11の学習例を示す図である。判定部11は、学習データとして、翻訳部10Aの翻訳学習済みモデルの機械学習で用いたカテゴリA専用コーパス、翻訳部10Bの翻訳学習済みモデルの機械学習で用いたカテゴリB専用コーパス、及び翻訳部10Cの翻訳学習済みモデルの機械学習で用いたカテゴリC専用コーパスを用いる。より具体的には、判定部11は、学習データとして、カテゴリA専用コーパスの第1言語とカテゴリAを示す情報(ラベル)との組、カテゴリB専用コーパスの第1言語とカテゴリBを示す情報(ラベル)との組、及びカテゴリC専用コーパスの第1言語とカテゴリCを示す情報(ラベル)との組を用いる。判定部11の学習では、所定のカテゴリの専用コーパスの第1言語の文章を入力として、出力(正解データ)を当該カテゴリのラベルとするように学習する。 FIG. 3 is a diagram showing a learning example of the determination unit 11. As shown in FIG. The determination unit 11 uses, as learning data, a category A dedicated corpus used in machine learning of the translation trained model of the translation unit 10A, a category B dedicated corpus used in machine learning of the translation trained model of the translation unit 10B, and a translation unit. A corpus dedicated to category C used in machine learning of 10C translation-trained models is used. More specifically, the determination unit 11 sets the first language of the category A dedicated corpus and the information (label) indicating the category A, the first language of the category B dedicated corpus and the information indicating the category B as learning data. (label), and a set of the first language of the category C dedicated corpus and the information (label) indicating the category C are used. In the learning of the determination unit 11, learning is performed so that sentences in the first language of the dedicated corpus of a predetermined category are input, and output (correct data) is used as the label of the category.

判定部11の学習について、具体例を挙げて説明する。判定部11は、まず、医療コーパス(カテゴリA)、旅行コーパス(カテゴリB)及び買物コーパス(カテゴリC)にラベル付けを行う。例として、医療コーパスの文章は1、旅行コーパスの文章は2、及び買物コーパスの文章は3とする。そして、判定部11の判定学習済みモデル(リカレントニューラルネットワーク等)に各コーパスの文章を入力し、入力文章のラベルの次元が「1」、その他は「0」となる出力ベクトルを正解データとして学習させる。この場合、カテゴリの種類が3種類のため、3次元の出力ベクトルとなり、医療コーパスであれば「(1,0,0)」、旅行コーパスであれば「(0、1,0)」、及び買物コーパスであれば「(0,0,1)」が正解データとなる。このように学習させることによって、入力文章を翻訳するのに適切なカテゴリが判定(識別)できるようになる。 The learning of the determination unit 11 will be described with a specific example. The determination unit 11 first labels the medical corpus (category A), the travel corpus (category B), and the shopping corpus (category C). As an example, let the sentence in the medical corpus be 1, the sentence in the travel corpus be 2, and the sentence in the shopping corpus be 3. Then, the sentences of each corpus are input to the decision-learned model (recurrent neural network, etc.) of the judgment unit 11, and the output vector whose label dimension of the input sentence is "1" and the other is "0" is learned as correct data. Let In this case, since there are three kinds of categories, the output vector becomes a three-dimensional output vector. In the shopping corpus, "(0, 0, 1)" is correct data. By learning in this way, it becomes possible to determine (identify) an appropriate category for translating an input sentence.

判定学習済みモデルは、ニューラルネットワークに基づく学習済みモデルであってもよい。また、判定学習済みモデルは、リカレントニューラルネットワークに基づく学習済みモデルであってもよい。また、判定学習済みモデルは、ニューラルネットワークに限らず、機械学習可能な情報処理に基づく学習済みモデルであってもよい。 The decision trained model may be a neural network based trained model. Also, the judgment trained model may be a trained model based on a recurrent neural network. Further, the judgment-learned model is not limited to a neural network, and may be a learned model based on machine-learnable information processing.

判定学習済みモデルは、カテゴリごとの翻訳部10であって、各翻訳部10は属するカテゴリのコーパス(専用コーパス)を用いた機械学習により得られた翻訳学習済みモデルを用いて当該カテゴリの文章を翻訳する、翻訳部10と、入力された入力文章のカテゴリを判定する判定部11と、判定部11によって判定されたカテゴリの翻訳部10を用いて入力文章を翻訳し、翻訳結果を出力する制御部12と、を備える機械翻訳装置1の判定部11がカテゴリを判定する際に用いる判定学習済みモデルであって、各翻訳部10の機械学習で用いたコーパス(専用コーパス)に基づいて重み付け係数が学習されたニューラルネットワークにより構成されてもよい。 The decision-learned model is the translation unit 10 for each category, and each translation unit 10 uses the translation-learned model obtained by machine learning using the corpus of the category to which it belongs (dedicated corpus) to translate the sentences of the category. Control for translating an input text using a translation unit 10 for translating, a determination unit 11 for determining the category of the input text, and a translation unit 10 for the category determined by the determination unit 11, and for outputting the translation result. A decision-learned model used when the decision unit 11 of the machine translation device 1 including the unit 12 decides the category, and a weighting factor based on the corpus (dedicated corpus) used in the machine learning of each translation unit 10 may be configured by a neural network in which is learned.

判定学習済みモデルは、入力された入力文章のカテゴリを判定するよう、コンピュータを機能させるための判定学習済みモデルであって、所定のコーパス(専用コーパス)に基づいて重み付け係数が学習されたニューラルネットワークにより構成され、入力文章は、当該判定学習済みモデルに基づいて判定されたカテゴリの当該コーパス(専用コーパス)を用いた機械学習により得られた翻訳学習済みモデルを用いて翻訳されてもよい。 A decision-learned model is a decision-learned model for making a computer function to determine the category of an input sentence, and is a neural network in which weighting coefficients have been learned based on a predetermined corpus (dedicated corpus). The input sentence may be translated using a translation-learned model obtained by machine learning using the corpus (dedicated corpus) of the category determined based on the determination-learned model.

図4は、判定部11による判定処理の一例を示す概念図である。図5は、判定部11による判定処理の一例を示すフローチャートである。以下、図4を参照しつつ、図5のフローチャートに基づいて、判定部11による判定処理の一例について説明する。まず、制御部12から入力文章を入力する(ステップS1)。次に、S1にて入力された入力文章を形態素解析(単語に分割)し、単語列を生成する(ステップS2)。次に、S2にて生成した単語列から単語を(前から順に)抽出する(ステップS3)。次に、単語をword IDに変換し、ニューラルネットワーク(判定学習済みモデル)の入力層に(順次)入力する(ステップS4)。次に、単語列に単語が残っているか否かを判定する(ステップS5)。S5にて残っていると判定された場合(S5:YES)、S3に戻り、残りの単語についてS3~S5の処理を繰り返す。一方、S5にて残っていないと判定された場合(S5:NO)、すなわち、入力文章の単語列を全て入力した場合、「<EOS>」(文章の終わりを示す記号)をニューラルネットワークの入力層に入力する(ステップS6)。次に、ニューラルネットワークの中間層のベクトルから、分類するカテゴリ数を次元数とする出力ベクトルを計算し、出力層とする。この出力ベクトルをSoftmax処理等で尤度計算し、最も尤度の高い次元に相当するカテゴリを判定結果とする(最適カテゴリと識別する)(ステップS7)。 FIG. 4 is a conceptual diagram showing an example of determination processing by the determination unit 11. As shown in FIG. FIG. 5 is a flowchart showing an example of determination processing by the determination unit 11. As shown in FIG. An example of determination processing by the determination unit 11 will be described below based on the flowchart of FIG. 5 with reference to FIG. 4 . First, an input sentence is input from the control section 12 (step S1). Next, the input sentence input in S1 is morphologically analyzed (divided into words) to generate a word string (step S2). Next, words are extracted (in order from the front) from the word string generated in S2 (step S3). Next, the words are converted into word IDs, and input (sequentially) to the input layer of the neural network (model trained for judgment) (step S4). Next, it is determined whether or not any word remains in the word string (step S5). If it is determined in S5 that words remain (S5: YES), the process returns to S3, and the processing of S3 to S5 is repeated for the remaining words. On the other hand, if it is determined in S5 that there are no remaining words (S5: NO), that is, if all the word strings of the input sentence have been input, "<EOS>" (a symbol indicating the end of the sentence) is input to the neural network. Input to the layer (step S6). Next, an output vector whose dimension number is the number of categories to be classified is calculated from the vector of the intermediate layer of the neural network, and is used as the output layer. The likelihood of this output vector is calculated by Softmax processing or the like, and the category corresponding to the dimension with the highest likelihood is taken as the judgment result (identified as the optimum category) (step S7).

以下では、上述の図4及び図5に関する説明について補足する。上述のニューラルネットワークは、リカレントニューラルネットワークであってもよい。ニューラルネットワークの入力層は、予め所定の次元数に設定する。例えば、入力文章の語彙数が5万語の場合、500次元に設定する。上述のニューラルネットワークの出力層は、カテゴリ数を次元数とするベクトルに設定する。上述の中間層のベクトルは、非線形な境界で判定(識別)を行うために利用される。中間層のベクトルも所定の次元数に設定する。例えば、中間層のベクトルを、入力層の次元数と同じに設定する。中間層のベクトルから出力層のベクトルに線形写像することで、出力層のベクトルが計算できる。出力層のベクトルの最も高い値を使ってもよいが、Softmax処理を行うことで、ベクトル値を正規化でき、確率分布値に変換できる。これにより、学習時に用いる正解データとして、該当カテゴリのみ「1」、他のカテゴリは「0」というベクトルを正解データに使えるようになる。 In the following, supplementary explanations regarding the above-described FIGS. 4 and 5 will be provided. The neural network described above may be a recurrent neural network. The input layer of the neural network is set in advance to have a predetermined number of dimensions. For example, if the vocabulary of the input sentence is 50,000 words, 500 dimensions are set. The output layer of the neural network described above is set to a vector whose dimension is the number of categories. The intermediate layer vectors described above are used to make decisions (identification) at non-linear boundaries. The vector of the hidden layer is also set to have a predetermined number of dimensions. For example, set the hidden layer vectors to the same number of dimensions as the input layer. The output layer vector can be calculated by linearly mapping from the intermediate layer vector to the output layer vector. Although the highest value of the vector of the output layer may be used, the vector value can be normalized and converted into a probability distribution value by performing Softmax processing. This makes it possible to use a vector of "1" only for the applicable category and "0" for the other categories as correct data used during learning.

S4において、単語は所定の次元数のベクトルに変換して入力層に入力する。S4において、word IDとは、各単語に割り振られたIDであり、頻度の高い順に「1」から順番に割り振られる。例えば「1」から「30000」のIDを各単語につけ、3万種類以上の頻度の低い単語は切り捨てる。このword IDを入力層に入力するときに、IDから例えば300次元のベクトルに圧縮(変換)する。word IDの種類が小さいほど、このベクトルのサイズも小さくでき、計算量を削減することができる。なお、3万語から300次元の圧縮は可逆圧縮である。圧縮は、word2vec等の従来技術を用いる。圧縮は、基本的に、各単語のベクトル同士のユークリッド距離がなるべく大きくなるようにベクトルを構成する。 In S4, the word is converted into a vector with a predetermined number of dimensions and input to the input layer. In S4, word ID is an ID assigned to each word, and is assigned in order from "1" in descending order of frequency. For example, an ID of "1" to "30000" is assigned to each word, and 30,000 or more types of infrequent words are discarded. When this word ID is input to the input layer, the ID is compressed (converted) into, for example, a 300-dimensional vector. The smaller the type of word ID is, the smaller the size of this vector can be, and the amount of calculation can be reduced. It should be noted that compression of 300,000 words to 300 dimensions is reversible compression. Compression uses conventional techniques such as word2vec. Compression basically constructs vectors such that the Euclidean distance between the vectors of each word is as large as possible.

図1に示す各機能ブロックの説明に戻り、制御部12は、ユーザやネットワーク等を介した他の装置等から入力文章を入力する。次に、制御部12は、入力した入力文章を判定部11に出力し、当該出力に応じて判定部11によって判定されたカテゴリの翻訳部10を用いて、入力文章を翻訳する。次に、制御部12は、翻訳結果を、ユーザやネットワーク等を介した他の装置等に出力(表示)する。 Returning to the description of each functional block shown in FIG. 1, the control unit 12 inputs an input text from a user or another device or the like via a network or the like. Next, the control unit 12 outputs the input text to the determination unit 11, and translates the input text using the translation unit 10 of the category determined by the determination unit 11 according to the output. Next, the control unit 12 outputs (displays) the translation result to a user or another device or the like via a network or the like.

次に、本実施形態のように構成された機械翻訳装置1の作用効果について説明する。 Next, the effects of the machine translation device 1 configured as in this embodiment will be described.

本実施形態の機械翻訳装置1によれば、カテゴリごとの翻訳部10の翻訳学習済みモデルを用いて文章が翻訳される。この場合、例えば、単体の翻訳部10が扱う翻訳対象の語彙は、属するカテゴリで使われる語彙に限定できるため、翻訳学習済みモデルが扱う語彙数を少なくすることができる。それにより、単体の翻訳部10の翻訳処理時間を抑えることができ、機械翻訳装置1全体の翻訳処理時間を抑えることができる。また、判定学習済みモデルは、翻訳部10の翻訳学習済みモデルの機械学習で用いたコーパスに基づいた機械学習により得られた学習済みモデルである。そのような判定学習済みモデルを用いてカテゴリを判定するため、例えば、翻訳学習済みモデルが得意とする文章のカテゴリをより正確に判定することができる。それにより、より正確なカテゴリの翻訳部10により翻訳されるため、翻訳精度を向上することができる。すなわち、カテゴリ分散して、各カテゴリの語彙数を減らして処理時間を速くしながらも、翻訳精度を落とさない。また、翻訳学習済みモデルの機械学習で用いたコーパスを、判定学習済みモデルの機械学習でも用いるため、学習データを一致させることで最高のパフォーマンスを発揮できると共に、学習データを再利用でき、新たな学習データを用意する手間やコストを減らすことができる。 According to the machine translation device 1 of the present embodiment, sentences are translated using translation-learned models of the translation unit 10 for each category. In this case, for example, the vocabulary to be translated handled by the standalone translation unit 10 can be limited to the vocabulary used in the category to which it belongs, so the number of vocabulary handled by the translation trained model can be reduced. As a result, the translation processing time of the single translation unit 10 can be reduced, and the translation processing time of the entire machine translation apparatus 1 can be reduced. Also, the judgment-learned model is a learned model obtained by machine learning based on the corpus used in the machine learning of the translation-learned model of the translation unit 10 . Since the category is determined using such a determination-learned model, for example, the category of sentences that the translation-learned model is good at can be determined more accurately. As a result, translation is performed by the translation unit 10 of a more accurate category, so that translation accuracy can be improved. In other words, the categories are distributed to reduce the number of vocabularies in each category, thereby speeding up the processing time without lowering the translation accuracy. In addition, since the corpus used for machine learning of the translation-trained model is also used for machine learning of the decision-trained model, the best performance can be achieved by matching the learning data, and the learning data can be reused to create new It is possible to reduce the labor and cost of preparing learning data.

また、翻訳学習済みモデルが、リカレントニューラルネットワークに基づく学習済みモデルである場合、入力文章の単語(単語レベル)だけでなく、入力文章の語順、言い回し又は表現等も考慮して最適な機械翻訳を行うことができるため、翻訳精度を向上することができる。 In addition, when the translation trained model is a trained model based on a recurrent neural network, the optimal machine translation is performed by considering not only the words of the input sentence (word level) but also the word order, phrasing or expression of the input sentence. Therefore, the accuracy of translation can be improved.

また、判定学習済みモデルが、リカレントニューラルネットワークに基づく学習済みモデルである場合、入力文章の単語(単語レベル)だけでなく、入力文章の語順、言い回し又は表現等も考慮して最適なカテゴリの判定を行うことができる。それにより、より正確なカテゴリの翻訳部10により翻訳されるため、翻訳精度を向上することができる。 In addition, when the judgment trained model is a trained model based on a recurrent neural network, judgment of the optimal category considering not only the words of the input sentence (word level) but also the word order, phrasing or expression of the input sentence It can be performed. As a result, translation is performed by the translation unit 10 of a more accurate category, so that translation accuracy can be improved.

本実施形態の機械翻訳装置1は、扱う語彙を複数の翻訳部10に分散させ、翻訳処理時間を短くしつつ、扱える語彙数を大きくする。具体的に、機械翻訳装置1では、例えばニューラルネットワークで構成された翻訳部10を複数用意し、それぞれに得意なカテゴリを割り当てる。カテゴリごとに翻訳部10を用意することにより、単体の翻訳部10が扱う語彙数はそのカテゴリで使われる語彙に限定できるため、語彙数を小さくできる。したがって、翻訳部10の翻訳処理時間を小さくできる。しかしながら、入力文章がどのカテゴリの翻訳部10で翻訳すれば良いかをユーザに選んでもらうことは利便性を損なう可能性がある。そのため、機械翻訳装置1では、入力文章が最適に翻訳されるカテゴリを判定(識別)する判定部11を備える。そして、判定された最適なカテゴリの翻訳部10に入力文章を送り、翻訳結果を翻訳文章(出力文章)として出力する。 The machine translation apparatus 1 of the present embodiment distributes the vocabulary to be handled to a plurality of translation units 10 to shorten the translation processing time and increase the number of vocabulary that can be handled. Specifically, the machine translation apparatus 1 prepares a plurality of translation units 10 configured by, for example, a neural network, and assigns each of them a good category. By preparing the translation unit 10 for each category, the number of vocabulary handled by the single translation unit 10 can be limited to the vocabulary used in the category, so the number of vocabulary can be reduced. Therefore, the translation processing time of the translation unit 10 can be reduced. However, having the user select which category of translation section 10 should translate the input text may impair convenience. Therefore, the machine translation apparatus 1 includes a determination unit 11 that determines (identifies) a category in which an input sentence is best translated. Then, the input text is sent to the translating unit 10 of the judged optimum category, and the translation result is output as the translated text (output text).

また、判定部11の判定学習済みモデルを学習させる方法としては、各カテゴリの翻訳部10を学習させる時に用いる専用コーパスにラベル付けを行い、当該カテゴリ用コーパスの文章を入力とし、出力(正解データ)はそのカテゴリのラベルとするように学習する。これは、後段の翻訳部10が得意とする文章に近い文章がそのカテゴリに判定されることになるためである。また、判定学習済みモデルとして、例えば、後段の翻訳部10と同様のリカレントニューラルネットワークを用いることにより、入力文章の単語だけでなく語順や表現等も考慮して最適なカテゴリ分類が可能になる。 In addition, as a method for learning the judgment-learned model of the judgment unit 11, a special corpus used when learning the translation unit 10 of each category is labeled, and sentences of the corpus for the category are input and output (correct data ) is learned to be the label for that category. This is because sentences close to the sentences that the translation unit 10 at the later stage is good at are determined to be in that category. In addition, by using, for example, a recurrent neural network similar to that used in the translation unit 10 in the latter stage as a decision-learned model, it is possible to perform optimal category classification in consideration of not only the words of the input sentence but also the word order and expressions.

本実施形態の機械翻訳装置1により、語彙数を複数の翻訳部10に分散させることができ、翻訳処理を高速化することができる。また、判定部11により、ユーザはどのカテゴリで翻訳するかを意識することなく機械翻訳装置1に文章を入力できるため、ユーザから見ると膨大な語彙を扱える機械翻訳装置1になっている。したがって、膨大な語彙を扱える機械翻訳装置1をGPU(Graphics Processing Unit)を用いず、CPU(Central Processing Unit)でリアルタイムに動作させることができるようになり、計算機コストを削減することが可能になる。図6は、語彙数と翻訳処理時間との関係の一例を示すグラフである。グラフが示す通り、従来技術による機械翻訳では、語彙数が増えるほど翻訳処理時間は2乗に比例して増加する。一方、機械翻訳装置1の処理時間は語彙数が増えても線形に増加するが、従来技術に比べて小さい。したがって、少ない語彙数の翻訳部10を複数用意し、判定部11で適切なカテゴリの翻訳部10に振り分ける方が高速に処理できることになる。また、翻訳部10を専用のカテゴリに特化させることによって、カテゴリ特有の言い回し等もうまく翻訳できる効果があり、精度向上の面でもメリットがある。 With the machine translation device 1 of this embodiment, the number of vocabulary words can be distributed to a plurality of translation units 10, and the translation processing can be speeded up. In addition, since the determination unit 11 allows the user to input sentences into the machine translation apparatus 1 without being conscious of which category to translate, the machine translation apparatus 1 can handle a huge vocabulary from the user's point of view. Therefore, the machine translation device 1 that can handle a huge vocabulary can be operated in real time by a CPU (Central Processing Unit) without using a GPU (Graphics Processing Unit), and it becomes possible to reduce the computer cost. . FIG. 6 is a graph showing an example of the relationship between the number of vocabularies and the translation processing time. As the graph shows, in the conventional machine translation, as the number of vocabulary increases, the translation processing time increases in square proportion. On the other hand, the processing time of the machine translation apparatus 1 increases linearly as the number of vocabulary increases, but it is shorter than the conventional technology. Therefore, if a plurality of translation units 10 with a small number of vocabulary are prepared, and the determination unit 11 sorts the translation units 10 into appropriate categories, the processing can be performed at high speed. Moreover, by making the translation unit 10 specialize in a dedicated category, there is an effect that the expressions peculiar to the category can be well translated, and there is an advantage in terms of accuracy improvement.

ニューラルネットワークを用いた従来技術では、語彙数が大きくなればなるほど、入力ベクトルのサイズや出力ベクトルのサイズが大きくなり、学習や翻訳の計算に時間がかかるという課題がある。これは、膨大な語彙データのひとつひとつにIDを割り当て、IDの数を次元数とする入力ベクトルと出力ベクトルをニューラルネットワークの学習に使うため、ベクトルのサイズが大きくなり、ニューラルネットワークのサイズも大きくなるため、計算時間が大きくなってしまうからである。扱う語彙数が増えれば増える程大きくになり、現状では5万ワード程度の語彙数がCPUでリアルタイムに翻訳できるレベルである。より膨大な語彙を扱うためには、高性能なGPUを並列に使う必要があり計算機コストが高くなってしまう。 Conventional techniques using neural networks have the problem that as the number of vocabularies increases, the size of the input vector and the size of the output vector increase, resulting in longer learning and translation calculations. This is because an ID is assigned to each piece of huge vocabulary data, and the input vector and output vector whose dimension is the number of IDs are used for neural network learning, so the size of the vector increases, and the size of the neural network also increases. Therefore, the calculation time becomes long. As the number of vocabularies to be handled increases, the number of vocabularies increases, and at present, the number of vocabularies of about 50,000 words can be translated in real time by the CPU. In order to handle a larger vocabulary, it is necessary to use high-performance GPUs in parallel, which increases the computer cost.

本実施形態の機械翻訳装置1は、ニューラルネットワークを用いた機械翻訳システムの分散処理および精度向上に関する。機械翻訳装置1は、翻訳部10を複数用意し、各翻訳部10を特定のカテゴリに特化させ、個々の翻訳部10が扱う語彙数を小さくすることで、計算時間を小さくする。また、判定部11で、入力文章を最適なカテゴリに振り分けることで、入力側からはさまざまなカテゴリの文章を扱える機械翻訳システムを実現することができる。 The machine translation apparatus 1 of this embodiment relates to distributed processing and accuracy improvement of a machine translation system using a neural network. The machine translation device 1 prepares a plurality of translation units 10, makes each translation unit 10 specialize in a specific category, and reduces the number of vocabularies handled by each translation unit 10, thereby reducing the calculation time. Further, by sorting the input sentences into the optimum category by the determination unit 11, it is possible to realize a machine translation system that can handle sentences of various categories from the input side.

機械翻訳装置1の変形例である機械翻訳装置1Aは、入力文を所定の種類のドメインに分類するドメイン分類部と、前記ドメインごとの機械翻訳部を備え、前記機械翻訳部の学習に用いるドメイン専用コーパスを、前記ドメイン分類部の学習に用いることを特徴とし、前記ドメイン分類部が、入力文が最も適するドメインを識別し、識別したドメインの機械翻訳部で入力文を翻訳し、翻訳結果を出力する。前記ドメイン分類手段が、リカレント・ニューラルネットワークで構成された識別器であってもよい。前記ドメイン分類部を構成するリカレント・ニューラルネットワークの学習に、各ドメインの機械翻訳部を学習させる各ドメイン用コーパスを利用してもよい。機械翻訳装置1Aは、入力文を単語に分割する形態素解析部を備え、前記ドメイン分類部のリカレント・ニューラルネットワークにおいて、単語をベクトルに変換する手段を備え、前記ベクトルを前記リカレント・ニューラルネットワークの入力層への入力としてもよい。機械翻訳装置1Aは、入力文の単語を前記リカレント・ニューラルネットワークに順次入力し、入力が終了した時点での中間層から出力層のベクトルを生成し、出力層のベクトル値から各ドメインの尤度を計算してもよい。 A machine translation device 1A, which is a modification of the machine translation device 1, includes a domain classification unit that classifies an input sentence into a predetermined type of domain, and a machine translation unit for each of the domains. A dedicated corpus is used for learning of the domain classification unit, and the domain classification unit identifies the domain most suitable for the input sentence, translates the input sentence by the machine translation unit of the identified domain, and outputs the translation result. Output. The domain classification means may be a discriminator composed of a recurrent neural network. A corpus for each domain that trains the machine translation unit of each domain may be used for learning of the recurrent neural network that constitutes the domain classification unit. The machine translation apparatus 1A comprises a morphological analysis unit that divides an input sentence into words, a means for converting words into vectors in the recurrent neural network of the domain classification unit, and inputs the vectors to the recurrent neural network. It may be an input to a layer. The machine translation apparatus 1A sequentially inputs the words of the input sentence to the recurrent neural network, generates vectors of the output layer from the intermediate layer at the time when the input is completed, and calculates the likelihood of each domain from the vector value of the output layer. can be calculated.

なお、上記実施の形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。 It should be noted that the block diagrams used in the description of the above embodiments show blocks in units of functions. These functional blocks (components) are implemented by any combination of hardware and/or software. Further, means for realizing each functional block is not particularly limited. That is, each functional block may be implemented by one device physically and/or logically coupled, or may be implemented by two or more physically and/or logically separated devices directly and/or indirectly. These multiple devices may be physically connected (eg, wired and/or wirelessly).

例えば、本発明の一実施の形態における機械翻訳装置1などは、本発明の判別方法及び機械翻訳方法の処理を行うコンピュータとして機能してもよい。図7は、本発明の一実施の形態に係る機械翻訳装置1のハードウェア構成の一例を示す図である。上述の機械翻訳装置1は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。 For example, the machine translation device 1 according to one embodiment of the present invention may function as a computer that performs the discrimination method and machine translation method of the present invention. FIG. 7 is a diagram showing an example of the hardware configuration of the machine translation device 1 according to one embodiment of the present invention. The machine translation device 1 described above may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。機械翻訳装置1のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。 Note that in the following description, the term "apparatus" can be read as a circuit, device, unit, or the like. The hardware configuration of the machine translation device 1 may be configured to include one or more of each device shown in the figure, or may be configured without some of the devices.

機械翻訳装置1における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。 Each function in the machine translation device 1 is performed by loading predetermined software (program) on hardware such as the processor 1001 and the memory 1002, the processor 1001 performs calculation, communication by the communication device 1004, memory 1002 and storage It is realized by controlling reading and/or writing of data in 1003 .

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU)で構成されてもよい。例えば、上述の翻訳部10、判定部11及び制御部12などは、プロセッサ1001で実現されてもよい。 The processor 1001, for example, operates an operating system to control the entire computer. The processor 1001 may be configured with a central processing unit (CPU) including interfaces with peripheral devices, a control unit, an arithmetic unit, registers, and the like. For example, the translation unit 10 , the determination unit 11 , the control unit 12 and the like described above may be implemented by the processor 1001 .

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、翻訳部10、判定部11及び制御部12は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。 The processor 1001 also reads programs (program codes), software modules, and data from the storage 1003 and/or the communication device 1004 to the memory 1002, and executes various processes according to them. As the program, a program that causes a computer to execute at least part of the operations described in the above embodiments is used. For example, the translation unit 10, the determination unit 11, and the control unit 12 may be implemented by a control program stored in the memory 1002 and operated by the processor 1001, and other functional blocks may be similarly implemented. Although it has been described that the above-described various processes are executed by one processor 1001, they may be executed by two or more processors 1001 simultaneously or sequentially. Processor 1001 may be implemented with one or more chips. Note that the program may be transmitted from a network via an electric communication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る判別方法及び機械翻訳方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。 The memory 1002 is a computer-readable recording medium, and is composed of at least one of, for example, ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), and RAM (Random Access Memory). may be The memory 1002 may also be called a register, cache, main memory (main storage device), or the like. The memory 1002 can store executable programs (program codes), software modules, etc. for implementing the discrimination method and the machine translation method according to an embodiment of the present invention.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。 The storage 1003 is a computer-readable recording medium, for example, an optical disc such as a CD-ROM (Compact Disc ROM), a hard disk drive, a flexible disc, a magneto-optical disc (e.g., a compact disc, a digital versatile disc, a Blu-ray disk), smart card, flash memory (eg, card, stick, key drive), floppy disk, magnetic strip, and/or the like. Storage 1003 may also be called an auxiliary storage device. The storage medium described above may be, for example, a database, server, or other suitable medium including memory 1002 and/or storage 1003 .

通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。例えば、制御部12などは、通信装置1004で実現されてもよい。 The communication device 1004 is hardware (transmitting/receiving device) for communicating between computers via a wired and/or wireless network, and is also called a network device, network controller, network card, communication module, or the like. For example, the control unit 12 and the like may be implemented by the communication device 1004 .

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。 The input device 1005 is an input device (for example, keyboard, mouse, microphone, switch, button, sensor, etc.) that receives input from the outside. The output device 1006 is an output device (for example, display, speaker, LED lamp, etc.) that outputs to the outside. Note that the input device 1005 and the output device 1006 may be integrated (for example, a touch panel).

また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。 Devices such as the processor 1001 and the memory 1002 are connected by a bus 1007 for communicating information. The bus 1007 may be composed of a single bus, or may be composed of different buses between devices.

また、機械翻訳装置1は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。 Further, the machine translation device 1 includes hardware such as a microprocessor, a digital signal processor (DSP), an ASIC (Application Specific Integrated Circuit), a PLD (Programmable Logic Device), and an FPGA (Field Programmable Gate Array). , and part or all of each functional block may be implemented by the hardware. For example, processor 1001 may be implemented with at least one of these hardware.

情報の通知は、本明細書で説明した態様/実施形態に限られず、他の方法で行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。 Notification of information is not limited to the aspects/embodiments described herein and may be done in other ways. For example, notification of information includes physical layer signaling (e.g., DCI (Downlink Control Information), UCI (Uplink Control Information)), higher layer signaling (e.g., RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling, It may be implemented by broadcast information (MIB (Master Information Block), SIB (System Information Block)), other signals, or a combination thereof. RRC signaling may also be called an RRC message, and may be, for example, an RRC connection setup message, an RRC connection reconfiguration message, or the like.

本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE-A(LTE-Advanced)、SUPER 3G、IMT-Advanced、4G、5G、FRA(Future Radio Access)、W-CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi-Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。 Aspects/embodiments described herein support Long Term Evolution (LTE), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, Future Radio Access (FRA), W-CDMA (registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), It may be applied to systems utilizing Bluetooth®, other suitable systems, and/or advanced next generation systems based thereon.

本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。 The procedures, sequences, flow charts, etc. of each aspect/embodiment described herein may be interchanged so long as there is no inconsistency. For example, the methods described herein present elements of the various steps in a sample order, and are not limited to the specific order presented.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。 Input/output information and the like may be stored in a specific location (for example, memory), or may be managed in a management table. Input/output information and the like may be overwritten, updated, or appended. The output information and the like may be deleted. The entered information and the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。 The determination may be made by a value represented by one bit (0 or 1), by a true/false value (Boolean: true or false), or by numerical comparison (for example, a predetermined value).

本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。 Each aspect/embodiment described herein may be used alone, in combination, or switched between implementations. In addition, the notification of predetermined information (for example, notification of “being X”) is not limited to being performed explicitly, but may be performed implicitly (for example, not notifying the predetermined information). good too.

以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。 Although the present invention has been described in detail above, it will be apparent to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be implemented with modifications and variations without departing from the spirit and scope of the invention defined by the claims. Accordingly, the descriptions herein are for the purpose of illustration and description, and are not intended to have any limiting meaning with respect to the present invention.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。 Software, whether referred to as software, firmware, middleware, microcode, hardware description language or otherwise, includes instructions, instruction sets, code, code segments, program code, programs, subprograms, and software modules. , applications, software applications, software packages, routines, subroutines, objects, executables, threads of execution, procedures, functions, and the like.

また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。 Software, instructions, etc. may also be sent and received over a transmission medium. For example, the software can be used to access websites, servers, or other When transmitted from a remote source, these wired and/or wireless technologies are included within the definition of transmission media.

本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。 Information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, instructions, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description may refer to voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these. may be represented by a combination of

なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。 The terms explained in this specification and/or terms necessary for understanding this specification may be replaced with terms having the same or similar meanings.

本明細書で使用する「システム」および「ネットワーク」という用語は、互換的に使用される。 As used herein, the terms "system" and "network" are used interchangeably.

また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。例えば、無線リソースはインデックスで指示されるものであってもよい。 In addition, the information, parameters, etc. described in this specification may be represented by absolute values, may be represented by relative values from a predetermined value, or may be represented by corresponding other information. . For example, radio resources may be indexed.

上述したパラメータに使用する名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)及び情報要素(例えば、TPCなど)は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的なものではない。 The names used for the parameters described above are not limiting in any way. Further, the formulas, etc. using these parameters may differ from those explicitly disclosed herein. Since the various channels (e.g., PUCCH, PDCCH, etc.) and information elements (e.g., TPC, etc.) can be identified by any suitable name, the various names assigned to these various channels and information elements may be is also not limited.

本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。 As used herein, the terms "determining" and "determining" may encompass a wide variety of actions. "Judgement", "determining" are, for example, judging, calculating, computing, processing, deriving, investigating, looking up (e.g., table , searching in a database or other data structure), ascertaining as "determining" or "determining". Also, "judgment" and "decision" are used for receiving (e.g., receiving information), transmitting (e.g., transmitting information), input, output, access (accessing) (for example, accessing data in memory) may include deeming that something has been "determined" or "decided". In addition, "judgment" and "decision" are considered to be "judgment" and "decision" by resolving, selecting, choosing, establishing, comparing, etc. can contain. In other words, "judgment" and "decision" may include considering that some action is "judgment" and "decision".

「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」又は「結合」されると考えることができる。 The terms "connected," "coupled," or any variation thereof mean any direct or indirect connection or connection between two or more elements, It can include the presence of one or more intermediate elements between two elements being "connected" or "coupled." Couplings or connections between elements may be physical, logical, or a combination thereof. As used herein, two elements are referred to by the use of one or more wires, cables and/or printed electrical connections and, as some non-limiting and non-exhaustive examples, radio frequency They can be considered to be “connected” or “coupled” to each other through the use of electromagnetic energy, such as electromagnetic energy having wavelengths in the microwave, light (both visible and invisible) regions.

参照信号は、RS(Reference Signal)と略称することもでき、適用される標準によってパイロット(Pilot)と呼ばれてもよい。 The reference signal may be abbreviated as RS (Reference Signal), or may be referred to as Pilot according to the applicable standard.

本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。 As used herein, the phrase "based on" does not mean "based only on," unless expressly specified otherwise. In other words, the phrase "based on" means both "based only on" and "based at least on."

本明細書で使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。 Any reference to elements using the "first," "second," etc. designations used herein does not generally limit the quantity or order of those elements. These designations may be used herein as a convenient method of distinguishing between two or more elements. Thus, references to first and second elements do not imply that only two elements may be employed therein or that the first element must precede the second element in any way.

上記の各装置の構成における「手段」を、「部」、「回路」、「デバイス」等に置き換えてもよい。 The “means” in the configuration of each device described above may be replaced with “unit”, “circuit”, “device”, or the like.

「含む(including)」、「含んでいる(comprising)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。 To the extent that "including," "comprising," and variations thereof are used herein or in the claims, these terms, as well as the term "comprising," are inclusive. intended to be Furthermore, the term "or" as used in this specification or the claims is not intended to be an exclusive OR.

本開示の全体において、例えば、英語でのa、an及びtheのように、翻訳により冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数のものを含むものとする。 Throughout this disclosure, where articles have been added by translation, such as a, an, and the in English, these articles are used in the plural unless the context clearly indicates otherwise. shall include those of

1…機械翻訳装置、10…翻訳部、11…判定部、12…制御部、1001…プロセッサ、1002…メモリ、1003…ストレージ、1004…通信装置、1005…入力装置、1006…出力装置。 DESCRIPTION OF SYMBOLS 1... Machine translation apparatus, 10... Translation part, 11... Judgment part, 12... Control part, 1001... Processor, 1002... Memory, 1003... Storage, 1004... Communication apparatus, 1005... Input device, 1006... Output device.

Claims (5)

カテゴリごとの翻訳部であって、各翻訳部は属するカテゴリのコーパスを用いた機械学習により得られた翻訳学習済みモデルを用いて当該カテゴリの文章を翻訳する、翻訳部と、
入力された入力文章のカテゴリを、各前記翻訳部の前記機械学習で用いた前記コーパスに基づいた機械学習により得られた判定学習済みモデルを用いて判定する判定部と、
前記判定部によって判定されたカテゴリの前記翻訳部を用いて前記入力文章を翻訳し、翻訳結果を出力する制御部と、
を備える機械翻訳装置。
a translation unit for each category, each translation unit translating sentences in the category using a translation-learned model obtained by machine learning using the corpus of the category to which it belongs;
a determination unit that determines the category of an input sentence that has been input using a trained model obtained by machine learning based on the corpus used in the machine learning of each of the translation units;
a control unit that translates the input sentence using the translation unit of the category determined by the determination unit and outputs a translation result;
A machine translation device with
前記翻訳学習済みモデルは、リカレントニューラルネットワークに基づく学習済みモデルである、請求項1に記載の機械翻訳装置。 2. The machine translation device according to claim 1, wherein said translation trained model is a trained model based on a recurrent neural network. 前記判定学習済みモデルは、リカレントニューラルネットワークに基づく学習済みモデルである、請求項1又は2に記載の機械翻訳装置。 3. The machine translation apparatus according to claim 1, wherein said judgment-learned model is a learned model based on a recurrent neural network. カテゴリごとの翻訳部であって、各翻訳部は属するカテゴリの文章を翻訳する、翻訳部と、入力された入力文章のカテゴリを判定する判定部と、前記判定部によって判定されたカテゴリの前記翻訳部を用いて前記入力文章を翻訳し、翻訳結果を出力する制御部と、を備える機械翻訳装置の前記翻訳部が文章を翻訳する際に用いる翻訳学習済みモデルであって、
当該翻訳学習済みモデルを用いる前記翻訳部が属するカテゴリのコーパスを用いて重み付け係数が学習されたニューラルネットワークにより構成され、
前記判定部は、当該翻訳学習済みモデルの学習で用いた前記コーパスに基づいた機械学習により得られた判定学習済みモデルを用いてカテゴリを判定する、
翻訳学習済みモデル。
a translation unit for each category, each translation unit translating sentences in the category to which it belongs; a judgment unit for judging the category of the inputted input sentence; and the translation of the category judged by the judgment unit A translation learned model used when the translation unit of a machine translation device translates a sentence, comprising a control unit that translates the input sentence using a unit and outputs a translation result,
Consists of a neural network in which weighting coefficients have been learned using the corpus of the category to which the translation unit using the translation trained model belongs,
The determination unit determines a category using a judgment-learned model obtained by machine learning based on the corpus used in learning the translation-learned model,
Translation trained model.
カテゴリごとの翻訳部であって、各翻訳部は属するカテゴリのコーパスを用いた機械学習により得られた翻訳学習済みモデルを用いて当該カテゴリの文章を翻訳する、翻訳部と、入力された入力文章のカテゴリを判定する判定部と、前記判定部によって判定されたカテゴリの前記翻訳部を用いて前記入力文章を翻訳し、翻訳結果を出力する制御部と、を備える機械翻訳装置の前記判定部がカテゴリを判定する際に用いる判定学習済みモデルであって、
各前記翻訳部の前記機械学習で用いた前記コーパスに基づいて重み付け係数が学習されたニューラルネットワークにより構成される、
判定学習済みモデル。
A translation unit for each category, each translation unit translating sentences in the category using a translation-learned model obtained by machine learning using the corpus of the category to which it belongs, and an input sentence that is input. and a control unit that translates the input sentence using the translation unit of the category determined by the determination unit and outputs a translation result. A judgment trained model used when judging a category,
Consists of a neural network in which weighting coefficients are learned based on the corpus used in the machine learning of each translation unit,
Decision-trained model.
JP2018024067A 2018-02-14 2018-02-14 Machine translation device, translation trained model and judgment trained model Active JP7122835B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018024067A JP7122835B2 (en) 2018-02-14 2018-02-14 Machine translation device, translation trained model and judgment trained model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018024067A JP7122835B2 (en) 2018-02-14 2018-02-14 Machine translation device, translation trained model and judgment trained model

Publications (2)

Publication Number Publication Date
JP2019139629A JP2019139629A (en) 2019-08-22
JP7122835B2 true JP7122835B2 (en) 2022-08-22

Family

ID=67694118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018024067A Active JP7122835B2 (en) 2018-02-14 2018-02-14 Machine translation device, translation trained model and judgment trained model

Country Status (1)

Country Link
JP (1) JP7122835B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021038708A1 (en) * 2019-08-27 2021-03-04 遼太 日並 Cartoon machine translation device, cartoon parallel translation database generation device, cartoon machine translation method, and program
KR102523806B1 (en) * 2021-01-20 2023-04-21 주식회사 한글과컴퓨터 Document translation service server for performing supplement of machine translation using prestored translation result, and the operating method thereof

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010041420A1 (en) 2008-10-10 2010-04-15 日本電気株式会社 Information analysis apparatus, information analysis method, and computer-readable recording medium
JP2012078647A (en) 2010-10-04 2012-04-19 National Institute Of Information & Communication Technology Language model learning device and computer program
JP2015170094A (en) 2014-03-06 2015-09-28 株式会社Nttドコモ Translation device and translation method
JP2016024759A (en) 2014-07-24 2016-02-08 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Method to select learning text for language model, method to learn language model by using the same learning text, and computer and computer program for executing the methods
JP2017016384A (en) 2015-07-01 2017-01-19 日本放送協会 Mixed coefficient parameter learning device, mixed occurrence probability calculation device, and programs thereof
WO2017159614A1 (en) 2016-03-14 2017-09-21 オムロン株式会社 Learning service provision device
US20170323203A1 (en) 2016-05-06 2017-11-09 Ebay Inc. Using meta-information in neural machine translation

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003223442A (en) * 2002-01-30 2003-08-08 Nec Corp Network type translation system and method and program therefor
JP5067777B2 (en) * 2006-09-01 2012-11-07 独立行政法人情報通信研究機構 Translation apparatus, cluster generation apparatus, cluster manufacturing method, and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010041420A1 (en) 2008-10-10 2010-04-15 日本電気株式会社 Information analysis apparatus, information analysis method, and computer-readable recording medium
JP2012078647A (en) 2010-10-04 2012-04-19 National Institute Of Information & Communication Technology Language model learning device and computer program
JP2015170094A (en) 2014-03-06 2015-09-28 株式会社Nttドコモ Translation device and translation method
JP2016024759A (en) 2014-07-24 2016-02-08 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Method to select learning text for language model, method to learn language model by using the same learning text, and computer and computer program for executing the methods
JP2017016384A (en) 2015-07-01 2017-01-19 日本放送協会 Mixed coefficient parameter learning device, mixed occurrence probability calculation device, and programs thereof
WO2017159614A1 (en) 2016-03-14 2017-09-21 オムロン株式会社 Learning service provision device
US20170323203A1 (en) 2016-05-06 2017-11-09 Ebay Inc. Using meta-information in neural machine translation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
今村 賢治,疑似原文生成によるニューラル機械翻訳への単言語コーパスの導入,言語処理学会第23回年次大会 発表論文集 [online] Proceedings of the Twenty-third Annual Meeting of the Association for Natural Language Processing,日本,言語処理学会,2017年03月06日,1026~1029,Internet<URL:http://www.anlp.jp/proceedings/annual_meeting/2017/pdf_dir/P18-5.pdf>

Also Published As

Publication number Publication date
JP2019139629A (en) 2019-08-22

Similar Documents

Publication Publication Date Title
CN108090043B (en) Error correction report processing method and device based on artificial intelligence and readable medium
US20190087685A1 (en) Method and apparatus for recommending sample data
JP2020149686A (en) Image processing method, device, server, and storage medium
CN110580308B (en) Information auditing method and device, electronic equipment and storage medium
JP7122835B2 (en) Machine translation device, translation trained model and judgment trained model
US20220292533A1 (en) Demand prediction device
CN114997169B (en) Entity word recognition method and device, electronic equipment and readable storage medium
US11663420B2 (en) Dialogue system
CN108628863B (en) Information acquisition method and device
US20210097236A1 (en) Interaction server
JP2021124913A (en) Retrieval device
US20210142006A1 (en) Generating method, non-transitory computer readable recording medium, and information processing apparatus
US20220148729A1 (en) Information processing device
JP7323370B2 (en) Examination device
EP4338395A1 (en) Artificial intelligence based cognitive test script generation
JP7194759B2 (en) Translation data generation system
US11604831B2 (en) Interactive device
CN114091570A (en) Service processing system method, device and electronic equipment
JP6745402B2 (en) Question estimator
US20210034678A1 (en) Dialogue server
US11914601B2 (en) Re-ranking device
US20210012067A1 (en) Sentence matching system
CN111858907A (en) Text processing method, device, equipment and storage medium
US20230009949A1 (en) Translation device
US20240152538A1 (en) System, apparatus, and method for structuring documentary data for improved topic extraction and modeling

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220809

R150 Certificate of patent or registration of utility model

Ref document number: 7122835

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150