JP2019139629A - Machine translation device, translation learned model and determination learned model - Google Patents

Machine translation device, translation learned model and determination learned model Download PDF

Info

Publication number
JP2019139629A
JP2019139629A JP2018024067A JP2018024067A JP2019139629A JP 2019139629 A JP2019139629 A JP 2019139629A JP 2018024067 A JP2018024067 A JP 2018024067A JP 2018024067 A JP2018024067 A JP 2018024067A JP 2019139629 A JP2019139629 A JP 2019139629A
Authority
JP
Japan
Prior art keywords
translation
category
unit
learned model
corpus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018024067A
Other languages
Japanese (ja)
Other versions
JP7122835B2 (en
Inventor
松岡 保静
Hosei Matsuoka
保静 松岡
俊允 中村
Toshimitsu Nakamura
俊允 中村
聡一朗 村上
Soichiro Murakami
聡一朗 村上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to JP2018024067A priority Critical patent/JP7122835B2/en
Publication of JP2019139629A publication Critical patent/JP2019139629A/en
Application granted granted Critical
Publication of JP7122835B2 publication Critical patent/JP7122835B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

To reduce translation processing time in machine translation.SOLUTION: A machine translation device 1 comprises: translation sections 10 for respective categories, each of which uses a translation learned model obtained by machine learning using the corpus of category to which each translation section 10 belongs, and translates sentences in the category; a determination unit 11 which determines the category of input sentences using a determination learned model obtained by machine learning based on the corpus used in machine learning of each translation section 10; and a control unit 12 which translates the input sentences using the translation section 10 of the category determined by the determination unit 11 and then outputs translation results. The translation learned model may be a learned model based on a recurrent neural network. The determination learned model may be a learned model based on a recurrent neural network.SELECTED DRAWING: Figure 1

Description

本発明は、機械翻訳を行う機械翻訳装置、翻訳学習済みモデル及び判定学習済みモデルに関する。   The present invention relates to a machine translation device that performs machine translation, a translation learned model, and a determination learned model.

近年、機械翻訳においてニューラルネットワークを用いたニューラル機械翻訳が注目されつつある。従来の統計ベースの機械翻訳に比べて、より自然な翻訳が可能なため、ニューラルネットワークを用いた機械学習による翻訳システムが開発されている。例えば下記特許文献1では、ニューラルネットワークを用いた機械翻訳装置が開示されている。   In recent years, neural machine translation using a neural network has been attracting attention in machine translation. Compared with conventional statistical-based machine translation, more natural translation is possible. Therefore, a translation system based on machine learning using a neural network has been developed. For example, in Patent Document 1 below, a machine translation device using a neural network is disclosed.

特開平06−332935号公報Japanese Patent Laid-Open No. 06-332935

しかしながら、ニューラルネットワーク等を用いた機械翻訳では、翻訳対象の語彙数が増えるほど、例えばニューラルネットワークのサイズが大きくなることで、翻訳処理時間が増えるという問題がある。   However, in machine translation using a neural network or the like, there is a problem that as the number of vocabulary to be translated increases, for example, the size of the neural network increases, resulting in an increase in translation processing time.

そこで、本発明はかかる課題に鑑みて為されたものであり、機械翻訳における翻訳処理時間を抑えることができる機械翻訳装置、翻訳学習済みモデル及び判定学習済みモデルを提供することを目的とする。   Accordingly, the present invention has been made in view of such problems, and an object thereof is to provide a machine translation device, a translation learned model, and a judgment learned model that can reduce translation processing time in machine translation.

上記課題を解決するため、本発明の一側面に係る機械翻訳装置は、カテゴリごとの翻訳部であって、各翻訳部は属するカテゴリのコーパスを用いた機械学習により得られた翻訳学習済みモデルを用いて当該カテゴリの文章を翻訳する、翻訳部と、入力された入力文章のカテゴリを、各翻訳部の機械学習で用いたコーパスに基づいた機械学習により得られた判定学習済みモデルを用いて判定する判定部と、判定部によって判定されたカテゴリの翻訳部を用いて入力文章を翻訳し、翻訳結果を出力する制御部と、を備える。   In order to solve the above-described problem, a machine translation device according to one aspect of the present invention is a translation unit for each category, and each translation unit uses a translation learned model obtained by machine learning using a corpus of a category to which the translation unit belongs. Uses a translation learning unit that translates sentences of the category to be used, and determines the category of the input sentence that has been input, using a learning model that has been obtained by machine learning based on the corpus used in the machine learning of each translation unit And a control unit that translates the input sentence using the translation unit of the category determined by the determination unit and outputs a translation result.

このような機械翻訳装置によれば、カテゴリごとの翻訳部の翻訳学習済みモデルを用いて文章が翻訳される。この場合、例えば、単体の翻訳部が扱う翻訳対象の語彙は、属するカテゴリで使われる語彙に限定できるため、翻訳学習済みモデルが扱う語彙数を少なくすることができる。それにより、単体の翻訳部の翻訳処理時間を抑えることができ、機械翻訳装置全体の翻訳処理時間を抑えることができる。また、判定学習済みモデルは、翻訳部の翻訳学習済みモデルの機械学習で用いたコーパスに基づいた機械学習により得られた学習済みモデルである。そのような判定学習済みモデルを用いてカテゴリを判定するため、例えば、翻訳学習済みモデルが得意とする文章のカテゴリをより正確に判定することができる。それにより、より正確なカテゴリの翻訳部により翻訳されるため、翻訳精度を向上することができる。   According to such a machine translation apparatus, a sentence is translated using the translation learned model of the translation unit for each category. In this case, for example, the translation target vocabulary handled by a single translation unit can be limited to the vocabulary used in the category to which the translation belongs, and therefore the number of vocabularies handled by the translation learned model can be reduced. Thereby, the translation processing time of a single translation part can be suppressed, and the translation processing time of the whole machine translation apparatus can be suppressed. The determination learned model is a learned model obtained by machine learning based on the corpus used in the machine learning of the translation learned model of the translation unit. Since a category is determined using such a determination learned model, for example, a category of a sentence that the translation learned model is good at can be determined more accurately. Thereby, since translation is performed by a more accurate category translation unit, translation accuracy can be improved.

本発明によれば、機械翻訳における翻訳処理時間を抑えることができる。   According to the present invention, the translation processing time in machine translation can be suppressed.

本発明の実施形態に係る機械翻訳装置1の機能ブロック図である。It is a functional block diagram of the machine translation apparatus 1 which concerns on embodiment of this invention. 翻訳部10の学習例を示す図である。It is a figure which shows the example of learning of the translation part. 判定部11の学習例を示す図である。It is a figure which shows the example of learning of the determination part. 判定部11による判定処理の一例を示す概念図である。It is a conceptual diagram which shows an example of the determination process by the determination part. 判定部11による判定処理の一例を示すフローチャートである。4 is a flowchart illustrating an example of a determination process performed by a determination unit 11. 語彙数と翻訳処理時間との関係の一例を示すグラフである。It is a graph which shows an example of the relationship between the number of vocabularies and translation processing time. 本発明の実施形態に係る機械翻訳装置1のハードウェア構成図である。It is a hardware block diagram of the machine translation apparatus 1 which concerns on embodiment of this invention.

以下、図面とともに装置の実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。また、以下の説明における実施形態は、本発明の具体例であり、特に本発明を限定する旨の記載がない限り、これらの実施形態に限定されないものとする。   Hereinafter, embodiments of the apparatus will be described in detail with reference to the drawings. In the description of the drawings, the same elements are denoted by the same reference numerals, and redundant description is omitted. The embodiments in the following description are specific examples of the present invention, and are not limited to these embodiments unless specifically described to limit the present invention.

図1は、機械翻訳装置1の機能ブロック図である。図1に示す通り、機械翻訳装置1は、翻訳部10A、翻訳部10B、翻訳部10C、判定部11及び制御部12を含んで構成される。なお、翻訳部10A、翻訳部10B及び翻訳部10Cを総称して翻訳部10と適宜記す。   FIG. 1 is a functional block diagram of the machine translation apparatus 1. As shown in FIG. 1, the machine translation apparatus 1 includes a translation unit 10A, a translation unit 10B, a translation unit 10C, a determination unit 11, and a control unit 12. The translation unit 10A, the translation unit 10B, and the translation unit 10C are collectively referred to as the translation unit 10 as appropriate.

機械翻訳装置1は、ユーザ等により入力された文章(入力文章)を翻訳し、翻訳結果をユーザ等に出力するコンピュータ装置である。翻訳とは、ある言語(第1言語)で表された文章を、他の言語(第2言語)に置き換えて表すことである。一例として、日本語の文章から英語の文章への翻訳が挙げられるが、これに限るものではない。文章は、一つ以上の文から構成される。文は、文字等で書かれたまとまった一連の言葉である。翻訳結果は、翻訳した結果に基づく情報であり、例えば、翻訳された文章(翻訳文章)等であるが、これに限るものではない。   The machine translation device 1 is a computer device that translates a sentence (input sentence) input by a user or the like and outputs a translation result to the user or the like. Translation means that a sentence expressed in a certain language (first language) is replaced with another language (second language). An example is translation from a Japanese sentence to an English sentence, but is not limited to this. A sentence is composed of one or more sentences. A sentence is a series of words written in letters. The translation result is information based on the translation result, and is, for example, a translated sentence (translated sentence), but is not limited thereto.

以下、図1に示す機械翻訳装置1の各機能ブロックについて説明する。   Hereinafter, each functional block of the machine translation apparatus 1 shown in FIG. 1 will be described.

翻訳部10は、カテゴリごとの翻訳部10であって、各翻訳部10は属するカテゴリのコーパスを用いた機械学習により得られた学習済みモデル(翻訳学習済みモデル)を用いて当該カテゴリの文章を翻訳する。図1に示す通り、機械翻訳装置1は、カテゴリAの翻訳部10A(翻訳部10AはカテゴリAに属する)、カテゴリBの翻訳部10B(翻訳部10BはカテゴリBに属する)及びカテゴリCの翻訳部10C(翻訳部10CはカテゴリCに属する)を含んで構成される。なお、カテゴリは3つに限るものではなく、1つ以上であればいかなる数であってもよい。   The translation unit 10 is a translation unit 10 for each category, and each translation unit 10 uses a learned model (translation learned model) obtained by machine learning using a corpus of a category to which the translation unit 10 belongs, to translate sentences in the category. translate. As shown in FIG. 1, the machine translation apparatus 1 includes a category A translation unit 10A (translation unit 10A belongs to category A), a category B translation unit 10B (translation unit 10B belongs to category B), and a category C translation. 10C (translation unit 10C belongs to category C). Note that the number of categories is not limited to three, and may be any number as long as it is one or more.

カテゴリは、文章の分類上の区分、文章の種類、文章のジャンル、文章の領域、文章の分野又は文章のドメインである。カテゴリは、利用シーンに相当するものであり、例えば、病院で良く使われる話し言葉に強いカテゴリや、IT(Information Technology)分野のマニュアル等で良く使われる書き言葉に強いカテゴリ等である。本実施形態では、カテゴリAは医療カテゴリ、カテゴリBは旅行カテゴリ、カテゴリCは買物カテゴリを想定する。   A category is a classification of text, text type, text genre, text area, text field, or text domain. The category corresponds to a usage scene, for example, a category strong against spoken language often used in hospitals, a category strong against written language often used in manuals in the IT (Information Technology) field, and the like. In the present embodiment, it is assumed that category A is a medical category, category B is a travel category, and category C is a shopping category.

コーパスは、自然言語の文章を構造化し、大規模に集積したデータ(データベース)の一部又は全部である。本実施形態におけるコーパスは、第1言語(日本語)と、当該第1言語の翻訳である第2言語(英語)とが対応付けられたコーパス(対訳コーパス、対訳データ)を想定する。コーパスを用いた機械学習により学習済みモデルを得る処理や、学習済みモデルを用いて文章を翻訳する処理は、従来技術に則った処理である。   The corpus is a part or all of data (database) obtained by structuring natural language sentences and collecting them on a large scale. The corpus in the present embodiment assumes a corpus (a bilingual corpus, bilingual data) in which a first language (Japanese) is associated with a second language (English) that is a translation of the first language. The process of obtaining a learned model by machine learning using a corpus and the process of translating a sentence using the learned model are processes according to the prior art.

学習済みモデルは、コンピュータプログラムとパラメータとの組み合わせである。また、学習済みモデルは、ニューラルネットワークの構造と当該ニューラルネットワークの各ニューロン間の結びつきの強さであるパラメータ(重み付け係数)との組み合わせである。また、学習済みモデルは、コンピュータに対する指令であって、一の結果を得る(所定の処理を実行する)ことができるように組み合わされたもの、すなわち、コンピュータを機能させるコンピュータプログラムである。   A learned model is a combination of a computer program and parameters. The learned model is a combination of the structure of the neural network and a parameter (weighting coefficient) that is the strength of connection between the neurons of the neural network. The learned model is an instruction to the computer, and is a combination of programs so that one result can be obtained (predetermined processing is executed), that is, a computer program that causes the computer to function.

図2は、翻訳部10の学習例を示す図である。例えば、カテゴリAに属する翻訳部10Aは、機械学習を行う際に用いる学習データとして、カテゴリA専用コーパス及び汎用コーパスを用いる。カテゴリA専用コーパスは、カテゴリAに特化したコーパスであり、例えば、医療分野で良く使われる文章に関するコーパスである。汎用コーパスは、汎用的な言い回しに関するコーパスである。汎用コーパスは、語彙数を削減するために、特殊な専門用語や特別なカテゴリでしか使わない用語等は含まない文章又は単語等で構成する。翻訳部10B及び翻訳部10Cの学習についても、翻訳部10Aの学習と同様である。すなわち、カテゴリBに属する翻訳部10Bは、学習データとしてカテゴリB専用コーパス(例えば、旅行分野で良く使われる文章に関するコーパス)及び汎用コーパスを用い、カテゴリCに属する翻訳部10Cは、学習データとしてカテゴリC専用コーパス(例えば、買物分野で良く使われる文章に関するコーパス)及び汎用コーパスを用いる。   FIG. 2 is a diagram illustrating a learning example of the translation unit 10. For example, the translation unit 10A belonging to the category A uses a category A dedicated corpus and a general-purpose corpus as learning data used when performing machine learning. The category A dedicated corpus is a corpus specialized for category A, for example, a corpus related to sentences often used in the medical field. The general-purpose corpus is a corpus related to general-purpose words. In order to reduce the number of vocabularies, a general-purpose corpus is composed of sentences or words that do not include special technical terms or terms that are used only in special categories. The learning of the translation unit 10B and the translation unit 10C is the same as the learning of the translation unit 10A. That is, the translation unit 10B belonging to the category B uses a category B-dedicated corpus (for example, a corpus related to sentences often used in the travel field) and a general-purpose corpus as learning data, and the translation unit 10C belonging to the category C receives category data as learning data. A C-dedicated corpus (for example, a corpus related to sentences often used in the shopping field) and a general-purpose corpus are used.

以上のように、各カテゴリに属する翻訳部10はそれぞれ、当該カテゴリの専用コーパスに汎用コーパスを加えたコーパスで学習させる。なお、専用コーパスは、排他的であってもよく、その場合、同じ文章が他のコーパスに含まれることは無い。機械学習を行う際に、専用コーパスだけでは汎用的な言い回しに対応できないため、一部又は全ての翻訳部10にて、上述の通り共通に用いる汎用コーパスを利用している。また、翻訳部10A、翻訳部10B及び翻訳部10Cのいずれか一つ以上は、学習データとして汎用コーパスを用いずに、専用コーパスのみを用いてもよい。   As described above, each translation unit 10 belonging to each category is trained with a corpus obtained by adding a general-purpose corpus to a dedicated corpus of the category. Note that the dedicated corpus may be exclusive. In this case, the same sentence is not included in another corpus. When machine learning is performed, a general-purpose corpus that is commonly used as described above is used in some or all of the translation units 10 because only a dedicated corpus cannot handle general-purpose phrases. In addition, any one or more of the translation unit 10A, the translation unit 10B, and the translation unit 10C may use only a dedicated corpus without using a general-purpose corpus as learning data.

翻訳学習済みモデルは、ニューラルネットワークに基づく学習済みモデルであってもよい。また、翻訳学習済みモデルは、リカレントニューラルネットワークに基づく学習済みモデルであってもよい。また、翻訳学習済みモデルは、ニューラルネットワークに限らず、機械学習可能な情報処理に基づく学習済みモデルであってもよい。   The translation learned model may be a learned model based on a neural network. The translation learned model may be a learned model based on a recurrent neural network. The translation learned model is not limited to a neural network, but may be a learned model based on information processing capable of machine learning.

翻訳学習済みモデルは、カテゴリごとの翻訳部10であって、各翻訳部10は属するカテゴリの文章を翻訳する、翻訳部10と、入力された入力文章のカテゴリを判定する判定部11と、判定部11によって判定されたカテゴリの翻訳部10を用いて入力文章を翻訳し、翻訳結果を出力する制御部12と、を備える機械翻訳装置1の翻訳部10が文章を翻訳する際に用いる翻訳学習済みモデルであって、当該翻訳学習済みモデルを用いる翻訳部10が属するカテゴリのコーパス(専用コーパス)を用いて重み付け係数が学習されたニューラルネットワークにより構成され、判定部11は、当該翻訳学習済みモデルの学習で用いたコーパス(専用コーパス)に基づいた機械学習により得られた判定学習済みモデルを用いてカテゴリを判定してもよい。   The translation learned model is a translation unit 10 for each category, and each translation unit 10 translates a sentence of the category to which the translation unit 10 belongs, a determination unit 11 that determines a category of an input sentence that has been input, and a determination The translation learning used when the translation unit 10 of the machine translation device 1 includes the control unit 12 that translates the input sentence using the translation unit 10 of the category determined by the unit 11 and outputs the translation result. A neural network in which a weighting coefficient is learned using a corpus (dedicated corpus) of a category to which the translation unit 10 using the translation learned model belongs, and the determination unit 11 includes the translation learned model. Even if a category is judged using a judgment learned model obtained by machine learning based on a corpus (dedicated corpus) used in learning There.

翻訳学習済みモデルは、所定のカテゴリの入力された入力文章を翻訳し、翻訳結果を出力するよう、コンピュータを機能させるための翻訳学習済みモデルであって、カテゴリのコーパス(専用コーパス)を用いて重み付け係数が学習されたニューラルネットワークにより構成され、当該カテゴリは、当該コーパス(専用コーパス)に基づいた機械学習により得られた判定学習済みモデルを用いて判定された入力文章のカテゴリであってもよい。   The translation-learned model is a translation-learned model for causing a computer to function so as to translate input text of a predetermined category and output a translation result, using a corpus (dedicated corpus) of the category. The category may be a category of an input sentence that is determined using a determination learned model obtained by machine learning based on the corpus (dedicated corpus). .

判定部11は、(後述の制御部12より)入力された入力文章のカテゴリを、各翻訳部10(翻訳部10A、翻訳部10B及び翻訳部10C)の機械学習で用いたコーパス(専用コーパス)に基づいた機械学習により得られた判定学習済みモデルを用いて判定する。コーパスに基づいた機械学習により学習済みモデルを得る処理や、学習済みモデルを用いて文章のカテゴリを判定する処理は、従来技術に則った処理である。   The determination unit 11 uses a corpus (dedicated corpus) in which the category of the input sentence (from the control unit 12 described later) is used in the machine learning of each translation unit 10 (the translation unit 10A, the translation unit 10B, and the translation unit 10C). Judgment is performed by using a learning model that has been obtained by machine learning based on the above. The process of obtaining a learned model by machine learning based on a corpus and the process of determining a sentence category using a learned model are processes according to the prior art.

図3は、判定部11の学習例を示す図である。判定部11は、学習データとして、翻訳部10Aの翻訳学習済みモデルの機械学習で用いたカテゴリA専用コーパス、翻訳部10Bの翻訳学習済みモデルの機械学習で用いたカテゴリB専用コーパス、及び翻訳部10Cの翻訳学習済みモデルの機械学習で用いたカテゴリC専用コーパスを用いる。より具体的には、判定部11は、学習データとして、カテゴリA専用コーパスの第1言語とカテゴリAを示す情報(ラベル)との組、カテゴリB専用コーパスの第1言語とカテゴリBを示す情報(ラベル)との組、及びカテゴリC専用コーパスの第1言語とカテゴリCを示す情報(ラベル)との組を用いる。判定部11の学習では、所定のカテゴリの専用コーパスの第1言語の文章を入力として、出力(正解データ)を当該カテゴリのラベルとするように学習する。   FIG. 3 is a diagram illustrating a learning example of the determination unit 11. The determination unit 11 includes, as learning data, a category A dedicated corpus used in the machine learning of the translation learned model of the translation unit 10A, a category B dedicated corpus used in the machine learning of the translation learned model of the translation unit 10B, and a translation unit A corpus dedicated to category C used in machine learning of the 10C translation learned model is used. More specifically, the determination unit 11 includes, as learning data, a combination of a first language of the category A dedicated corpus and information (label) indicating the category A, and information indicating the first language and category B of the category B dedicated corpus. A set of (label) and a set of information (label) indicating the first language of category C-dedicated corpus and category C are used. In the learning of the determination unit 11, the first language sentence of the dedicated corpus of a predetermined category is used as an input, and the output (correct data) is learned as the label of the category.

判定部11の学習について、具体例を挙げて説明する。判定部11は、まず、医療コーパス(カテゴリA)、旅行コーパス(カテゴリB)及び買物コーパス(カテゴリC)にラベル付けを行う。例として、医療コーパスの文章は1、旅行コーパスの文章は2、及び買物コーパスの文章は3とする。そして、判定部11の判定学習済みモデル(リカレントニューラルネットワーク等)に各コーパスの文章を入力し、入力文章のラベルの次元が「1」、その他は「0」となる出力ベクトルを正解データとして学習させる。この場合、カテゴリの種類が3種類のため、3次元の出力ベクトルとなり、医療コーパスであれば「(1,0,0)」、旅行コーパスであれば「(0、1,0)」、及び買物コーパスであれば「(0,0,1)」が正解データとなる。このように学習させることによって、入力文章を翻訳するのに適切なカテゴリが判定(識別)できるようになる。   The learning of the determination unit 11 will be described with a specific example. The determination unit 11 first labels medical corpus (category A), travel corpus (category B), and shopping corpus (category C). As an example, the medical corpus text is 1, the travel corpus text is 2, and the shopping corpus text is 3. Then, the sentence of each corpus is input to a judgment learned model (such as a recurrent neural network) of the judgment unit 11, and an output vector in which the dimension of the label of the input sentence is “1” and the others are “0” is learned as correct data. Let In this case, since there are three types of categories, it becomes a three-dimensional output vector, “(1,0,0)” for a medical corpus, “(0,1,0)” for a travel corpus, and In the case of a shopping corpus, “(0, 0, 1)” is correct data. By learning in this way, a category suitable for translating the input sentence can be determined (identified).

判定学習済みモデルは、ニューラルネットワークに基づく学習済みモデルであってもよい。また、判定学習済みモデルは、リカレントニューラルネットワークに基づく学習済みモデルであってもよい。また、判定学習済みモデルは、ニューラルネットワークに限らず、機械学習可能な情報処理に基づく学習済みモデルであってもよい。   The determination learned model may be a learned model based on a neural network. The determination learned model may be a learned model based on a recurrent neural network. The determination learned model is not limited to a neural network, and may be a learned model based on information processing capable of machine learning.

判定学習済みモデルは、カテゴリごとの翻訳部10であって、各翻訳部10は属するカテゴリのコーパス(専用コーパス)を用いた機械学習により得られた翻訳学習済みモデルを用いて当該カテゴリの文章を翻訳する、翻訳部10と、入力された入力文章のカテゴリを判定する判定部11と、判定部11によって判定されたカテゴリの翻訳部10を用いて入力文章を翻訳し、翻訳結果を出力する制御部12と、を備える機械翻訳装置1の判定部11がカテゴリを判定する際に用いる判定学習済みモデルであって、各翻訳部10の機械学習で用いたコーパス(専用コーパス)に基づいて重み付け係数が学習されたニューラルネットワークにより構成されてもよい。   The determination learned model is the translation unit 10 for each category, and each translation unit 10 uses the translation learned model obtained by machine learning using the corpus (dedicated corpus) of the category to which the translation unit 10 belongs. Control for translating, translating unit 10, determining unit 11 for determining the category of the input sentence that has been input, and translating the input sentence by using the translating unit 10 for the category determined by determining unit 11, and outputting the translation result And a weighting coefficient based on a corpus (dedicated corpus) used in the machine learning of each translation unit 10, which is used when the determination unit 11 of the machine translation device 1 including the unit 12 determines a category. May be configured by a learned neural network.

判定学習済みモデルは、入力された入力文章のカテゴリを判定するよう、コンピュータを機能させるための判定学習済みモデルであって、所定のコーパス(専用コーパス)に基づいて重み付け係数が学習されたニューラルネットワークにより構成され、入力文章は、当該判定学習済みモデルに基づいて判定されたカテゴリの当該コーパス(専用コーパス)を用いた機械学習により得られた翻訳学習済みモデルを用いて翻訳されてもよい。   The decision learned model is a decision learned model for causing a computer to function so as to determine a category of an input sentence, and a neural network in which a weighting coefficient is learned based on a predetermined corpus (dedicated corpus). The input sentence may be translated using a translation learned model obtained by machine learning using the corpus (dedicated corpus) of the category determined based on the determined learned model.

図4は、判定部11による判定処理の一例を示す概念図である。図5は、判定部11による判定処理の一例を示すフローチャートである。以下、図4を参照しつつ、図5のフローチャートに基づいて、判定部11による判定処理の一例について説明する。まず、制御部12から入力文章を入力する(ステップS1)。次に、S1にて入力された入力文章を形態素解析(単語に分割)し、単語列を生成する(ステップS2)。次に、S2にて生成した単語列から単語を(前から順に)抽出する(ステップS3)。次に、単語をword IDに変換し、ニューラルネットワーク(判定学習済みモデル)の入力層に(順次)入力する(ステップS4)。次に、単語列に単語が残っているか否かを判定する(ステップS5)。S5にて残っていると判定された場合(S5:YES)、S3に戻り、残りの単語についてS3〜S5の処理を繰り返す。一方、S5にて残っていないと判定された場合(S5:NO)、すなわち、入力文章の単語列を全て入力した場合、「<EOS>」(文章の終わりを示す記号)をニューラルネットワークの入力層に入力する(ステップS6)。次に、ニューラルネットワークの中間層のベクトルから、分類するカテゴリ数を次元数とする出力ベクトルを計算し、出力層とする。この出力ベクトルをSoftmax処理等で尤度計算し、最も尤度の高い次元に相当するカテゴリを判定結果とする(最適カテゴリと識別する)(ステップS7)。   FIG. 4 is a conceptual diagram illustrating an example of determination processing by the determination unit 11. FIG. 5 is a flowchart illustrating an example of the determination process performed by the determination unit 11. Hereinafter, an example of the determination process performed by the determination unit 11 will be described with reference to FIG. 4 and based on the flowchart of FIG. 5. First, an input sentence is input from the control unit 12 (step S1). Next, the input sentence input in S1 is subjected to morphological analysis (divided into words) to generate a word string (step S2). Next, words are extracted from the word string generated in S2 (in order from the front) (step S3). Next, the word is converted into a word ID and input (sequentially) to the input layer of the neural network (determined learning model) (step S4). Next, it is determined whether or not words remain in the word string (step S5). If it is determined in S5 that it remains (S5: YES), the process returns to S3, and the processes of S3 to S5 are repeated for the remaining words. On the other hand, if it is determined in S5 that it does not remain (S5: NO), that is, if all the word strings of the input sentence are input, “<EOS>” (a symbol indicating the end of the sentence) is input to the neural network. Input to the layer (step S6). Next, an output vector having the number of categories to be classified as the number of dimensions is calculated from the vectors of the intermediate layer of the neural network to obtain an output layer. This output vector is subjected to likelihood calculation by Softmax processing or the like, and the category corresponding to the dimension with the highest likelihood is determined as a determination result (identified as the optimum category) (step S7).

以下では、上述の図4及び図5に関する説明について補足する。上述のニューラルネットワークは、リカレントニューラルネットワークであってもよい。ニューラルネットワークの入力層は、予め所定の次元数に設定する。例えば、入力文章の語彙数が5万語の場合、500次元に設定する。上述のニューラルネットワークの出力層は、カテゴリ数を次元数とするベクトルに設定する。上述の中間層のベクトルは、非線形な境界で判定(識別)を行うために利用される。中間層のベクトルも所定の次元数に設定する。例えば、中間層のベクトルを、入力層の次元数と同じに設定する。中間層のベクトルから出力層のベクトルに線形写像することで、出力層のベクトルが計算できる。出力層のベクトルの最も高い値を使ってもよいが、Softmax処理を行うことで、ベクトル値を正規化でき、確率分布値に変換できる。これにより、学習時に用いる正解データとして、該当カテゴリのみ「1」、他のカテゴリは「0」というベクトルを正解データに使えるようになる。   Below, it supplements about the description regarding the above-mentioned FIG.4 and FIG.5. The neural network described above may be a recurrent neural network. The input layer of the neural network is set in advance to a predetermined number of dimensions. For example, when the number of vocabulary of the input sentence is 50,000 words, it is set to 500 dimensions. The output layer of the above-described neural network is set to a vector having the number of categories as the number of dimensions. The above-described intermediate layer vector is used to make a determination (identification) at a non-linear boundary. The intermediate layer vector is also set to a predetermined number of dimensions. For example, the intermediate layer vector is set to the same number of dimensions as the input layer. By linearly mapping the intermediate layer vector to the output layer vector, the output layer vector can be calculated. Although the highest value of the vector in the output layer may be used, the vector value can be normalized and converted into a probability distribution value by performing Softmax processing. Thereby, as correct answer data used at the time of learning, a vector of “1” only for the corresponding category and “0” for the other categories can be used as correct answer data.

S4において、単語は所定の次元数のベクトルに変換して入力層に入力する。S4において、word IDとは、各単語に割り振られたIDであり、頻度の高い順に「1」から順番に割り振られる。例えば「1」から「30000」のIDを各単語につけ、3万種類以上の頻度の低い単語は切り捨てる。このword IDを入力層に入力するときに、IDから例えば300次元のベクトルに圧縮(変換)する。word IDの種類が小さいほど、このベクトルのサイズも小さくでき、計算量を削減することができる。なお、3万語から300次元の圧縮は可逆圧縮である。圧縮は、word2vec等の従来技術を用いる。圧縮は、基本的に、各単語のベクトル同士のユークリッド距離がなるべく大きくなるようにベクトルを構成する。   In S4, the word is converted into a vector having a predetermined number of dimensions and input to the input layer. In S4, the word ID is an ID assigned to each word, and is assigned in order from “1” in descending order of frequency. For example, IDs “1” to “30000” are assigned to each word, and 30,000 or less types of infrequent words are discarded. When this word ID is input to the input layer, the ID is compressed (converted) into, for example, a 300-dimensional vector. As the type of word ID is smaller, the size of this vector can be reduced, and the amount of calculation can be reduced. Note that the compression from 30,000 words to 300 dimensions is lossless compression. The compression uses a conventional technique such as word2vec. In compression, the vectors are basically constructed so that the Euclidean distance between the vectors of each word is as large as possible.

図1に示す各機能ブロックの説明に戻り、制御部12は、ユーザやネットワーク等を介した他の装置等から入力文章を入力する。次に、制御部12は、入力した入力文章を判定部11に出力し、当該出力に応じて判定部11によって判定されたカテゴリの翻訳部10を用いて、入力文章を翻訳する。次に、制御部12は、翻訳結果を、ユーザやネットワーク等を介した他の装置等に出力(表示)する。   Returning to the description of each functional block shown in FIG. 1, the control unit 12 inputs an input sentence from another device or the like via a user, a network, or the like. Next, the control unit 12 outputs the input sentence to the determination unit 11 and translates the input sentence using the category translation unit 10 determined by the determination unit 11 according to the output. Next, the control unit 12 outputs (displays) the translation result to another device or the like via a user, a network, or the like.

次に、本実施形態のように構成された機械翻訳装置1の作用効果について説明する。   Next, the effect of the machine translation apparatus 1 configured as in the present embodiment will be described.

本実施形態の機械翻訳装置1によれば、カテゴリごとの翻訳部10の翻訳学習済みモデルを用いて文章が翻訳される。この場合、例えば、単体の翻訳部10が扱う翻訳対象の語彙は、属するカテゴリで使われる語彙に限定できるため、翻訳学習済みモデルが扱う語彙数を少なくすることができる。それにより、単体の翻訳部10の翻訳処理時間を抑えることができ、機械翻訳装置1全体の翻訳処理時間を抑えることができる。また、判定学習済みモデルは、翻訳部10の翻訳学習済みモデルの機械学習で用いたコーパスに基づいた機械学習により得られた学習済みモデルである。そのような判定学習済みモデルを用いてカテゴリを判定するため、例えば、翻訳学習済みモデルが得意とする文章のカテゴリをより正確に判定することができる。それにより、より正確なカテゴリの翻訳部10により翻訳されるため、翻訳精度を向上することができる。すなわち、カテゴリ分散して、各カテゴリの語彙数を減らして処理時間を速くしながらも、翻訳精度を落とさない。また、翻訳学習済みモデルの機械学習で用いたコーパスを、判定学習済みモデルの機械学習でも用いるため、学習データを一致させることで最高のパフォーマンスを発揮できると共に、学習データを再利用でき、新たな学習データを用意する手間やコストを減らすことができる。   According to the machine translation apparatus 1 of this embodiment, a sentence is translated using the translation learned model of the translation unit 10 for each category. In this case, for example, the vocabulary to be translated handled by the single translation unit 10 can be limited to the vocabulary used in the category to which the translation belongs, and therefore the number of vocabularies handled by the translation learned model can be reduced. Thereby, the translation processing time of the single translation part 10 can be suppressed, and the translation processing time of the whole machine translation apparatus 1 can be suppressed. The determination learned model is a learned model obtained by machine learning based on the corpus used in the machine learning of the translation learned model of the translation unit 10. Since a category is determined using such a determination learned model, for example, a category of a sentence that the translation learned model is good at can be determined more accurately. As a result, translation is performed by the translation unit 10 of a more accurate category, so that translation accuracy can be improved. That is, the accuracy of translation is not reduced while the categories are dispersed and the number of vocabularies in each category is reduced to speed up the processing time. In addition, since the corpus used in the machine learning of the translation learned model is also used in the machine learning of the judgment learned model, the best performance can be achieved by matching the learning data, and the learning data can be reused. Time and cost for preparing learning data can be reduced.

また、翻訳学習済みモデルが、リカレントニューラルネットワークに基づく学習済みモデルである場合、入力文章の単語(単語レベル)だけでなく、入力文章の語順、言い回し又は表現等も考慮して最適な機械翻訳を行うことができるため、翻訳精度を向上することができる。   In addition, when the translation learned model is a learned model based on a recurrent neural network, optimal machine translation is performed in consideration of not only the word (word level) of the input sentence but also the word order, wording or expression of the input sentence. Since this can be done, translation accuracy can be improved.

また、判定学習済みモデルが、リカレントニューラルネットワークに基づく学習済みモデルである場合、入力文章の単語(単語レベル)だけでなく、入力文章の語順、言い回し又は表現等も考慮して最適なカテゴリの判定を行うことができる。それにより、より正確なカテゴリの翻訳部10により翻訳されるため、翻訳精度を向上することができる。   In addition, when the judgment learned model is a learned model based on a recurrent neural network, not only the word (word level) of the input sentence but also the word order, wording or expression of the input sentence is considered, and the optimum category is determined. It can be performed. As a result, translation is performed by the translation unit 10 of a more accurate category, so that translation accuracy can be improved.

本実施形態の機械翻訳装置1は、扱う語彙を複数の翻訳部10に分散させ、翻訳処理時間を短くしつつ、扱える語彙数を大きくする。具体的に、機械翻訳装置1では、例えばニューラルネットワークで構成された翻訳部10を複数用意し、それぞれに得意なカテゴリを割り当てる。カテゴリごとに翻訳部10を用意することにより、単体の翻訳部10が扱う語彙数はそのカテゴリで使われる語彙に限定できるため、語彙数を小さくできる。したがって、翻訳部10の翻訳処理時間を小さくできる。しかしながら、入力文章がどのカテゴリの翻訳部10で翻訳すれば良いかをユーザに選んでもらうことは利便性を損なう可能性がある。そのため、機械翻訳装置1では、入力文章が最適に翻訳されるカテゴリを判定(識別)する判定部11を備える。そして、判定された最適なカテゴリの翻訳部10に入力文章を送り、翻訳結果を翻訳文章(出力文章)として出力する。   The machine translation apparatus 1 according to the present embodiment distributes vocabulary to be handled to a plurality of translation units 10 and increases the number of vocabularies that can be handled while shortening the translation processing time. Specifically, in the machine translation apparatus 1, for example, a plurality of translation units 10 composed of, for example, a neural network are prepared, and a good category is assigned to each. By preparing the translation unit 10 for each category, the number of vocabularies handled by a single translation unit 10 can be limited to the vocabulary used in the category, and thus the number of vocabularies can be reduced. Therefore, the translation processing time of the translation unit 10 can be reduced. However, if the user selects which category of the translation unit 10 should be used for translating the input sentence, there is a possibility that convenience may be impaired. Therefore, the machine translation apparatus 1 includes a determination unit 11 that determines (identifies) a category in which the input sentence is optimally translated. Then, the input sentence is sent to the translation unit 10 of the determined optimum category, and the translation result is output as a translated sentence (output sentence).

また、判定部11の判定学習済みモデルを学習させる方法としては、各カテゴリの翻訳部10を学習させる時に用いる専用コーパスにラベル付けを行い、当該カテゴリ用コーパスの文章を入力とし、出力(正解データ)はそのカテゴリのラベルとするように学習する。これは、後段の翻訳部10が得意とする文章に近い文章がそのカテゴリに判定されることになるためである。また、判定学習済みモデルとして、例えば、後段の翻訳部10と同様のリカレントニューラルネットワークを用いることにより、入力文章の単語だけでなく語順や表現等も考慮して最適なカテゴリ分類が可能になる。   Further, as a method for learning the determination learned model of the determination unit 11, the dedicated corpus used when learning the translation unit 10 of each category is labeled, the sentence of the corpus for the category is input, and output (correct data) ) Learns to be the label for that category. This is because a sentence close to a sentence that the later translation unit 10 is good at is determined as the category. Further, for example, by using a recurrent neural network similar to the translation unit 10 in the subsequent stage as the determination learned model, it is possible to perform optimum category classification considering not only the words of the input sentence but also the word order and expression.

本実施形態の機械翻訳装置1により、語彙数を複数の翻訳部10に分散させることができ、翻訳処理を高速化することができる。また、判定部11により、ユーザはどのカテゴリで翻訳するかを意識することなく機械翻訳装置1に文章を入力できるため、ユーザから見ると膨大な語彙を扱える機械翻訳装置1になっている。したがって、膨大な語彙を扱える機械翻訳装置1をGPU(Graphics Processing Unit)を用いず、CPU(Central Processing Unit)でリアルタイムに動作させることができるようになり、計算機コストを削減することが可能になる。図6は、語彙数と翻訳処理時間との関係の一例を示すグラフである。グラフが示す通り、従来技術による機械翻訳では、語彙数が増えるほど翻訳処理時間は2乗に比例して増加する。一方、機械翻訳装置1の処理時間は語彙数が増えても線形に増加するが、従来技術に比べて小さい。したがって、少ない語彙数の翻訳部10を複数用意し、判定部11で適切なカテゴリの翻訳部10に振り分ける方が高速に処理できることになる。また、翻訳部10を専用のカテゴリに特化させることによって、カテゴリ特有の言い回し等もうまく翻訳できる効果があり、精度向上の面でもメリットがある。   With the machine translation apparatus 1 of this embodiment, the number of vocabularies can be distributed to a plurality of translation units 10, and the translation process can be speeded up. In addition, the determination unit 11 allows the user to input text into the machine translation device 1 without being conscious of which category to translate, so that the machine translation device 1 can handle an enormous vocabulary when viewed from the user. Therefore, the machine translation apparatus 1 that can handle a large vocabulary can be operated in real time by a CPU (Central Processing Unit) without using a GPU (Graphics Processing Unit), and the computer cost can be reduced. . FIG. 6 is a graph showing an example of the relationship between the number of vocabularies and the translation processing time. As shown in the graph, in the machine translation according to the prior art, the translation processing time increases in proportion to the square as the number of vocabulary increases. On the other hand, the processing time of the machine translation apparatus 1 increases linearly as the number of vocabularies increases, but is shorter than that of the prior art. Accordingly, a plurality of translation units 10 having a small number of vocabularies are prepared, and the determination unit 11 distributes the translations to the appropriate category translation units 10 for faster processing. Further, by specializing the translation unit 10 in a dedicated category, there is an effect that a phrase peculiar to the category can be translated well, and there is a merit in terms of accuracy improvement.

ニューラルネットワークを用いた従来技術では、語彙数が大きくなればなるほど、入力ベクトルのサイズや出力ベクトルのサイズが大きくなり、学習や翻訳の計算に時間がかかるという課題がある。これは、膨大な語彙データのひとつひとつにIDを割り当て、IDの数を次元数とする入力ベクトルと出力ベクトルをニューラルネットワークの学習に使うため、ベクトルのサイズが大きくなり、ニューラルネットワークのサイズも大きくなるため、計算時間が大きくなってしまうからである。扱う語彙数が増えれば増える程大きくになり、現状では5万ワード程度の語彙数がCPUでリアルタイムに翻訳できるレベルである。より膨大な語彙を扱うためには、高性能なGPUを並列に使う必要があり計算機コストが高くなってしまう。   In the prior art using a neural network, the larger the vocabulary number, the larger the size of the input vector and the size of the output vector, and there is a problem that it takes time for learning and calculation of translation. This is because an ID is assigned to each of a large amount of vocabulary data, and an input vector and an output vector having the number of IDs as the number of dimensions are used for learning a neural network, so that the vector size increases and the neural network size also increases. This is because the calculation time becomes long. As the number of vocabulary handled increases, the number of vocabulary increases. At present, the number of vocabulary of about 50,000 words can be translated in real time by the CPU. In order to handle a larger vocabulary, it is necessary to use high-performance GPUs in parallel, which increases the computer cost.

本実施形態の機械翻訳装置1は、ニューラルネットワークを用いた機械翻訳システムの分散処理および精度向上に関する。機械翻訳装置1は、翻訳部10を複数用意し、各翻訳部10を特定のカテゴリに特化させ、個々の翻訳部10が扱う語彙数を小さくすることで、計算時間を小さくする。また、判定部11で、入力文章を最適なカテゴリに振り分けることで、入力側からはさまざまなカテゴリの文章を扱える機械翻訳システムを実現することができる。   The machine translation apparatus 1 according to this embodiment relates to distributed processing and accuracy improvement of a machine translation system using a neural network. The machine translation apparatus 1 prepares a plurality of translation units 10, specializes each translation unit 10 in a specific category, and reduces the number of vocabularies handled by each translation unit 10, thereby reducing calculation time. In addition, by allocating input sentences to optimal categories by the determination unit 11, a machine translation system that can handle sentences of various categories can be realized from the input side.

機械翻訳装置1の変形例である機械翻訳装置1Aは、入力文を所定の種類のドメインに分類するドメイン分類部と、前記ドメインごとの機械翻訳部を備え、前記機械翻訳部の学習に用いるドメイン専用コーパスを、前記ドメイン分類部の学習に用いることを特徴とし、前記ドメイン分類部が、入力文が最も適するドメインを識別し、識別したドメインの機械翻訳部で入力文を翻訳し、翻訳結果を出力する。前記ドメイン分類手段が、リカレント・ニューラルネットワークで構成された識別器であってもよい。前記ドメイン分類部を構成するリカレント・ニューラルネットワークの学習に、各ドメインの機械翻訳部を学習させる各ドメイン用コーパスを利用してもよい。機械翻訳装置1Aは、入力文を単語に分割する形態素解析部を備え、前記ドメイン分類部のリカレント・ニューラルネットワークにおいて、単語をベクトルに変換する手段を備え、前記ベクトルを前記リカレント・ニューラルネットワークの入力層への入力としてもよい。機械翻訳装置1Aは、入力文の単語を前記リカレント・ニューラルネットワークに順次入力し、入力が終了した時点での中間層から出力層のベクトルを生成し、出力層のベクトル値から各ドメインの尤度を計算してもよい。   A machine translation device 1A, which is a modification of the machine translation device 1, includes a domain classification unit that classifies an input sentence into a predetermined type of domain, and a machine translation unit for each domain, and is used for learning of the machine translation unit A dedicated corpus is used for learning of the domain classifying unit, the domain classifying unit identifies a domain in which the input sentence is most suitable, and the machine translation unit of the identified domain translates the input sentence, and a translation result is obtained. Output. The domain classification means may be a classifier configured by a recurrent neural network. Each domain corpus that causes the machine translation unit of each domain to learn may be used for learning of the recurrent neural network constituting the domain classification unit. The machine translation apparatus 1A includes a morpheme analysis unit that divides an input sentence into words, and includes means for converting a word into a vector in the recurrent neural network of the domain classification unit, and the vector is input to the recurrent neural network. It may be an input to the layer. The machine translation device 1A sequentially inputs the words of the input sentence to the recurrent neural network, generates a vector of the output layer from the intermediate layer at the time when the input is completed, and the likelihood of each domain from the vector value of the output layer May be calculated.

なお、上記実施の形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。   In addition, the block diagram used for description of the said embodiment has shown the block of the functional unit. These functional blocks (components) are realized by any combination of hardware and / or software. Further, the means for realizing each functional block is not particularly limited. That is, each functional block may be realized by one device physically and / or logically coupled, and two or more devices physically and / or logically separated may be directly and / or indirectly. (For example, wired and / or wireless) and may be realized by these plural devices.

例えば、本発明の一実施の形態における機械翻訳装置1などは、本発明の判別方法及び機械翻訳方法の処理を行うコンピュータとして機能してもよい。図7は、本発明の一実施の形態に係る機械翻訳装置1のハードウェア構成の一例を示す図である。上述の機械翻訳装置1は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。   For example, the machine translation apparatus 1 according to an embodiment of the present invention may function as a computer that performs processing of the determination method and the machine translation method of the present invention. FIG. 7 is a diagram illustrating an example of a hardware configuration of the machine translation apparatus 1 according to the embodiment of the present invention. The machine translation device 1 described above may be physically configured as a computer device including a processor 1001, a memory 1002, a storage 1003, a communication device 1004, an input device 1005, an output device 1006, a bus 1007, and the like.

なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。機械翻訳装置1のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。   In the following description, the term “apparatus” can be read as a circuit, a device, a unit, or the like. The hardware configuration of the machine translation device 1 may be configured to include one or a plurality of each device illustrated in the figure, or may be configured not to include some devices.

機械翻訳装置1における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。   Each function in the machine translation apparatus 1 is such that a predetermined software (program) is read on hardware such as the processor 1001 and the memory 1002 so that the processor 1001 performs an operation, and communication by the communication device 1004, memory 1002 and storage This is realized by controlling reading and / or writing of data in 1003.

プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU)で構成されてもよい。例えば、上述の翻訳部10、判定部11及び制御部12などは、プロセッサ1001で実現されてもよい。   For example, the processor 1001 controls the entire computer by operating an operating system. The processor 1001 may be configured by a central processing unit (CPU) including an interface with peripheral devices, a control device, an arithmetic device, a register, and the like. For example, the translation unit 10, the determination unit 11, the control unit 12, and the like described above may be realized by the processor 1001.

また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、翻訳部10、判定部11及び制御部12は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。   Further, the processor 1001 reads a program (program code), software module, and data from the storage 1003 and / or the communication device 1004 to the memory 1002, and executes various processes according to these. As the program, a program that causes a computer to execute at least a part of the operations described in the above embodiments is used. For example, the translation unit 10, the determination unit 11, and the control unit 12 may be realized by a control program stored in the memory 1002 and operated by the processor 1001, and may be realized similarly for other functional blocks. Although the above-described various processes have been described as being executed by one processor 1001, they may be executed simultaneously or sequentially by two or more processors 1001. The processor 1001 may be implemented by one or more chips. Note that the program may be transmitted from a network via a telecommunication line.

メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る判別方法及び機械翻訳方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。   The memory 1002 is a computer-readable recording medium and includes, for example, at least one of ROM (Read Only Memory), EPROM (Erasable Programmable ROM), EEPROM (Electrically Erasable Programmable ROM), RAM (Random Access Memory), and the like. May be. The memory 1002 may be called a register, a cache, a main memory (main storage device), or the like. The memory 1002 can store a program (program code), a software module, and the like that can be executed to implement the determination method and the machine translation method according to an embodiment of the present invention.

ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。   The storage 1003 is a computer-readable recording medium such as an optical disc such as a CD-ROM (Compact Disc ROM), a hard disc drive, a flexible disc, a magneto-optical disc (eg, a compact disc, a digital versatile disc, a Blu-ray). (Registered trademark) disk, smart card, flash memory (for example, card, stick, key drive), floppy (registered trademark) disk, magnetic strip, and the like. The storage 1003 may be referred to as an auxiliary storage device. The storage medium described above may be, for example, a database, server, or other suitable medium including the memory 1002 and / or the storage 1003.

通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。例えば、制御部12などは、通信装置1004で実現されてもよい。   The communication device 1004 is hardware (transmission / reception device) for performing communication between computers via a wired and / or wireless network, and is also referred to as a network device, a network controller, a network card, a communication module, or the like. For example, the control unit 12 and the like may be realized by the communication device 1004.

入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。   The input device 1005 is an input device (for example, a keyboard, a mouse, a microphone, a switch, a button, a sensor, or the like) that accepts an external input. The output device 1006 is an output device (for example, a display, a speaker, an LED lamp, etc.) that performs output to the outside. The input device 1005 and the output device 1006 may have an integrated configuration (for example, a touch panel).

また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。   Each device such as the processor 1001 and the memory 1002 is connected by a bus 1007 for communicating information. The bus 1007 may be configured with a single bus or may be configured with different buses between apparatuses.

また、機械翻訳装置1は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。   The machine translation apparatus 1 includes hardware such as a microprocessor, a digital signal processor (DSP), an application specific integrated circuit (ASIC), a programmable logic device (PLD), and a field programmable gate array (FPGA). A part or all of each functional block may be realized by the hardware. For example, the processor 1001 may be implemented by at least one of these hardware.

情報の通知は、本明細書で説明した態様/実施形態に限られず、他の方法で行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC Connection Reconfiguration)メッセージなどであってもよい。   The notification of information is not limited to the aspect / embodiment described in the present specification, and may be performed by other methods. For example, notification of information includes physical layer signaling (for example, DCI (Downlink Control Information), UCI (Uplink Control Information)), upper layer signaling (for example, RRC (Radio Resource Control) signaling, MAC (Medium Access Control) signaling), It may be implemented by broadcast information (MIB (Master Information Block), SIB (System Information Block))), other signals, or a combination thereof. The RRC signaling may be referred to as an RRC message, and may be, for example, an RRC connection setup message, an RRC connection reconfiguration message, or the like.

本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G、5G、FRA(Future Radio Access)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。   Each aspect / embodiment described herein includes LTE (Long Term Evolution), LTE-A (LTE-Advanced), SUPER 3G, IMT-Advanced, 4G, 5G, FRA (Future Radio Access), W-CDMA. (Registered trademark), GSM (registered trademark), CDMA2000, UMB (Ultra Mobile Broadband), IEEE 802.11 (Wi-Fi), IEEE 802.16 (WiMAX), IEEE 802.20, UWB (Ultra-WideBand), The present invention may be applied to a Bluetooth (registered trademark), a system using other appropriate systems, and / or a next generation system extended based on these systems.

本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。   As long as there is no contradiction, the order of the processing procedures, sequences, flowcharts, and the like of each aspect / embodiment described in this specification may be changed. For example, the methods described herein present the elements of the various steps in an exemplary order and are not limited to the specific order presented.

入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。   Input / output information or the like may be stored in a specific location (for example, a memory) or may be managed by a management table. Input / output information and the like can be overwritten, updated, or additionally written. The output information or the like may be deleted. The input information or the like may be transmitted to another device.

判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。   The determination may be performed by a value represented by 1 bit (0 or 1), may be performed by a true / false value (Boolean: true or false), or may be performed by comparing numerical values (for example, a predetermined value) Comparison with the value).

本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。   Each aspect / embodiment described in this specification may be used independently, may be used in combination, or may be switched according to execution. In addition, notification of predetermined information (for example, notification of being “X”) is not limited to explicitly performed, but is performed implicitly (for example, notification of the predetermined information is not performed). Also good.

以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。   Although the present invention has been described in detail above, it will be apparent to those skilled in the art that the present invention is not limited to the embodiments described herein. The present invention can be implemented as modified and changed modes without departing from the spirit and scope of the present invention defined by the description of the scope of claims. Therefore, the description of the present specification is for illustrative purposes and does not have any limiting meaning to the present invention.

ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。   Software, whether it is called software, firmware, middleware, microcode, hardware description language, or other names, instructions, instruction sets, codes, code segments, program codes, programs, subprograms, software modules , Applications, software applications, software packages, routines, subroutines, objects, executable files, execution threads, procedures, functions, etc. should be interpreted broadly.

また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。   Also, software, instructions, etc. may be transmitted / received via a transmission medium. For example, software may use websites, servers, or other devices using wired technology such as coaxial cable, fiber optic cable, twisted pair and digital subscriber line (DSL) and / or wireless technology such as infrared, wireless and microwave. When transmitted from a remote source, these wired and / or wireless technologies are included within the definition of transmission media.

本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。   Information, signals, etc. described herein may be represented using any of a variety of different technologies. For example, data, commands, commands, information, signals, bits, symbols, chips, etc. that may be referred to throughout the above description are voltages, currents, electromagnetic waves, magnetic fields or magnetic particles, light fields or photons, or any of these May be represented by a combination of

なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。   Note that the terms described in this specification and / or terms necessary for understanding this specification may be replaced with terms having the same or similar meaning.

本明細書で使用する「システム」および「ネットワーク」という用語は、互換的に使用される。   As used herein, the terms “system” and “network” are used interchangeably.

また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。例えば、無線リソースはインデックスで指示されるものであってもよい。   In addition, information, parameters, and the like described in this specification may be represented by absolute values, may be represented by relative values from a predetermined value, or may be represented by other corresponding information. . For example, the radio resource may be indicated by an index.

上述したパラメータに使用する名称はいかなる点においても限定的なものではない。さらに、これらのパラメータを使用する数式等は、本明細書で明示的に開示したものと異なる場合もある。様々なチャネル(例えば、PUCCH、PDCCHなど)及び情報要素(例えば、TPCなど)は、あらゆる好適な名称によって識別できるので、これらの様々なチャネル及び情報要素に割り当てている様々な名称は、いかなる点においても限定的なものではない。   The names used for the parameters described above are not limiting in any way. Further, mathematical formulas and the like that use these parameters may differ from those explicitly disclosed herein. Since various channels (eg, PUCCH, PDCCH, etc.) and information elements (eg, TPC, etc.) can be identified by any suitable name, the various names assigned to these various channels and information elements are However, it is not limited.

本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。   As used herein, the terms “determining” and “determining” may encompass a wide variety of actions. “Judgment” and “determination” are, for example, judgment, calculation, calculation, processing, derivation, investigating, looking up (eg, table) , Searching in a database or other data structure), ascertaining what has been ascertaining, and so on. In addition, “determination” and “determination” are reception (for example, receiving information), transmission (for example, transmitting information), input (input), output (output), and access. (Accessing) (eg, accessing data in a memory) may be considered as “determined” or “determined”. In addition, “determination” and “determination” means that “resolving”, “selecting”, “choosing”, “establishing”, and “comparing” are regarded as “determining” and “determining”. May be included. In other words, “determination” and “determination” may include considering some operation as “determination” and “determination”.

「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」又は「結合」されると考えることができる。   The terms “connected”, “coupled”, or any variation thereof, means any direct or indirect connection or coupling between two or more elements and It can include the presence of one or more intermediate elements between two “connected” or “coupled” elements. The coupling or connection between the elements may be physical, logical, or a combination thereof. As used herein, the two elements are radio frequency by using one or more wires, cables and / or printed electrical connections, and as some non-limiting and non-inclusive examples By using electromagnetic energy, such as electromagnetic energy having a wavelength in the region, microwave region, and light (both visible and invisible) region, it can be considered to be “connected” or “coupled” to each other.

参照信号は、RS(Reference Signal)と略称することもでき、適用される標準によってパイロット(Pilot)と呼ばれてもよい。   The reference signal may be abbreviated as RS (Reference Signal), and may be referred to as a pilot depending on an applied standard.

本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。   As used herein, the phrase “based on” does not mean “based only on,” unless expressly specified otherwise. In other words, the phrase “based on” means both “based only on” and “based at least on.”

本明細書で使用する「第1の」、「第2の」などの呼称を使用した要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。   Any reference to elements using the designations "first", "second", etc. as used herein does not generally limit the amount or order of those elements. These designations can be used herein as a convenient way to distinguish between two or more elements. Thus, a reference to the first and second elements does not mean that only two elements can be employed there, or that in some way the first element must precede the second element.

上記の各装置の構成における「手段」を、「部」、「回路」、「デバイス」等に置き換えてもよい。   The “means” in the configuration of each apparatus described above may be replaced with “unit”, “circuit”, “device”, and the like.

「含む(including)」、「含んでいる(comprising)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。   As long as “including”, “comprising” and variations thereof are used in the specification or claims, these terms are inclusive of the term “comprising”. Intended to be Furthermore, the term “or” as used herein or in the claims is not intended to be an exclusive OR.

本開示の全体において、例えば、英語でのa、an及びtheのように、翻訳により冠詞が追加された場合、これらの冠詞は、文脈から明らかにそうではないことが示されていなければ、複数のものを含むものとする。   Throughout this disclosure, if articles are added by translation, for example, a, an, and the, in English, these articles may be plural unless the context clearly indicates otherwise. Shall be included.

1…機械翻訳装置、10…翻訳部、11…判定部、12…制御部、1001…プロセッサ、1002…メモリ、1003…ストレージ、1004…通信装置、1005…入力装置、1006…出力装置。   DESCRIPTION OF SYMBOLS 1 ... Machine translation apparatus, 10 ... Translation part, 11 ... Determination part, 12 ... Control part, 1001 ... Processor, 1002 ... Memory, 1003 ... Storage, 1004 ... Communication apparatus, 1005 ... Input device, 1006 ... Output device.

Claims (5)

カテゴリごとの翻訳部であって、各翻訳部は属するカテゴリのコーパスを用いた機械学習により得られた翻訳学習済みモデルを用いて当該カテゴリの文章を翻訳する、翻訳部と、
入力された入力文章のカテゴリを、各前記翻訳部の前記機械学習で用いた前記コーパスに基づいた機械学習により得られた判定学習済みモデルを用いて判定する判定部と、
前記判定部によって判定されたカテゴリの前記翻訳部を用いて前記入力文章を翻訳し、翻訳結果を出力する制御部と、
を備える機械翻訳装置。
A translation unit for each category, each translation unit translating a sentence of the category using a translation learned model obtained by machine learning using a corpus of the category to which the translation belongs;
A determination unit that determines an input sentence category using a determination learned model obtained by machine learning based on the corpus used in the machine learning of each of the translation units;
A control unit that translates the input text using the translation unit of the category determined by the determination unit, and outputs a translation result;
A machine translation apparatus comprising:
前記翻訳学習済みモデルは、リカレントニューラルネットワークに基づく学習済みモデルである、請求項1に記載の機械翻訳装置。   The machine translation apparatus according to claim 1, wherein the translation learned model is a learned model based on a recurrent neural network. 前記判定学習済みモデルは、リカレントニューラルネットワークに基づく学習済みモデルである、請求項1又は2に記載の機械翻訳装置。   The machine translation apparatus according to claim 1, wherein the determination learned model is a learned model based on a recurrent neural network. カテゴリごとの翻訳部であって、各翻訳部は属するカテゴリの文章を翻訳する、翻訳部と、入力された入力文章のカテゴリを判定する判定部と、前記判定部によって判定されたカテゴリの前記翻訳部を用いて前記入力文章を翻訳し、翻訳結果を出力する制御部と、を備える機械翻訳装置の前記翻訳部が文章を翻訳する際に用いる翻訳学習済みモデルであって、
当該翻訳学習済みモデルを用いる前記翻訳部が属するカテゴリのコーパスを用いて重み付け係数が学習されたニューラルネットワークにより構成され、
前記判定部は、当該翻訳学習済みモデルの学習で用いた前記コーパスに基づいた機械学習により得られた判定学習済みモデルを用いてカテゴリを判定する、
翻訳学習済みモデル。
A translation unit for each category, each translation unit translating a sentence of the category to which the translation unit belongs, a determination unit that determines a category of the input sentence that has been input, and the translation of the category determined by the determination unit A translation learning model used when the translation unit of the machine translation device includes a controller that translates the input sentence using a unit and outputs a translation result,
It is composed of a neural network in which weighting coefficients are learned using a corpus of a category to which the translation unit using the translation learned model belongs,
The determination unit determines a category using a determination learned model obtained by machine learning based on the corpus used in learning of the translation learned model.
Translation learned model.
カテゴリごとの翻訳部であって、各翻訳部は属するカテゴリのコーパスを用いた機械学習により得られた翻訳学習済みモデルを用いて当該カテゴリの文章を翻訳する、翻訳部と、入力された入力文章のカテゴリを判定する判定部と、前記判定部によって判定されたカテゴリの前記翻訳部を用いて前記入力文章を翻訳し、翻訳結果を出力する制御部と、を備える機械翻訳装置の前記判定部がカテゴリを判定する際に用いる判定学習済みモデルであって、
各前記翻訳部の前記機械学習で用いた前記コーパスに基づいて重み付け係数が学習されたニューラルネットワークにより構成される、
判定学習済みモデル。
A translation unit for each category, and each translation unit translates a sentence of the category using a translation learned model obtained by machine learning using a corpus of the category to which the translation unit belongs, and an input sentence input A determination unit that determines a category of the machine translation device, and a control unit that translates the input sentence using the translation unit of the category determined by the determination unit and outputs a translation result. A model that has been learned and used for judgment when judging categories,
It is constituted by a neural network in which weighting factors are learned based on the corpus used in the machine learning of each translation unit,
Judgment learned model.
JP2018024067A 2018-02-14 2018-02-14 Machine translation device, translation trained model and judgment trained model Active JP7122835B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018024067A JP7122835B2 (en) 2018-02-14 2018-02-14 Machine translation device, translation trained model and judgment trained model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018024067A JP7122835B2 (en) 2018-02-14 2018-02-14 Machine translation device, translation trained model and judgment trained model

Publications (2)

Publication Number Publication Date
JP2019139629A true JP2019139629A (en) 2019-08-22
JP7122835B2 JP7122835B2 (en) 2022-08-22

Family

ID=67694118

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018024067A Active JP7122835B2 (en) 2018-02-14 2018-02-14 Machine translation device, translation trained model and judgment trained model

Country Status (1)

Country Link
JP (1) JP7122835B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021038708A1 (en) * 2019-08-27 2021-03-04
KR20220105551A (en) * 2021-01-20 2022-07-27 주식회사 한글과컴퓨터 Document translation service server for performing supplement of machine translation using prestored translation result, and the operating method thereof

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003223442A (en) * 2002-01-30 2003-08-08 Nec Corp Network type translation system and method and program therefor
JP2008059440A (en) * 2006-09-01 2008-03-13 National Institute Of Information & Communication Technology Translation device, cluster generating device, cluster manufacturing method, and program
WO2010041420A1 (en) * 2008-10-10 2010-04-15 日本電気株式会社 Information analysis apparatus, information analysis method, and computer-readable recording medium
JP2012078647A (en) * 2010-10-04 2012-04-19 National Institute Of Information & Communication Technology Language model learning device and computer program
JP2015170094A (en) * 2014-03-06 2015-09-28 株式会社Nttドコモ Translation device and translation method
JP2016024759A (en) * 2014-07-24 2016-02-08 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Method to select learning text for language model, method to learn language model by using the same learning text, and computer and computer program for executing the methods
JP2017016384A (en) * 2015-07-01 2017-01-19 日本放送協会 Mixed coefficient parameter learning device, mixed occurrence probability calculation device, and programs thereof
WO2017159614A1 (en) * 2016-03-14 2017-09-21 オムロン株式会社 Learning service provision device
US20170323203A1 (en) * 2016-05-06 2017-11-09 Ebay Inc. Using meta-information in neural machine translation

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003223442A (en) * 2002-01-30 2003-08-08 Nec Corp Network type translation system and method and program therefor
JP2008059440A (en) * 2006-09-01 2008-03-13 National Institute Of Information & Communication Technology Translation device, cluster generating device, cluster manufacturing method, and program
WO2010041420A1 (en) * 2008-10-10 2010-04-15 日本電気株式会社 Information analysis apparatus, information analysis method, and computer-readable recording medium
JP2012078647A (en) * 2010-10-04 2012-04-19 National Institute Of Information & Communication Technology Language model learning device and computer program
JP2015170094A (en) * 2014-03-06 2015-09-28 株式会社Nttドコモ Translation device and translation method
JP2016024759A (en) * 2014-07-24 2016-02-08 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Method to select learning text for language model, method to learn language model by using the same learning text, and computer and computer program for executing the methods
JP2017016384A (en) * 2015-07-01 2017-01-19 日本放送協会 Mixed coefficient parameter learning device, mixed occurrence probability calculation device, and programs thereof
WO2017159614A1 (en) * 2016-03-14 2017-09-21 オムロン株式会社 Learning service provision device
US20170323203A1 (en) * 2016-05-06 2017-11-09 Ebay Inc. Using meta-information in neural machine translation

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
今村 賢治: "疑似原文生成によるニューラル機械翻訳への単言語コーパスの導入", 言語処理学会第23回年次大会 発表論文集 [ONLINE] PROCEEDINGS OF THE TWENTY-THIRD ANNUAL M, JPN6021031335, 6 March 2017 (2017-03-06), JP, pages 1026 - 1029, ISSN: 0004695140 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2021038708A1 (en) * 2019-08-27 2021-03-04
JP7333526B2 (en) 2019-08-27 2023-08-25 遼太 日並 Comic machine translation device, comic parallel database generation device, comic machine translation method and program
KR20220105551A (en) * 2021-01-20 2022-07-27 주식회사 한글과컴퓨터 Document translation service server for performing supplement of machine translation using prestored translation result, and the operating method thereof
KR102523806B1 (en) * 2021-01-20 2023-04-21 주식회사 한글과컴퓨터 Document translation service server for performing supplement of machine translation using prestored translation result, and the operating method thereof

Also Published As

Publication number Publication date
JP7122835B2 (en) 2022-08-22

Similar Documents

Publication Publication Date Title
CN116010713A (en) Innovative entrepreneur platform service data processing method and system based on cloud computing
JPWO2020021845A1 (en) Document classification device and trained model
WO2019225154A1 (en) Created text evaluation device
CN115221516B (en) Malicious application program identification method and device, storage medium and electronic equipment
JP2019139629A (en) Machine translation device, translation learned model and determination learned model
US20220301004A1 (en) Click rate prediction model construction device
US11663420B2 (en) Dialogue system
US20210142007A1 (en) Entity identification system
WO2020166125A1 (en) Translation data generating system
US12001793B2 (en) Interaction server
JP2018081495A (en) Parallel translation sentence pair output device
JP6259946B1 (en) Machine learning system, identification system, and program
US20210142006A1 (en) Generating method, non-transitory computer readable recording medium, and information processing apparatus
US20230223017A1 (en) Punctuation mark delete model training device, punctuation mark delete model, and determination device
WO2019208280A1 (en) Text matching system
WO2019187668A1 (en) Sentence matching system
WO2020070943A1 (en) Pattern recognition device and learned model
JP6745402B2 (en) Question estimator
JP2022029273A (en) Sentence similarity calculation device, trained model generation device, and variance expression model
WO2019187463A1 (en) Dialogue server
US11914601B2 (en) Re-ranking device
JP2019179394A (en) Information presentation system
JP2021179665A (en) Sentence creation device
WO2020255553A1 (en) Generation device and normalization model
US20230015324A1 (en) Retrieval device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220809

R150 Certificate of patent or registration of utility model

Ref document number: 7122835

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150