JP2012164172A - Text input device, translation device including the same, text input method and computer program - Google Patents

Text input device, translation device including the same, text input method and computer program Download PDF

Info

Publication number
JP2012164172A
JP2012164172A JP2011024518A JP2011024518A JP2012164172A JP 2012164172 A JP2012164172 A JP 2012164172A JP 2011024518 A JP2011024518 A JP 2011024518A JP 2011024518 A JP2011024518 A JP 2011024518A JP 2012164172 A JP2012164172 A JP 2012164172A
Authority
JP
Japan
Prior art keywords
touch panel
panel display
sentence
translation
icons
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011024518A
Other languages
Japanese (ja)
Other versions
JP5652824B2 (en
Inventor
Finch Andrew
アンドリュー フィンチ
Kumiko Tanaka
久美子 田中
Wei Song
▲火韋▼ 宋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2011024518A priority Critical patent/JP5652824B2/en
Publication of JP2012164172A publication Critical patent/JP2012164172A/en
Application granted granted Critical
Publication of JP5652824B2 publication Critical patent/JP5652824B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Input From Keyboards Or The Like (AREA)
  • Position Input By Displaying (AREA)
  • Machine Translation (AREA)
  • Document Processing Apparatus (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a device that is easy in handling and is capable of translation with high reliability.SOLUTION: A translation device having a touch panel display includes an icon display unit for displaying icons 118. An icon is selected so that an icon sequence is input and displayed in an icon sequence field 120. When a user presses a source generation button 126, a source sentence in a complete form is predicted by a word sequence corresponding to the icon sequence. When the source sentence is a satisfied one, the source sentence is translated into a target sentence by selecting a translation button 124 so as to be displayed in a translation sentence field 130.

Description

この発明は自然言語処理に関し、特に、ピクチャー又はアイコンベースのテキスト処理装置と、それを含む機械翻訳とに関する。   The present invention relates to natural language processing, and more particularly to a picture or icon-based text processing apparatus and machine translation including the same.

最近は機械翻訳(Machine Translation:MT)サービスに対する需要が大いに増しているが、これは、多くの言語の組合せにおいて実用的レベルまで翻訳の品質が改良されてきたからである。機械翻訳のアプリケーションに共通のプラットフォームの1つとして、必要な時にどこでも用いることのできる携帯機器がある。MTシステムが広まるにつれ、MTに関し、翻訳品質以外の周辺的な問題に光が当てられるようになってきた。実世界のMTアプリケーションが直面する重大な問題は、MTシステムに入力としてユーザが与える可能性のあるものが実に様々であるということである。例えば、入力には、間違えたり、標準からはずれたり、又は文法に従わなかったりする文、短縮された単語、絵文字、単語の置換え(例えば、「you」の代わりに「u」と書く等)等が含まれている。このような現象はMTシステムの性能を低下させるが、本質的には、MTシステムが取組もうとしている、それ自体既に十分な難問である中心的な問題に対して、周辺的な事項である。   Recently, the demand for machine translation (MT) services has increased greatly because the quality of translation has improved to a practical level in many language combinations. One common platform for machine translation applications is portable devices that can be used anywhere when needed. As the MT system has become widespread, the MT has been focused on peripheral issues other than translation quality. A significant problem faced by real-world MT applications is that there is a great variety of what a user can provide as input to an MT system. For example, for input, a sentence that is wrong, deviating from the standard, or that does not follow the grammar, a shortened word, a pictogram, a word replacement (for example, “u” instead of “you”, etc.), etc. It is included. Such a phenomenon reduces the performance of the MT system, but is essentially a peripheral matter to the central problem that the MT system is trying to address, which is already a sufficiently difficult problem.

このような問題に対処する1つの方法は、不規則な用法とそれに対応する正確な用法とから成る大規模なコーパスを収集し、教師付き方法で言語を規則化するように学習させることであろう。しかし、この方策には明らかに限界がある。現実のユーザが標準からはずれるやり方はユーザのコミュニケーションのモード又はコード、内容、さらにはユーザのウィットにも依存するからである。   One way to deal with these problems is to collect a large corpus of irregular usages and the corresponding exact usages and train them to regularize the language in a supervised way. Let's go. However, this strategy clearly has its limitations. This is because the way a real user deviates from the standard depends on the user's communication mode or code, content, and even the user's wit.

MTドメインでは、これまで、2つのコミュニケーションチャネルが研究されてきた。図1に示すように、第1のコミュニケーションチャネル40は、ソース言語42とターゲット言語46との間の翻訳であって、これはソース言語42とターゲット言語46との間に置かれる中間の言語である中間言語(インターリンガ)44を介して行なうことができる。中間言語44が自然言語である場合は、コミュニケーションチャネルは2つのMTシステムの連結でよい。第1はソース言語42から中間言語44へのものであり、第2は中間言語44からターゲット言語46へのものである。また、翻訳はコミュニケーションチャネル50を介しても達成できる。これはソース言語52からターゲット言語54への直接翻訳処理である。これは、広範に研究されている、最新の統計的機械翻訳システムを用いて達成できる。   In the MT domain, two communication channels have been studied so far. As shown in FIG. 1, the first communication channel 40 is a translation between the source language 42 and the target language 46, which is an intermediate language placed between the source language 42 and the target language 46. This can be done via some intermediate language (interlinger) 44. If the intermediate language 44 is a natural language, the communication channel may be a concatenation of two MT systems. The first is from the source language 42 to the intermediate language 44, and the second is from the intermediate language 44 to the target language 46. Translation can also be achieved via the communication channel 50. This is a direct translation process from the source language 52 to the target language 54. This can be accomplished using the latest statistical machine translation systems that have been extensively studied.

picTrans。2010年。簡単なピクチャーベースの翻訳システム。7ジリオン。[オンライン]http://www.7zillion.com/iPhone/PicTrans/、アクセス日2011年1月18日。picTrans. 2010. A simple picture-based translation system. 7 Zillion. [Online] http://www.7zillion.com/iPhone/PicTrans/, access date January 18, 2011. 指さし。2010年。指さし。情報センタ出版局。[オンライン]、http://www.yubisashi.com/free/t/iphone/、アクセス日2011年1月18日。Pointing. 2010. Pointing. Information Center Publishing Bureau. [Online], http://www.yubisashi.com/free/t/iphone/, access date January 18, 2011. TexTra.2010年。(NICTによるテキスト翻訳機)。NICT。[オンライン]、http://mastar.jp/translation/textra-en.html、アクセス日2011年1月18日。TexTra. 2010. (Text translator by NICT). NICT. [Online], http://mastar.jp/translation/textra-en.html, access date January 18, 2011. VoiceTra。2010年。(NICTによる音声翻訳機)。NICT。[オンライン]、http://mastar.jp/translation/voicetra-en.html、アクセス日2011年1月18日。VoiceTra. 2010. (Nicct speech translator). NICT. [Online], http://mastar.jp/translation/voicetra-en.html, access date January 18, 2011.

人が母国語を異にする人と意思の疎通を図ろうとする場合、MTは便利な道具である。しかし、完全なMTシステムを持ち歩くわけにはいかない。携帯電話、又は無線通信能力を備えた携帯タブレット型コンピュータ等の携帯機器は、これらが完全なMTシステムと通信可能である限りにおいて、有用である。しかし、携帯機器でテキストを入力するのは、面倒で、多くのキーを押す必要があり、間違えやすい。ごく短い文でも、携帯機器で入力するのは困難である。このような場合、携帯機器以外の手段を用いた従来の方法が便利である。例えば、多くの場合、意思の疎通を図ろうとする人は、画像、記号、身振り等のコミュニケーション手段を持っており、ほかの手段がうまくいかない場合にはしばしば、これらの手段を用いる。実際、アイコンベースのコミュニケーションは、コミュニケーション手段が全くない地域の人々と意思の疎通を図ろうとする外交官の間では長い歴史がある。コミュニケーションはピクチャーを主として用いた本を用いて行なわれる。この本は、表現したいと願う内容の意味を示すアイコンを含み、外交官はそれらを指さすだけで外国の人々と意思の疎通を図る。   MT is a useful tool for people who want to communicate with people who speak different native languages. But you can't carry a complete MT system. Mobile devices such as mobile phones or mobile tablet computers with wireless communication capabilities are useful as long as they can communicate with a complete MT system. However, entering text on a mobile device is cumbersome and requires many key presses, making it easy to make mistakes. Even a very short sentence is difficult to input on a mobile device. In such a case, a conventional method using means other than the portable device is convenient. For example, in many cases, a person trying to communicate has communication means such as images, symbols, and gestures, and often uses these means when other means do not work. In fact, icon-based communication has a long history among diplomats trying to communicate with people in areas where there is no means of communication. Communication is carried out using books mainly using pictures. This book includes icons that indicate the meaning of the content that you want to express, and diplomat can communicate with foreign people just by pointing to them.

例えば、図4に示すように、ピクチャーブックは2つのピクチャー80及び82を含む。ピクチャー80には「I want to go to」という英語のテキストと、対応の日本語のテキストが付されている。ピクチャー82には、「restaurant」という英語のテキストと、対応の日本語のテキストと、ナイフ及びフォークのピクチャーとがある。ユーザが、「I want to go to the restaurant」(私はレストランに行きたい)という表現を翻訳したいとする。このピクチャーブックがあれば、ユーザはおそらく図5に示すように上記した2つのピクチャーを指さすであろう。すなわちピクチャー80(「I want to go to」)を指さし、それからピクチャー82(「restaurant」)を指さす。   For example, as shown in FIG. 4, the picture book includes two pictures 80 and 82. The picture 80 has an English text “I want to go to” and a corresponding Japanese text. The picture 82 includes an English text “restaurant”, a corresponding Japanese text, and a knife and fork picture. Suppose the user wants to translate the expression “I want to go to the restaurant” (I want to go to a restaurant). With this picture book, the user will probably point to the two pictures described above, as shown in FIG. That is, it points to the picture 80 (“I want to go to”) and then points to the picture 82 (“restaurant”).

ピクチャーベースのコミュニケーションに関しては、携帯型の装置用に様々なアプリケーションが提案されている。前者の領域では、PictTrans(pic−Trans,2010:非特許文献1)はピクチャーのアイコンのみを示し、指さし(指さし、2010:非特許文献2)(指でさすことを意味する)はアイコンをタップすると音声が出るが、これらのシステムは言語の生成は何ら行なわず、これは人間のユーザに任されている。   For picture-based communication, various applications have been proposed for portable devices. In the former area, PictTrans (pic-Trans, 2010: Non-Patent Document 1) indicates only a picture icon, and pointing (2010, Non-Patent Document 2) (meaning pointing with a finger) taps the icon. A voice is then produced, but these systems do not generate any language, which is left to human users.

逆に、ハンドヘルドの装置用に、かなりの数の機械翻訳システムも提案されている。例えば、texTra(texTra,2010:非特許文献3)テキスト翻訳システム及びvoiceTra(VoiceTra、2010:非特許文献4)発話翻訳システムがあるが、われわれの承知している限りでは、これらには、アイコンを備えたユーザインターフェイスを採用しているものはない。   Conversely, a significant number of machine translation systems have also been proposed for handheld devices. For example, there is a texTra (texTra, 2010: Non-Patent Document 3) text translation system and a voiceTra (VoiceTra, 2010: Non-Patent Document 4) utterance translation system. None have a user interface.

ピクチャーベースのアプリケーションは扱いが容易であるが、ソース文の表現可能性は限られている。音声ベースの機械翻訳アプリケーションは扱いが容易であるが、音声認識には誤りが多いと思われる。テキストベースの機械翻訳は最も翻訳の信頼性が高いが、テキスト入力はその携帯機器の入力システムに依存し、ほとんどの場合面倒である。   Picture-based applications are easy to handle, but the possibilities for expressing source sentences are limited. Speech-based machine translation applications are easy to handle, but speech recognition seems to be error prone. Text-based machine translation has the highest translation reliability, but text input depends on the input system of the mobile device and is usually cumbersome.

したがって、この発明の目的は、扱いが容易で信頼性の高い翻訳を生成する装置及び方法を提供することである。   Accordingly, an object of the present invention is to provide an apparatus and method for generating a translation that is easy to handle and highly reliable.

この発明の別の目的は、ソーステキストを容易に入力し信頼性の高い翻訳を生成する装置及び方法を提供することである。   Another object of the present invention is to provide an apparatus and method for easily inputting source text and generating a reliable translation.

この発明の第1の局面にしたがえば、タッチパネルディスプレイと関連して用いられるテキスト入力装置は、前記タッチパネルディスプレイに接続され、前記タッチパネルディスプレイにアイコンの組を表示するための手段と、前記タッチパネルディスプレイに接続され、ユーザによる前記タッチパネルディスプレイに表示された前記アイコンの1つ又は2つ以上のシーケンスの入力を受けるための入力受信手段と、前記タッチパネルディスプレイに接続され、前記入力受信手段を用いて前記ユーザによって入力されたアイコンのシーケンスを前記タッチパネルディスプレイに表示するための手段と、前記アイコンのシーケンスを所定の言語の完全な文に翻訳する翻訳手段と、を含む。   According to a first aspect of the present invention, a text input device used in connection with a touch panel display is connected to the touch panel display, means for displaying a set of icons on the touch panel display, and the touch panel display Connected to the touch panel display, input receiving means for receiving an input of one or more sequences of the icons displayed on the touch panel display by the user, and using the input receiving means Means for displaying a sequence of icons input by a user on the touch panel display; and translation means for translating the sequence of icons into a complete sentence in a predetermined language.

好ましくは、テキスト入力装置は、前記タッチパネルディスプレイ及び前記翻訳手段に接続され、前記翻訳手段によって翻訳された前記完全な文を前記タッチパネルディスプレイに表示するための手段をさらに含む。   Preferably, the text input device further includes means connected to the touch panel display and the translating means, and displaying the complete sentence translated by the translating means on the touch panel display.

さらに好ましくは、テキスト入力装置は、各々が前記アイコンとそれぞれ関連する、前記所定の言語のフレーズを記憶するための記憶手段と、前記記憶手段及び前記入力受信手段に接続され、前記アイコンの各々について前記記憶手段から引出されたフレーズを連結することにより外部言語のテキストを生成するための手段とをさらに含む。前記翻訳手段は文の対のコーパスで前記外部言語のテキストを前記所定の言語の文に翻訳するように統計的にトレーニングされたフレーズベースの統計的機械翻訳ユニットを含んでもよく、前記対の各々は、前記所定言語の第1の語彙内の語を含むフレーズのシーケンスと、前記第1の語彙より大きい第2の語彙内の語を含む前記所定言語の文と、を含む。   More preferably, the text input device is connected to the storage unit for storing the phrase in the predetermined language, each of which is associated with the icon, and the storage unit and the input receiving unit. Means for generating text in an external language by concatenating phrases derived from the storage means. The translation means may include a phrase-based statistical machine translation unit that is statistically trained to translate the text in the external language into a sentence in the predetermined language in a corpus of sentence pairs, each of the pairs Includes a sequence of phrases including words in a first vocabulary of the predetermined language and a sentence of the predetermined language including words in a second vocabulary greater than the first vocabulary.

さらに好ましくは、前記第1の語彙は前記所定言語の内容語を含む。   More preferably, the first vocabulary includes content words of the predetermined language.

統計的機械翻訳ユニットは、文仮説を構築するのに用いられるバイリンガルフレーズ対を、先行する部分的仮説の末尾にこれらのフレーズ対を付加することに関連するモデル確率とともに表す、探索グラフを出力してもよい。前記文は前記探索グラフにおいて最も尤度の高い経路に対応する仮説であり得る。   The statistical machine translation unit outputs a search graph that represents the bilingual phrase pairs used to build the sentence hypothesis, along with the model probabilities associated with adding these phrase pairs to the end of the preceding partial hypothesis. May be. The sentence may be a hypothesis corresponding to the most likely path in the search graph.

テキスト入力装置はさらに、前記アイコンシーケンス中のアイコンの1つのユーザによる選択を受ける手段と、前記ユーザの選択に応答して、前記探索グラフの前記ユーザによって選択された前記アイコンに対応するノードまでの部分から引出された複数個の部分仮説を示すための手段とを含んでもよい。   The text input device further includes means for receiving selection by one user of an icon in the icon sequence and up to a node corresponding to the icon selected by the user in the search graph in response to the user selection. Means for indicating a plurality of partial hypotheses drawn from the part.

この発明の第2の局面にしたがえば、翻訳装置は、上述のテキスト入力装置のいずれかにしたがったテキスト入力装置と、前記テキスト入力装置によって出力される前記文をターゲット言語の翻訳文に翻訳するための統計的機械翻訳装置と、前記翻訳文を前記タッチパネルディスプレイに表示するための手段と、を含む。   According to a second aspect of the present invention, a translation device translates a text input device according to any of the text input devices described above and the sentence output by the text input device into a translated sentence in a target language. And a statistical machine translation device for displaying the translated sentence on the touch panel display.

好ましくは、翻訳装置はさらに、前記タッチパネルディスプレイから予め規定されたコマンドを受けるための手段と、前記予め規定されたコマンドに応答して前記翻訳文を前記所定言語に逆翻訳し、前記逆翻訳された文を前記タッチパネルディスプレイに表示するための手段とを含む。   Preferably, the translation device further includes means for receiving a predefined command from the touch panel display, and back-translates the translated sentence into the predetermined language in response to the predefined command, and the back-translated Means for displaying a sentence on the touch panel display.

この発明の第3の局面にしたがえば、タッチパネルディスプレイに関連してテキストを入力する方法は、前記タッチパネルディスプレイにアイコンの組を表示するステップと、ユーザによる、前記タッチパネルディスプレイに表示された前記アイコンの1つ又は2つ以上のシーケンスの入力を受けるステップと、前記受けるステップで入力されたアイコンのシーケンスを前記タッチパネルディスプレイに表示するステップと、前記アイコンのシーケンスを所定の言語の完全な文に翻訳するステップと、を含む。   According to a third aspect of the present invention, a method for inputting text in relation to a touch panel display includes a step of displaying a set of icons on the touch panel display, and the icon displayed on the touch panel display by a user. Receiving one or more sequences of input, displaying the sequence of icons input in the receiving step on the touch panel display, and translating the sequence of icons into a complete sentence in a predetermined language Including the steps of:

この発明の第4の局面にしたがえば、コンピュータプログラムは、タッチパネルディスプレイを備えたコンピュータを、前記タッチパネルディスプレイに接続され、前記タッチパネルディスプレイにアイコンの組を表示するための手段と、前記タッチパネルディスプレイに接続され、ユーザによる前記タッチパネルディスプレイに表示された前記アイコンの1つ又は2つ以上のシーケンスの入力を受けるための入力受信手段と、前記タッチパネルディスプレイに接続され、前記入力受信手段を用いて前記ユーザによって入力されたアイコンのシーケンスを前記タッチパネルディスプレイに表示するための手段と、前記アイコンのシーケンスを所定の言語の完全な文に翻訳する翻訳手段、として機能させる。   According to a fourth aspect of the present invention, a computer program connects a computer having a touch panel display to the touch panel display and displays a set of icons on the touch panel display, and the touch panel display. Input receiving means for receiving an input of one or more sequences of the icons displayed on the touch panel display by the user, and connected to the touch panel display, and using the input receiving means, the user And a means for displaying the sequence of icons input by the touch panel display and a translation unit for translating the sequence of icons into a complete sentence in a predetermined language.

先行技術の第1のコミュニケーションチャネル40を示す図である。1 shows a prior art first communication channel 40; FIG. 先行技術の第2のコミュニケーションチャネル50を示す図である。FIG. 2 shows a second communication channel 50 of the prior art. この発明のコミュニケーションチャネル60を示す図である。It is a figure which shows the communication channel 60 of this invention. ピクチャーブックにあるピクチャーの例を示す図である。It is a figure which shows the example of the picture in a picture book. ユーザが図4に示すピクチャーブックを操作する様子を示す図である。It is a figure which shows a mode that a user operates the picture book shown in FIG. この発明の1実施の形態のアイコンベースの翻訳アプリケーションのユーザインターフェイス(User Interface:UI)画面100を示す図である。It is a figure which shows the user interface (User Interface: UI) screen 100 of the icon-based translation application of 1 embodiment of this invention. 翻訳とその逆翻訳のトグルを示す図である。It is a figure which shows the toggle of translation and its reverse translation. この発明の第1の実施の形態のアイコンベースの翻訳システムのブロック図である。It is a block diagram of the icon-based translation system of 1st Embodiment of this invention. 図8に示す翻訳システムの翻訳サーバの機能的ブロック図である。It is a functional block diagram of the translation server of the translation system shown in FIG. ソース言語−ソース言語(source−to−souce:S−TO−S)SMTエンジンをトレーニングするプログラムの制御の流れを示すフローチャートである。It is a flowchart which shows the flow of control of the program which trains a source language-source language (source-to-source: S-TO-S) SMT engine. アイコンベースのソース文と完全型のソース文とのアライメント例を示す図である。It is a figure which shows the example of alignment of an icon base source sentence and a complete type source sentence. この発明にしたがった携帯機器で実行されるアイコンベースの翻訳アプリケーションの制御の流れを示すフローチャートである。It is a flowchart which shows the flow of control of the icon base translation application performed with the portable apparatus according to this invention. アイコン追加ルーチンの詳細な制御の流れを示す図である。It is a figure which shows the detailed control flow of an icon addition routine. アイコンテキストのシーケンスから完全型のソース文を生成するルーチンの詳細な制御の流れを示す図である。It is a figure which shows the detailed control flow of the routine which produces | generates a complete type source sentence from the sequence of icon text. 完全型のソース文を改良するルーチンの詳細な制御の流れを示す図である。It is a figure which shows the detailed control flow of the routine which improves a complete type | mold source sentence. 翻訳操作の詳細な制御の流れを示す図である。It is a figure which shows the flow of the detailed control of translation operation. 人間による操作がある場合の、アイコンの組のサイズに対する、未遭遇データの範囲を示すグラフである。It is a graph which shows the range of the unexpected data with respect to the size of the set of icons when there is a human operation. 人間による操作なしの場合の、アイコンの組のサイズに対する、未遭遇データの範囲を示すグラフである。It is a graph which shows the range of the un-encountered data with respect to the size of the set of icons when there is no human operation. 欠落した不変化詞を回復するための隠れn−グラム法に対する、SMTアプローチを用いたソース文生成品質を表形式で示す図である。It is a figure which shows the source sentence production | generation quality using the SMT approach with a tabular form with respect to the hidden n-gram method for recovering the missing invariant. アイコンベースの翻訳アプリケーションが実行される携帯機器の斜視図である。FIG. 3 is a perspective view of a mobile device on which an icon-based translation application is executed. 図20に示す機器のブロック図である。It is a block diagram of the apparatus shown in FIG. この発明の一実施の形態の翻訳サーバとして機能するコンピュータの正面図である。It is a front view of the computer which functions as a translation server of one embodiment of this invention. 図22に示すコンピュータのブロック図である。It is a block diagram of the computer shown in FIG.

上述の図面を参照してこの発明を説明する。以下の説明及び図面では、同一の構成要素には同一の参照番号を付してある。したがって、それらについての詳細な説明は繰返さない。それらの機能もまた同様であるので、その詳細な説明は繰返さない。   The present invention will be described with reference to the above-mentioned drawings. In the following description and drawings, the same reference numerals are assigned to the same components. Therefore, detailed description thereof will not be repeated. Since their functions are also the same, detailed description thereof will not be repeated.

1.外部言語
この実施の形態は、対話者のいずれからも見える外部言語(Extralingua)を用いる。図3を参照して、ユーザは、両者とも、外部言語62を、以下の3つのMTシステムの支援を用いて対話的に操作できる。第1は外部言語62とソース言語64との間のもの、第2はソース言語64とターゲット言語66との間のもの、第3は外部言語62とターゲット言語66との間のものである。このような外部言語が存在するならそもそもなぜMTが必要なのか疑問に思うかもしれない。実はこの点が重要なのである。対話者同士には互いに意思の疎通ができる共通の言語が無い。これまでは図1及び図2に示すように単一のMTチャネルを用いてこのギャップを埋める方法のみを考えてきた。しかし、多くの状況において、対話者は、画像、記号、身振り等のコミュニケーション手段を持っており、ほかの手段がうまくいかない場合には、これらの手段を用いることが多い。このコミュニケーションの別のモードをMTチャネルと独立して並列に採用することもできるが、この発明の思想は、第2のコミュニケーションチャネルを直接機械翻訳システムに緊密に結合することを探求しようとするものである。
1. External Language This embodiment uses an external language (Extralingua) that is visible to any of the interlocutors. Referring to FIG. 3, the user can interactively operate the external language 62 with the help of the following three MT systems. The first is between the external language 62 and the source language 64, the second is between the source language 64 and the target language 66, and the third is between the external language 62 and the target language 66. If such an external language exists, you may be wondering why MT is necessary in the first place. In fact, this is important. There is no common language that can communicate with each other. So far, only the method of filling this gap using a single MT channel as shown in FIGS. 1 and 2 has been considered. However, in many situations, the interlocutor has communication means such as images, symbols, and gestures, and often uses these means when other means do not work. Although another mode of this communication can be employed in parallel independently of the MT channel, the idea of the present invention is to seek to couple the second communication channel directly to the machine translation system. It is.

このアプローチには多くの利点がある。第1に、何よりもまず、ユーザ間のコミュニケーションの品質が改善される。外部言語62を採用することにより、ユーザは2つの別種のチャネルを介して意思の疎通を図ることが可能になる。MT出力が完全であるとは期待できないので、これを補強する、又はこれと矛盾を生じるような第2の独立したコミュニケーションモードがあれば、より良い相互理解につながる。第2に、この提案はまたMTの品質も改善する。ユーザ入力処理を外部言語へのユーザインターフェイスで支援することができ、それによって入力を規則正しくし、予期しないエントリの数を減じることができるからである。   This approach has many advantages. First, above all, the quality of communication between users is improved. By adopting the external language 62, the user can communicate with each other through two different types of channels. Since the MT output cannot be expected to be complete, a second independent communication mode that reinforces or contradicts this will lead to better mutual understanding. Second, this proposal also improves the quality of MT. This is because user input processing can be supported by a user interface to an external language, thereby making the input regular and reducing the number of unexpected entries.

外部言語62の概念は、2つの大きな問題を提示する。   The concept of external language 62 presents two major problems.

−外部言語はどのような形をとるべきか?
−どうすればこの外部言語を効果的にMTシステムに統合できるか?
原理的には、外部言語は対話者によって共有できる、言語型のコミュニケーション媒体であればどのようなものでもよい。画像、記号、公式又は国際的な自然言語であってもよい。この実施の形態では、このような外部言語のアプローチが単純な抽象的言語によっても効果的であることを示すために、まず初めの例としてアイコンを採用した。
-What form should an external language take?
-How can this external language be effectively integrated into the MT system?
In principle, the external language can be any language-type communication medium that can be shared by interlocutors. It may be images, symbols, official or international natural languages. In this embodiment, in order to show that such an external language approach is effective even with a simple abstract language, an icon is first adopted as an example.

2.アイコンベースの翻訳システム
ピクチャーベースの翻訳支援具は紙の本の形で使われてきて、現在はハンドヘルドの装置に統合されているが、先行技術の非特許文献1又は2に示されるように、機械翻訳システムと組合わされてはいない。簡潔に言えば、この実施の形態において、ユーザはタッチスクリーンに現れるピクチャーのアイコンを、ちょうどピクチャーベースの翻訳支援具と同じように、タップする。システムはこれらの選択されたアイコンのシーケンスから可能な文を自動的に生成し、それらを機械翻訳に供給して、翻訳結果が表示できるようにする。ピクチャーブックとは異なり、アイコンのシーケンスはディスプレイ上に維持されてユーザが見ることができ、必要に応じて操作できる。入力が完了すると、システムは自動的に又は要求に応じてソース言語で完全型の文を生成し、これがその後機械翻訳ソフトウェアで翻訳されて、アイコンのシーケンスとともにスクリーン上に表示される。
2. Icon-based translation system Picture-based translation aids have been used in the form of paper books and are now integrated into handheld devices, but as shown in the prior art Non-Patent Document 1 or 2, It is not combined with a machine translation system. Briefly, in this embodiment, the user taps the picture icon that appears on the touch screen, just like a picture-based translation aid. The system automatically generates possible sentences from these selected sequences of icons and feeds them to machine translation so that the translation results can be displayed. Unlike a picture book, the sequence of icons is maintained on the display and can be viewed by the user and manipulated as needed. When input is complete, the system generates a complete sentence in the source language, either automatically or on demand, which is then translated by machine translation software and displayed on the screen with a sequence of icons.

後述するように、この実施の形態では、アイコンのシーケンスは携帯機器のタッチスクリーンで入力される。遠隔の翻訳サーバで完全型のソース文の探索ツリーが生成される。探索ツリーを用いて、ユーザは携帯機器上で完全型のソース文を改良する。この改良されたソース文が翻訳サーバに送られる。翻訳文が携帯機器に送り返され、ユーザに提示される。   As will be described later, in this embodiment, the sequence of icons is input on the touch screen of the portable device. A remote translation server generates a complete source sentence search tree. Using the search tree, the user refines the complete source sentence on the mobile device. This improved source sentence is sent to the translation server. The translation is sent back to the mobile device and presented to the user.

この実施の形態では、このユーザインターフェイスを介してコミュニケーションすることにより、ユーザは本の同じ見開きからのみの組合せを想定してデザインされたピクチャーブックでできるよりもかなり多くのピクチャーを組合せることができ、このためアプリケーションは本よりずっと豊かな表現を実現できる。機械翻訳システムはピクチャーベースのモードに支援された、詳細で正確な翻訳を提供することができ、これは基本的な概念を伝えるのにより迅速な方法を提供するのみならず、機械翻訳の誤りをとらえ、ユーザにその文の再試行を許して誤解を避けるような、機械翻訳出力の「セカンドオピニオン」も与える。   In this embodiment, communicating through this user interface allows the user to combine much more pictures than can be done with a picture book designed for combinations only from the same book spread. Because of this, the application can achieve a richer expression than a book. Machine translation systems can provide detailed and accurate translations, supported by a picture-based mode, which not only provides a quicker way to convey basic concepts, It also provides a “second opinion” of machine translation output that allows the user to retry the sentence and avoid misunderstandings.

携帯機器上のMTに適用した場合、このようなシステムは非常に有利である。これら形態機器上でのユーザの入力は、テキスト入力の場合は面倒だろうし、音声入力では誤りが多いだろう。この結果、ユーザはより簡単で信頼のおける、ピクチャーブックの翻訳支援具等の言語間コミュニケーション方法を好むようになっており、最近、紙の形でも、電子的翻訳支援アプリケーションの形でも、広く用いられるようになってきている。   Such a system is very advantageous when applied to MT on portable devices. The user's input on these form devices will be troublesome in the case of text input, and there will be many errors in voice input. As a result, users have come to prefer simpler and more reliable interlanguage communication methods such as picture book translation support tools, which are now widely used both in paper and electronic translation support applications. It has become like this.

2.1 ユーザインターフェイス
携帯機器で実行されるアプリケーションの完全なユーザインターフェイスの図を図6に示す。簡単に言えば、このアプリケーションはユーザが表現したいものをバイリンガルで注釈を付けたアイコンのシーケンスで入力できるようにする。これは本質的にはピクチャーブックと同じ思想である。
2.1 User Interface A diagram of the complete user interface of an application running on a mobile device is shown in FIG. Simply put, this application allows the user to enter what they want to represent in a sequence of bilingual annotated icons. This is essentially the same idea as a picture book.

図6を参照して、この実施の形態のUIは、ソース言語とターゲット言語との間で言語をトグルするUI言語トグルボタン110、所望のアイコンカテゴリをユーザに選択させるカテゴリボタン112、選択されたアイコンカテゴリのうち、所望のサブカテゴリをユーザに選択させるサブカテゴリボタン114、アイコンの順序を並べ替えるアイコンソートボタン116、及び各々がソース言語フレーズとターゲット言語フレーズとの対を保持し、フレーズの意味を図形で表すアイコンがついた、一組のアイコン118とを含む。この実施の形態では、アイコン上のテキストは必須ではない。図形がうまくデザインされていれば、テキストはアイコンから省略してもよい。各アイコン118はこのシステムを実現するプログラムにおいてオブジェクトとして実現される。各アイコンオブジェクトは表示のためのそれ自身の図形データと、そのアイコンに関連したソース言語及びターゲット言語の単語又はフレーズを有する。アイコンデータはプログラムの一部であってもよく、ハードディスクドライブ等の記憶装置に記憶される。   Referring to FIG. 6, the UI of this embodiment includes a UI language toggle button 110 that toggles the language between the source language and the target language, a category button 112 that allows the user to select a desired icon category, Of the icon categories, a subcategory button 114 that allows the user to select a desired subcategory, an icon sort button 116 that rearranges the order of the icons, and each holds a pair of a source language phrase and a target language phrase, and the meaning of the phrase is graphically illustrated And a set of icons 118 with icons represented by. In this embodiment, the text on the icon is not essential. If the figure is well designed, the text may be omitted from the icon. Each icon 118 is realized as an object in a program for realizing this system. Each icon object has its own graphic data for display and a source language and target language word or phrase associated with the icon. The icon data may be a part of the program and is stored in a storage device such as a hard disk drive.

UIはさらに、アイコンのシーケンス(例えば、アイコン140、142及び144)を入力順に表示するための、入力アイコンシーケンス用のアイコンシーケンスフィールド120と、アイコンのシーケンスから完全型のソース文の生成を起動するソース生成ボタン126と、アイコンのシーケンスから生成された完全型のソース文を表示するためのソース文フィールド122と、ソース文フィールド122のソース文の翻訳文を表示する翻訳文フィールド130と、ソース文フィールド122に示された完全型のソース文の翻訳を起動し、翻訳文が翻訳文フィールド130に現れるようにさせる翻訳ボタン124と、アイコンシーケンスフィールド120、ソース文フィールド122、及び翻訳文フィールド130をクリアするためのクリアボタン128と、翻訳文フィールド130に示された翻訳文の他の言語への翻訳を起動するチェックボタン132とを含む。ユーザがアイコン118の1つを選択すると、選択されたアイコンはアイコンシーケンスフィールド120内のアイコンのシーケンスに追加される。これは、アイコンの図形表現のシーケンスが生成されるだけでなく、アイコンシーケンスにしたがって単語又はフレーズを連結することにより、アイコンに関連する単語又はフレーズのシーケンスも生成されることを意味する。   The UI further triggers an icon sequence field 120 for an input icon sequence to display a sequence of icons (eg, icons 140, 142, and 144) in the order of input and generation of a complete source sentence from the icon sequence. A source generation button 126; a source sentence field 122 for displaying a complete source sentence generated from a sequence of icons; a translation sentence field 130 for displaying a translation sentence of the source sentence in the source sentence field 122; and a source sentence A translation button 124 that activates translation of the complete source sentence shown in the field 122 and causes the translated sentence to appear in the translated sentence field 130, an icon sequence field 120, a source sentence field 122, and a translated sentence field 130 Clear to clear It includes a Abotan 128, a check button 132 to start the other the language translation of the translation field translation shown in 130. When the user selects one of the icons 118, the selected icon is added to the sequence of icons in the icon sequence field 120. This means that not only is a sequence of graphical representations of icons generated, but by concatenating words or phrases according to the icon sequence, a sequence of words or phrases associated with the icon is also generated.

ソース生成ボタン126は必ずしも必要でない。例えば、2個又はそれ以上のアイコンが選択された場合、完全なソーステキストを自動的に推定してもよい。又は、ソース言語によっては、例えば特定のクラスの単語又はフレーズによって推定が自動的に起動してもよい。   The source generation button 126 is not always necessary. For example, if two or more icons are selected, the complete source text may be estimated automatically. Or, depending on the source language, for example, the estimation may be automatically triggered by a specific class of words or phrases.

ユーザはUI言語トグルボタン110を押すことによってユーザインターフェイスを自身の言語に切換えることができる。翻訳処理は以下のように進む。   The user can switch the user interface to his / her language by pressing the UI language toggle button 110. The translation process proceeds as follows.

(1)ユーザがカテゴリボタン112のいずれかを押すことにより、表現したいと思う概念のカテゴリを選択する。   (1) When the user presses any of the category buttons 112, the category of the concept that the user wants to express is selected.

(2)ユーザがサブカテゴリボタン114の1つを押すことによりサブカテゴリを選択する。   (2) The user selects one of the subcategories by pressing one of the subcategory buttons 114.

(3)ユーザがアイコン118の中からアイコンを選ぶと、そのアイコンがアイコンシーケンスフィールド120内のアイコンシーケンスに追加される。   (3) When the user selects an icon from among the icons 118, the icon is added to the icon sequence in the icon sequence field 120.

(3a)もしユーザが入力を続けたい場合には、(1)に戻り、シーケンスに別のアイコンを選択する。   (3a) If the user wants to continue input, return to (1) and select another icon for the sequence.

(3b)もしアイコンシーケンスが完了であれば、ソース生成ボタン126を押し、続いてステップ(4)に進む。アイコンシーケンスフィールド120内のアイコンシーケンスは完全型のソース文に翻訳され、ソース言語文がソース文フィールド122に現れる。この翻訳はソース言語からソース言語への翻訳である。完全なソース言語は、後述するフレーズベースのソース言語−ソース言語SMTによって、アイコンのシーケンスに基づいて、又はより具体的にはアイコンテキストのシーケンスに基づいて、遠隔のサーバにおいて推定される。   (3b) If the icon sequence is completed, the source generation button 126 is pressed, and the process proceeds to step (4). The icon sequence in icon sequence field 120 is translated into a complete source sentence and the source language sentence appears in source sentence field 122. This translation is a translation from the source language to the source language. The complete source language is inferred at the remote server by the phrase-based source language-source language SMT, described below, based on a sequence of icons or more specifically on a sequence of icon text.

(4)ユーザはシステムを対話的に操作することにより、ソース文を改良する(後述する。)。ユーザはアイコンシーケンスフィールド120内のアイコンのいずれか1つを選択することによりソース文を改良できる。   (4) The user improves the source sentence by operating the system interactively (described later). The user can refine the source sentence by selecting any one of the icons in the icon sequence field 120.

(5)完全型のソース文に満足な場合は、ユーザは翻訳ボタン124をクリックする。これによって遠隔サーバ内のSMTシステムがソース文フィールド122内の文をターゲット言語に翻訳することになる。   (5) If the user is satisfied with the complete source sentence, the user clicks the translation button 124. This causes the SMT system in the remote server to translate the sentence in the source sentence field 122 into the target language.

(6)翻訳文フィールド130に翻訳文が現れる。   (6) A translated sentence appears in the translated sentence field 130.

図7を参照して、一旦翻訳が完了すると、チェックボタン132を押すことにより翻訳文フィールド130内のターゲット文のソース言語への逆翻訳が示され、ユーザが翻訳を検証できる。チェックボタン132をもう一度押すと、逆翻訳が翻訳文に置き換わる。   Referring to FIG. 7, once the translation is completed, pressing the check button 132 indicates reverse translation of the target sentence in the translated sentence field 130 into the source language, and the user can verify the translation. When the check button 132 is pressed again, the reverse translation is replaced with the translation.

2.2システムアーキテクチャ
図8を参照して、翻訳システム150は、ネットワーク156により接続された携帯機器152とサーバコンピュータ154とを含む。携帯機器152はネットワーク156によりサーバコンピュータ154に接続され、このサーバコンピュータ154には3つの異なる機械翻訳サーバ処理が内蔵されている。第1のサーバ処理はアイコンシーケンスを完全型のソース文に翻訳し、デコード処理の探索グラフを、携帯機器152上で実行されているUIアプリケーションに返す。この処理は統計的機械翻訳(SMT)によって実現され、この実施の形態ではこれをソース言語−ソース言語SMTと呼ぶ。他の2つのサーバ処理はソース言語からターゲット言語への翻訳と、ターゲット言語からソース言語への逆翻訳とを行なう。これらの処理は最新のSMTによって実現され、それぞれソース言語−ターゲット言語SMT、ターゲット言語−ソース言語SMTと呼ぶ。
2.2 System Architecture Referring to FIG. 8, translation system 150 includes portable device 152 and server computer 154 connected by network 156. The portable device 152 is connected to a server computer 154 via a network 156, and the server computer 154 incorporates three different machine translation server processes. The first server process translates the icon sequence into a complete source sentence, and returns a search process search graph to the UI application running on the mobile device 152. This processing is realized by statistical machine translation (SMT), and in this embodiment, this processing is called a source language-source language SMT. The other two server processes perform translation from the source language to the target language and reverse translation from the target language to the source language. These processes are realized by the latest SMT and are called source language-target language SMT and target language-source language SMT, respectively.

UI言語をトグルすることによって、2人のユーザ160及び162はともに携帯機器152上のUIアプリケーションを利用できる。したがって、図9に示すように、2つのソース言語−ソース言語SMT174及び176がコンピュータ154内に内蔵されている。このシステムが日本語と英語との間のものであるとすれば、SMT174は日−日(日本語から日本語)のSMTであって、日本語のアイコンテキストシーケンスを日本語の完全型のソース文に翻訳し、SMT176は英−英(英語から英語)のSMT176であって英語のアイコンテキストシーケンスを英語の完全型のソース文に翻訳する。   By toggling the UI language, two users 160 and 162 can both use the UI application on the mobile device 152. Therefore, as shown in FIG. 9, two source languages—source languages SMT 174 and 176 are built in the computer 154. If this system is between Japanese and English, SMT 174 is a day-to-day (from Japanese to Japanese) SMT, with Japanese icon text sequences being fully sourced in Japanese SMT 176 is an English-English (English to English) SMT 176 that translates an English icon text sequence into a full English source sentence.

したがって、この実施の形態では、サーバコンピュータ154は日−日SMT174と、英−英SMT176と、日−英SMT178と、英−日SMT180と、サーバコンピュータ154にネットワーク156への接続を与えるネットワークインターフェイスカード(Network Interface Card:NIC)170と、図8の携帯機器152等の遠隔携帯機器(図示せず)からの要求を、日−日SMT174、英−英SMT176、日−英SMT178及び英−日SMT180の間に配信し、携帯機器に応答を返す要求配信処理172とを有する。   Therefore, in this embodiment, the server computer 154 is a network interface card that provides a connection to the network 156 for the day-day SMT 174, the English-English SMT 176, the Japanese-English SMT 178, the English-Japanese SMT 180, and the server computer 154. (Network Interface Card: NIC) 170 and requests from a remote portable device (not shown) such as portable device 152 of FIG. 8 are sent to Japanese-Japanese SMT174, English-English SMT176, Japanese-English SMT178, and English-Japanese SMT180. And a request distribution process 172 that returns a response to the portable device.

3.外部言語からソース文への変換
3.1 機械翻訳
外部言語を完全型のソース文に変換する作業は、字訳生成作業と極めて類似しており、これは単語並べ替え処理での一方向制約を用いたフレーズベースの統計的機械翻訳システム(SMT)(Finch及びSumita、2008年;Rama及びGali、2009年)を用いて行なうことができる。ここでも同様のアプローチを採用したが、SMTシステムのためのフレーズテーブルを引出すのにはベイズ共セグメント化アプローチ(次のセクションで説明する。)を用いた。
3. Conversion from an external language to a source sentence 3.1 Machine translation The process of converting an external language into a complete source sentence is very similar to the transliteration generation process, which is a one-way constraint in word reordering. This can be done using the phrase-based statistical machine translation system (SMT) used (Finch and Sumita, 2008; Rama and Gali, 2009). Again, a similar approach was taken, but the Bayesian co-segmentation approach (described in the next section) was used to derive the phrase table for the SMT system.

アイコンテキストシーケンスを完全型のソース文に翻訳するようにSMTシステムをトレーニングするために、単語の削除によってトレーニングコーパスを生成する。この実施の形態と実験では、ソース言語として日本語を用いた。すなわち、図10に示すように、日本語コーパス200を準備する。日本語コーパス200には、公に入手可能なMeCab(Kudo、2008年)等の形態素解析ツールを用いた形態素解析が行なわれる。本システムでアイコンで表されるであろう種類の内容語(例えば、名詞、動詞、形容詞等)を表す品詞(Part−Of−Speech:POS)タグの組が手で集められ、ステップ206で残りの単語のクラス(不変化詞、形式名詞、助動詞)がソース文から削除される。さらに全ての語彙素の活用形はこのステップでその見出し語に還元される。この処理の結果、バイリンガル(日本語から日本語)のトレーニングコーパス210が得られ、これは外部言語を示す、ソース側の内容語(語幹の形)のシーケンスと、ターゲット側である、完全型のソース文とからなる。トレーニングコーパス210のソース側内容語は語彙が限られており、一方で、ターゲット文側の完全なソース単語は、より大きな語彙からなる。   In order to train the SMT system to translate the icon text sequence into a complete source sentence, a training corpus is generated by word deletion. In this embodiment and experiment, Japanese was used as the source language. That is, as shown in FIG. 10, a Japanese corpus 200 is prepared. The Japanese corpus 200 is subjected to morphological analysis using a morphological analysis tool such as publicly available MeCab (Kudo, 2008). A set of part-of-speech (POS) tags representing the type of content words (eg, nouns, verbs, adjectives, etc.) that will be represented by icons in this system are collected by hand and the rest is left at step 206 The word classes (invariants, formal nouns, auxiliary verbs) are deleted from the source sentence. In addition, all the lexemes are reduced to the headword in this step. This process results in a bilingual (from Japanese to Japanese) training corpus 210, which is a sequence of source-side content words (stem shape) indicating the external language and a target-side, complete type. It consists of a source sentence. The source-side content words of the training corpus 210 are limited in vocabulary, while the complete source word on the target sentence side consists of a larger vocabulary.

後述する実験では、フレーズベースの機械翻訳デコーダ(日−日SMT174)を用い、このモデルを対数線形フレームワーク(Och及びNey、2002年)と統合した。トレーニングコーパス210内でのフレーズ対の発見と抽出は、ベイズバイリンガルアライメント部(Finch及びSumita、2010年)を用いて行なわれた。この処理では、Knesser−Ney平滑化によって構築された5−グラム言語モデルが用いられた。システムは、対数線形モデルの重みを最適化するために取りのけておいた開発データ上で、BLEUスコア(Papineniら、2001年)に関する最小誤差率トレーニング(minimum error rate training:MERT)手順(Och、2003年)を用いて、標準的なやり方でトレーニングされた。   In the experiments described below, this model was integrated with a log-linear framework (Och and Ney, 2002) using a phrase-based machine translation decoder (day-day SMT174). Discovery and extraction of phrase pairs in the training corpus 210 was performed using a Bayes bilingual alignment unit (Finch and Sumita, 2010). In this processing, a 5-gram language model constructed by Knesser-Ney smoothing was used. The system uses the minimum error rate training (MERT) procedure (Och) on the BLEU score (Papineni et al., 2001) on the development data set aside to optimize the weight of the log-linear model. , 2003) and was trained in a standard way.

機械翻訳システムは、旅行会話集で典型的に見られるような表現からなる約700,000のバイリンガル文対でトレーニングされた。これは非常に限られたドメインであり、このドメイン内の文は非常に短い傾向がある(コーパスの英語側で平均7語)ため、翻訳は極めて容易であった。機械翻訳システムは最新のシステムであり、限定したドメインの短い文に限って適用した結果、高品質の翻訳が可能であった。   The machine translation system was trained on approximately 700,000 bilingual sentence pairs consisting of expressions typically found in travel conversation collections. This is a very limited domain and the sentences in this domain tend to be very short (on average 7 words on the English side of the corpus), so translation was very easy. The machine translation system is the latest system, and as a result of being applied only to short sentences of limited domains, high-quality translation was possible.

3.2 ベイズ共セグメント化
全てのフレーズベースの統計的機械翻訳システムにおいて中心となるのは、フレーズテーブルである。このテーブルは、翻訳を構築するのに用いられる構成要素の基本的な組である。
3.2 Bayes co-segmentation The central part of all phrase-based statistical machine translation systems is the phrase table. This table is the basic set of components used to build a translation.

フレーズベースのSMTシステムの通常のトレーニング処理の間のフレーズテーブルの作成は、しばしばGIZA++(Och及びNey、2003年)を用いる単語アライメントステップと、これに続く、ヒューリスティクス(例えば、MOSES(Koehnら、2007年)ツールキットのgrow−diag−final−and)を用いたフレーズ対抽出ステップとから成る。このアプローチは実際には非常にうまく働くが、ソースとターゲットとで非対称であり、データを過学習するおそれの大きい最大尤度法に基づいている。   Creation of a phrase table during the normal training process of a phrase-based SMT system often involves a word alignment step using GIZA ++ (Och and Ney, 2003) followed by heuristics (eg, MOSES (Koehn et al., 2007) Phrase pair extraction step using toolkit grow-diag-final-and). This approach works very well in practice, but is based on a maximum likelihood method that is asymmetric between the source and target and has a high risk of overlearning the data.

ここで共セグメント化に用いたモデルは、Finch及びSumita、2010年、に類似のディリクレプロセスモデルである。ここでベイズのアプローチを用いた理由は、その結果が、一方向にアライメント可能なシーケンスに対しGIZA++/MOSESヒューリスティックス(Finch及びSumita、2010年)を用いるよりも効果的であることを示したばかりでなく、コーパスの、首尾一貫した単一のバイリンガルセグメント化をもたらすからである。この一貫性はこのモデルを構築するのに非常に望ましい特性であると考えられる。このシステムは、これらフレーズ対を組合せるだけで自然言語を生成するからである。   The model used for co-segmentation here is a Dirichlet process model similar to Finch and Sumita, 2010. The reason for using the Bayesian approach here not only showed that the results were more effective than using GIZA ++ / MOSES heuristics (Finch and Sumita, 2010) for unidirectionally alignable sequences. This results in a consistent, single bilingual segmentation of the corpus. This consistency is considered a very desirable property to build this model. This is because this system generates a natural language only by combining these phrase pairs.

図11に共セグメント化処理を例示する。図11を参照して、日本語アイコンテキスト220のシーケンスが完全な日本語文222とアライメントされる。日本語のアイコンテキスト220のシーケンスは外部言語の文と考えられ、一方、日本語文222は日本語の文である。したがって、これら2つの文又は単語シーケンスは英語の文と日本語の文との場合と同様に、アライメントできる。図11の例では、アイコンテキスト230(タクシー)、232(レストラン)及び234(行く)がフレーズ240(タクシーで)、242(レストランに)及び244(行きたいのですが)とアライメントされている。   FIG. 11 illustrates the co-segmentation process. Referring to FIG. 11, the sequence of Japanese icon text 220 is aligned with complete Japanese sentence 222. The sequence of Japanese icon text 220 is considered an external language sentence, while the Japanese sentence 222 is a Japanese sentence. Therefore, these two sentences or word sequences can be aligned as in the case of English sentences and Japanese sentences. In the example of FIG. 11, the icon texts 230 (taxi), 232 (restaurant) and 234 (go) are aligned with the phrases 240 (by taxi), 242 (to the restaurant) and 244 (I want to go).

3.3 ユーザの操作
図12を参照して、図6に示すアイコンベースの翻訳アプリケーションのUI画面100を実現するメインプログラムは、以下の制御構造を有する。プログラムはステップ260で始まり、ここではシステムの初期化が行なわれる。このステップでは、プログラムにメモリロケーションが割当てられ、このプログラムを実行するためのベースアドレスが決定され、メモリロケーションが初期化され、スクリーンが初期化される。
3.3 User Operations Referring to FIG. 12, the main program for realizing the UI screen 100 of the icon-based translation application shown in FIG. 6 has the following control structure. The program begins at step 260 where system initialization is performed. In this step, a memory location is assigned to the program, a base address for executing the program is determined, the memory location is initialized, and the screen is initialized.

次のステップ262で、システムはユーザの入力を待つ。ユーザの入力が検出されると、システムはユーザによってどのボタン又はタブがタッチされたかを判断し、ステップ264から282に制御を分岐させる。   In the next step 262, the system waits for user input. When a user input is detected, the system determines which button or tab has been touched by the user and branches control to steps 264-282.

ユーザがUI言語トグルボタン110(図6)をタッチすると、制御の流れはステップ264に進み、ここでUI言語がこの実施の形態では日本語と英語との間でトグルし、その後制御はステップ262に戻る。ユーザがカテゴリボタン112及びサブカテゴリボタン114の1つをタッチすると、対応のアイコンの組がアイコン記憶部(図示せず)から読出されて、タッチスクリーン上に配列され、制御はステップ262に戻る。ユーザがアイコンソートボタン116の1つをタッチすると、制御はステップ270に進み、ここでアイコン118が選択された順序で並べ替えられ、制御はステップ262に戻る。これらのステップは通常の処理であると考えられ、当業者によって容易に実現可能である。したがって、これらのステップの詳細はここでは説明しない。   When the user touches UI language toggle button 110 (FIG. 6), the flow of control proceeds to step 264 where the UI language toggles between Japanese and English in this embodiment, after which control proceeds to step 262. Return to. When the user touches one of the category button 112 and the subcategory button 114, the corresponding icon set is read from an icon storage (not shown) and arranged on the touch screen, and control returns to step 262. If the user touches one of the icon sort buttons 116, control proceeds to step 270 where the icons 118 are rearranged in the selected order and control returns to step 262. These steps are considered normal processing and can be easily realized by those skilled in the art. Therefore, the details of these steps are not described here.

ユーザがアイコン118のうち1つをタッチすると、制御はステップ272に進む。図13を参照して、ステップ272はアイコンをアイコンシーケンスフィールド120内のアイコンのアイコンシーケンスの末尾に追加するステップ300と、アイコンテキストをテキストシーケンスの末尾に追加するステップ302(図示せず)と、アイコンシーケンスフィールド120を更新してこのルーチンから出るステップ304とを含む。   If the user touches one of the icons 118, control proceeds to step 272. Referring to FIG. 13, step 272 includes a step 300 for adding an icon to the end of the icon sequence for the icon in icon sequence field 120, a step 302 for adding icon text to the end of the text sequence (not shown), And updating the icon sequence field 120 to exit 304 from this routine.

ユーザがソース生成ボタン126をタッチすると、制御はステップ274に進む。図14を参照して、ステップ274はアイコンシーケンスフィールド120内のアイコンシーケンスに対応するアイコンテキストシーケンスを日−日SMT174に送るステップ320(図9を参照)と、日−日SMT174から探索グラフが送り返されるのを待つステップ322と、この探索グラフを記憶部に記憶するステップ324(図示せず)と、探索グラフのうち最も尤度の高い経路を探すステップ326と、ステップ326で見つかった最も尤度高い経路に対応するソーステキストをソース文フィールド122のための記憶部に記憶するステップ328と、ソース文フィールド122を更新するステップ330と、を含む。ステップ330の後、制御はステップ262に戻る(図12)。   If the user touches source generation button 126, control proceeds to step 274. Referring to FIG. 14, step 274 sends an icon text sequence corresponding to the icon sequence in icon sequence field 120 to day-day SMT 174 (see FIG. 9), and a search graph is sent back from day-day SMT 174. Step 322 for waiting for the search, step 324 (not shown) for storing the search graph in the storage unit, step 326 for searching the route with the highest likelihood in the search graph, and the maximum likelihood found in step 326 Storing 328 the source text corresponding to the high path in the storage for source sentence field 122 and updating 330 source sentence field 122; After step 330, control returns to step 262 (FIG. 12).

機械翻訳システムの出力は、探索グラフであって、完全型のソース文仮説を構築するのに用いられるバイリンガルフレーズ対を、先行する部分的仮説の末尾にこれらのフレーズ対を付加することに関連するモデル確率とともに表したものである。このグラフは機械翻訳システムからユーザインターフェイスクライアントに与えられ、これは図形中の情報を用いて、操作処理の間に入力を連続して再デコードする必要なしに、ユーザに満足のいく結果を与える。   The output of a machine translation system is a search graph that relates to adding bilingual phrase pairs used to build a complete source sentence hypothesis to the end of the preceding partial hypothesis. It is expressed with the model probability. This graph is provided from the machine translation system to the user interface client, which uses the information in the graphic to give the user satisfactory results without having to re-decode the input continuously during the manipulation process.

このシステムでは、外部言語からの生成処理に続いて、上述のステップ274の処理の結果として、与えられた入力文に対し完全型のソース文の最も尤度の高い仮説がユーザに提示される。この文がユーザの意図した意味に合わなければ、ユーザはアイコンシーケンスを対話的に操作することにより、生成された文を改良できる。これは図12のステップ276で行なわれる。   In this system, following the generation process from the external language, as a result of the process in step 274 described above, the hypothesis with the highest likelihood of the complete source sentence is presented to the user for the given input sentence. If this sentence does not match the user's intended meaning, the user can improve the generated sentence by interactively manipulating the icon sequence. This is done in step 276 of FIG.

ユーザはアイコンシーケンスフィールド120に表示されているアイコンシーケンスの中のどのアイコンをタップしてもよい。図12を参照して、制御はステップ276に進む。   The user may tap any icon in the icon sequence displayed in the icon sequence field 120. Referring to FIG. 12, control proceeds to step 276.

図15を参照して、ステップ276はステップ340を含み、ここではユーザインターフェイスが探索グラフを調べ、ユーザに対し、選択されたアイコンの翻訳にいたる範囲で、かつ選択されたアイコンの翻訳を含む、部分的な翻訳仮説のnベストリストを提示する。これに応じて、ユーザは部分的翻訳仮説の1つを選択できる。この実施の形態では、システムに直接テキスト入力することはできないが、そのようにすることも可能であり、おそらく実世界のシステムではこれが必要であろう。入力をこのように制限することによって支払うべき対価は、表現の豊かさであるので、以下のセクションでは、このことを念頭においてこのシステムを実験的に検討する。   Referring to FIG. 15, step 276 includes step 340, in which the user interface examines the search graph and includes to the user translation of the selected icon and to the translation of the selected icon. Present an n-best list of partial translation hypotheses. In response, the user can select one of the partial translation hypotheses. In this embodiment, text cannot be entered directly into the system, but it is possible, and this is probably necessary in a real world system. The consideration to be paid by limiting the input in this way is expressiveness, so in the following section we will consider this system experimentally with this in mind.

ステップ276はさらに、ステップ340でのユーザの入力に基づいて新たな完全型のソーステキストを生成するステップ342と、新たな完全型のソーステキストをソース文フィールド122のための記憶部に記憶するステップ344と、ソース文フィールド122を更新するステップ346と、を含む。ステップ346の後、制御はステップ262に戻る。   Step 276 further includes generating a new complete source text 342 based on the user input at step 340 and storing the new complete source text in the storage for source sentence field 122. 344 and a step 346 of updating the source sentence field 122. After step 346, control returns to step 262.

再び図12を参照して、ユーザがクリアボタン128(図6を参照)をタッチすると、制御はステップ278に進み、ここでアイコンシーケンスフィールド120、ソース文フィールド122及び翻訳文フィールド130がクリアされ、制御はステップ262に戻る。   Referring again to FIG. 12, if the user touches the clear button 128 (see FIG. 6), control proceeds to step 278 where the icon sequence field 120, the source sentence field 122 and the translated sentence field 130 are cleared, Control returns to step 262.

ユーザが翻訳ボタン124(図6を参照)をタッチすると、制御はステップ280に進む。図16を参照して、ステップ280は、ソース文フィールド122の完全型のソース文を図9に示す日−英SMT178に送るステップ360と、日−英SMT178からの応答(翻訳)を待つステップ362と、翻訳文を受取り、翻訳文フィールド130用の記憶部に記憶するステップ366と、翻訳文フィールド130を更新するステップ368とを含み、制御はステップ262に戻る(図12を参照)。   If the user touches translation button 124 (see FIG. 6), control proceeds to step 280. Referring to FIG. 16, step 280 sends a complete source sentence in source sentence field 122 to Japanese-English SMT 178 shown in FIG. 9, and waits for a response (translation) from Japanese-English SMT 178 step 362. And a step 366 for receiving the translated sentence and storing it in the storage unit for the translated sentence field 130 and a step 368 for updating the translated sentence field 130, and the control returns to step 262 (see FIG. 12).

ユーザがチェックボタン132をタッチすると(図6を参照)、制御はステップ282に進む。この実施の形態では、ステップ282において、翻訳文フィールド130に示されたテキストが日本語のテキストか(逆翻訳)又は英語の翻訳であるかに依存して、翻訳文フィールド130に示されたテキストが日−英SMT178又は英−日SMT180に送られる。日−英SMT178又は英−日SMT180から翻訳文又は逆翻訳文が送り返され、翻訳文フィールド130に示され、制御はステップ262に戻る。   When the user touches check button 132 (see FIG. 6), control proceeds to step 282. In this embodiment, in step 282, the text shown in the translated text field 130 depends on whether the text shown in the translated text field 130 is a Japanese text (reverse translation) or an English translation. Are sent to Japanese-English SMT178 or English-Japanese SMT180. A translation or reverse translation is sent back from the Japanese-English SMT 178 or the English-Japanese SMT 180, shown in the translated text field 130, and control returns to step 262.

上の実施の形態はソース言語(例えば日本語)からターゲット言語(例えば英語)への翻訳に関連して説明されたが、上述の装置が逆方向への翻訳、すなわち英語から日本語への翻訳にも使用できることは当業者には明らかであろう。さらに、サーバコンピュータ154(図9を参照)が英−英SMT176を有していない場合でも、これは依然として日本語から英語へのアイコンベースの翻訳装置として機能する。   While the above embodiment has been described with reference to translation from a source language (eg, Japanese) to a target language (eg, English), the above described device translates backwards, ie, from English to Japanese. It will be apparent to those skilled in the art that it can also be used. Furthermore, even if the server computer 154 (see FIG. 9) does not have the English-English SMT 176, it still functions as an icon-based translation device from Japanese to English.

4.評価
4.1 表現力
アイコン駆動のユーザ入力について懸念される主な点の1つは、ドメイン内におけるその表現力である。文をその携帯機器で利用可能なアイコンのみを用いて表現しなければならないからである。このため、システムの評価を行なって、UI画面100が表すことのできるドメイン内の文の比率を判断した。この目的のために、トレーニングコーパス210(図10を参照)と同じサンプルから抽出し取りのけておいたデータの組から100個の文のサンプルを採り、各々の文からアイコン駆動のインターフェイスとそのソース文生成処理とを用いて意味的に均等な形を生成できるかどうかを判断した。現在のプロトタイプの開発ははまだ十分ではないので、数値表現(価格、電話番号、日付、時刻等)を扱うアイコンの組を含んでいない。このため、評価用の組からはこれらを含む文を除いた(数値表現を含む文を除いた後の評価用の組のサイズは100文であった。)。しかし、数値表現の扱いは比較的直截的なので、将来この機能を付加することに格別困難があるとは思われない。評価で用いたアイコンの組は、日−英SMT178及び英−日SMT180をトレーニングするのに用いたトレーニングコーパスの英語側で最もよく用いられる2010個の内容語であり、トレーニングコーパス中で28回以上出現した内容語である。この値は、ユーザインターフェイスのアイコンの数が、実世界で役立つ応用を構築するのに必要なアイコン数の概算である2000個程度になるように選ばれた。
4). Evaluation 4.1 Expressiveness One of the main concerns about icon-driven user input is its expressive power within the domain. This is because the sentence must be expressed using only icons that can be used on the portable device. Therefore, the system was evaluated to determine the ratio of sentences in the domain that the UI screen 100 can represent. For this purpose, a sample of 100 sentences is taken from a set of data extracted from the same sample as the training corpus 210 (see FIG. 10), and an icon-driven interface and its Judgment was made as to whether a semantically equivalent form can be generated using source sentence generation processing. Development of the current prototype is not yet sufficient, so it does not include a set of icons that deal with numerical representations (price, phone number, date, time, etc.). For this reason, the sentence including these was excluded from the evaluation group (the size of the evaluation group after removing the sentence including the numerical expression was 100 sentences). However, the treatment of numerical expressions is relatively straightforward, so there seems to be no difficulty in adding this function in the future. The icon set used in the evaluation is the 2010 content words most often used on the English side of the training corpus used to train the Japanese-English SMT178 and English-Japanese SMT180, and more than 28 times in the training corpus It is a content word that has appeared. This value was chosen so that the number of icons in the user interface would be around 2000, which is an approximation of the number of icons needed to build a useful application in the real world.

この評価データの文の74%で、意味的に均等な文を生成可能であることが分かった。これを、より少ない数のアイコンが用いられた例についての(100個の評価文からランダムに採った30個のサンプル文に基づく)統計とともに、図17のグラフ380に示す。ユーザインターフェイスを簡素化したことを考えれば、この守備範囲は高レベルであると思われる。出力に対し人による訂正がない場合の2つの方法の比較を図18に示す。ここでもまた、MT法(グラフ390で示す)がn−グラム法(グラフ392で示す)よりも高い性能を示した。これと、この方法が一般に全ての言語に応用可能であると期待できることと考え併せれば、この発明の目的に関しこの方法がそれだけ良い生成技術であるといっても過言ではないであろう。   It was found that 74% of the sentences in the evaluation data can generate semantically equivalent sentences. This is shown in the graph 380 of FIG. 17 along with statistics (based on 30 sample sentences taken randomly from 100 evaluation sentences) for an example where a smaller number of icons was used. Given the simplification of the user interface, this range of defense seems to be high. A comparison of the two methods when there is no human correction to the output is shown in FIG. Again, the MT method (shown by graph 390) showed higher performance than the n-gram method (shown by graph 392). In combination with this and the fact that this method can generally be expected to be applicable to all languages, it would be no exaggeration to say that this method is a good generation technique for the purpose of the present invention.

4.2 効率
これらの文を外部言語を用いて入力するのに必要とされたキーを押す動作の回数を、装置のテキスト入力インターフェイスを用いて入力した場合に必要とされたであろう回数と比較検討した。ここでは、アイコンの各々を選択するのにキーを3回押す必要があると仮定したが、多くの場合同じアイコンサブカテゴリからのアイコンを用いることができるので、そのようなアイコンはキーを1回押すだけで済む。したがって、ここでの推定は必要とされるキーを押す動作の回数の上限を表す。キーを1回押すのにかかる時間は、アイコンの入力とテキストの入力とでは同じではないが、実験ではこれは測定しなかった。さらに、入力処理でのユーザの入力誤りの影響も測定しなかった。ソース文が意図した意味になるように、ユーザがシステムを対話的に操作するために必要なキーを押す追加の動作は測定に含めた。
4.2 Efficiency The number of key presses required to enter these sentences using an external language is the number of times that would have been required if entered using the device's text input interface. A comparative study was conducted. Here we assume that it is necessary to press the key three times to select each of the icons, but in many cases icons from the same icon subcategory can be used, so such icons press the key once. Just do it. Therefore, the estimation here represents the upper limit of the number of times of pressing the required key. The time it takes to press a key once is not the same for icon input and text input, but this was not measured in the experiment. Furthermore, the effect of user input errors in the input process was not measured. Included in the measurement was the additional action of the user pressing the necessary keys to interact with the system so that the source sentence had the intended meaning.

この実験で、この実施の形態にしたがった外部言語の入力システムでは、テキスト入力方法のキーを押す動作の回数の57%しか必要としないことが分かった。キーを押す動作の回数はテキスト入力の1650回に対し、外部言語の入力方法では941回である。これは、外部言語の入力システムが、効率的なテキスト入力システムとして利用できることを意味する。   In this experiment, it was found that the external language input system according to this embodiment requires only 57% of the number of times of pressing the key of the text input method. The number of times of pressing the key is 1,650 times for text input, and 941 times for the input method of the external language. This means that an external language input system can be used as an efficient text input system.

4.3 ソース文生成の品質
この発明のシステムの最初の版では、欠落する機能語を回復するのに単純な言語モデルベースのアプローチを用いた。このアプローチは、形が非常に規則的で、機能を示すのに内容語に近接して不変化詞を用い、限定詞を含まない日本語には適している。内容語の対であって機能語がその左又は右についているものを含むバイグラムをトレーニングデータから抽出し、これらのバイグラムを生成処理において対応の内容語の場所に挿入した。この発明のモデルは、これら可能な置換の全てから結果として生じる仮説の組に、5グラム言語モデルでスコア付けし、最も高い言語モデルスコアとなった仮説を最良の候補として選択する。探索空間を管理可能なサイズに削減するため、ビーム探索法を用いた。
4.3 Quality of source sentence generation In the first version of the system of the present invention, a simple language model based approach was used to recover missing function words. This approach is very regular in shape and uses invariants in close proximity to the content word to indicate function, and is appropriate for Japanese that does not contain a qualifier. Bigrams containing a pair of content words that have functional words on the left or right are extracted from the training data, and these bigrams are inserted into the corresponding content word locations in the generation process. The model of the present invention scores the set of hypotheses resulting from all of these possible substitutions with a 5-gram language model and selects the hypothesis with the highest language model score as the best candidate. The beam search method was used to reduce the search space to a manageable size.

この発明のシステムのソース生成構成要素の品質を、いずれもn−グラム精度に基づく機械翻訳性能を測定する一般的な方法である、BLEUスコア(Papineniら、2001年)及びNISTスコア(Doddington、2002年)について、NIST機械翻訳評価スコアスクリプトのバージョン13aを用いて評価した。評価データの中から、数値表現を含む文を除去した。この除去により、当初510個の日本語文の組が455個の文に減じられた。これらの文をMeCab形態素解析器に供給し、発明のシステムのアイコンとは関係のない単語を除いた。実験結果を表の形で図19に示す。   The BLEU score (Papineni et al., 2001) and NIST score (Doddington, 2002), which are common methods for measuring machine translation performance based on n-gram accuracy, both of the quality of the source generation component of the system of the present invention. Was evaluated using version 13a of the NIST machine translation evaluation score script. Removed sentences containing numerical expressions from the evaluation data. With this removal, the initial set of 510 Japanese sentences was reduced to 455 sentences. These sentences were supplied to the MeCab morphological analyzer and words that were not related to the icons of the inventive system were removed. The experimental results are shown in table form in FIG.

隠れn−グラム(見出し語化済み)とSMT生成とのスコアは全く同じ入力から導出したものである。この例で隠れn−グラムのスコアが低いのは、活用形を生成できないからである。したがって、第2の実験では、活用した語の正しい表層形式から隠れn−グラムを生成できるようにした。これはこのモデルに、活用を予測する必要があるSMT生成モデルに対し不当な優位性を与えることになった。それにも関わらず、SMT処理で生成されたソース文は用いられたどちらの評価基準でもより高いスコアであった。   The scores for hidden n-grams (headworded) and SMT generation are derived from exactly the same input. The reason why the score of the hidden n-gram is low in this example is that an inflected form cannot be generated. Therefore, in the second experiment, a hidden n-gram can be generated from the correct surface layer format of the utilized word. This has given this model an unfair advantage over the SMT generation model that needs to be predicted for use. Nevertheless, the source sentence generated by the SMT process had a higher score for both evaluation criteria used.

5.コンピュータによる実現
この発明の実施の形態の上述の説明から明らかなように、携帯機器152とサーバコンピュータ154とはコンピュータハードウェアで実現可能である。携帯機器152はユーザが持ち運ぶので、そのリソースは限られるが、サーバコンピュータ154にはそのような制限はない。したがって、それらの構成は互いに異なる。
5. Realization by Computer As is apparent from the above description of the embodiment of the present invention, the portable device 152 and the server computer 154 can be realized by computer hardware. Since the mobile device 152 is carried by the user, its resources are limited, but the server computer 154 has no such limitation. Therefore, their configurations are different from each other.

図20及び図21を参照して、この実施の形態の携帯機器152はタブレット型のコンピュータであって、液晶表示装置(Liquid Crystal Display:LDC)420上に形成されたタッチパネル418を有し、ユーザがテキストの入力をしたり、LCD420に表示された何らかのボタンをタッチしたりできる。携帯機器152はさらに、CPU(Central Processing Unit:中央処理装置)410と、フラッシュROM(Read−Only Memory:読出専用メモリ)412と、RAM(Random Access Memory:ランダムアクセスメモリ)414と、入出力インターフェイス(I/F)416と、ネットワークインターフェイス422と、ハードウェアボタン424と、を含む。これらの構成要素は全て、バス426に接続される。CPU410はバス426を介してこれらのいずれにもアクセス可能である。   Referring to FIG. 20 and FIG. 21, the portable device 152 of this embodiment is a tablet computer, and includes a touch panel 418 formed on a liquid crystal display (LDC) 420, and the user Can input text or touch any button displayed on the LCD 420. The portable device 152 further includes a CPU (Central Processing Unit) 410, a flash ROM (Read-Only Memory) 412, a RAM (Random Access Memory) 414, and an input / output interface. (I / F) 416, a network interface 422, and a hardware button 424 are included. All these components are connected to the bus 426. The CPU 410 can access any of these via the bus 426.

図22を参照して、この実施の形態のサーバコンピュータ154にハードウェアリソースを提供するコンピュータシステム430は、コンピュータ440を含む。コンピュータシステム430はさらに、全てコンピュータ440に接続された、モニタ442、キーボード446及びマウス448を含む。コンピュータ440はDVD(Digital Versatile Disc:ディジタル多用途ディスク)462からデータを読出し、又はDVD462にデータを書込むためのDVDドライブ450と、リムーバブルメモリ464からデータを読出し又はデータを書込むためのメモリポート452と、を有する。   Referring to FIG. 22, a computer system 430 that provides hardware resources to the server computer 154 of this embodiment includes a computer 440. Computer system 430 further includes a monitor 442, keyboard 446 and mouse 448, all connected to computer 440. A computer 440 reads data from a DVD (Digital Versatile Disc) 462 or writes data to the DVD 462, and a memory port for reading data from or writing data to the removable memory 464. 452.

図23を参照して、コンピュータ440はさらに、CPU456と、CPU456に接続されたバス466とを含む。DVDドライブ450とメモリポート452とはバス466に接続されており、バス466を介してCPU456にアクセス可能である。コンピュータ440はさらに、コンピュータ440のブートプログラムを記憶するROM458と、CPU456によって使用される作業領域及びCPU456によって実行されるプログラムの記憶領域を提供するRAM460と、SMTが使用するコーパスデータ、翻訳モデル及び言語モデル、並びにトレーニング処理と翻訳処理との間に使用される他のデータを記憶するハードディスクドライブ(HDD)454と、を含む。   Referring to FIG. 23, computer 440 further includes a CPU 456 and a bus 466 connected to CPU 456. The DVD drive 450 and the memory port 452 are connected to the bus 466 and can access the CPU 456 via the bus 466. The computer 440 further includes a ROM 458 that stores a boot program for the computer 440, a RAM 460 that provides a work area used by the CPU 456 and a storage area for programs executed by the CPU 456, and corpus data, translation models, and languages used by the SMT. And a hard disk drive (HDD) 454 that stores the model and other data used between the training process and the translation process.

コンピュータ440はさらにNIC170を含み、これは図9にも示されるが、バス466に接続されてコンピュータ440に、典型的にはLAN(Local Area Network)(図示せず)及び無線通信である、ネットワークへの接続を与える。   The computer 440 further includes a NIC 170, which is also shown in FIG. 9, but is connected to the bus 466 to the computer 440, typically a LAN (Local Area Network) (not shown) and wireless communication. Give connection to.

上述の実施の形態のサーバコンピュータ154を実現するソフトウェアは、DVD462等の記録媒体に記録されたオブジェクトコードの形で配信されてもよいし、リムーバブルメモリ464に記憶され、DVDドライブ450又はメモリポート452等の読出装置を介してコンピュータ440に提供され、HDD454に記憶されてもよい。CPU456がプログラムを実行する際に、プログラムはHDD454から読出されてRAM460に記憶される。CPU456の図示しないプログラムカウンタによって指定されるアドレスからCPU456によって命令がフェッチされ、CPU456によって処理される。CPU456は、CPU456内のレジスタ、RAM460又はHDD454の、命令のオペランドによって指定されるアドレスから処理すべきデータを読出し、処理の結果を、これもまた命令のオペランドによって指定される、CPU456内のレジスタ、RAM460又はHDD454に記憶する。   The software that implements the server computer 154 of the above-described embodiment may be distributed in the form of an object code recorded on a recording medium such as a DVD 462, or stored in the removable memory 464 and stored in the DVD drive 450 or the memory port 452. Or the like, may be provided to the computer 440 via a reading device such as, and stored in the HDD 454. When CPU 456 executes the program, the program is read from HDD 454 and stored in RAM 460. An instruction is fetched by the CPU 456 from an address specified by a program counter (not shown) of the CPU 456 and processed by the CPU 456. The CPU 456 reads the data to be processed from the register in the CPU 456, the RAM 460 or the HDD 454 to be processed from the address specified by the instruction operand, and the result of the processing is the register in the CPU 456, which is also specified by the instruction operand. The data is stored in the RAM 460 or the HDD 454.

コンピュータシステム430の一般的な動作は周知であるので、その詳細はここでは説明しない。   Since the general operation of computer system 430 is well known, its details are not described here.

ソフトウェアの配信の仕方について、これは必ずしも記録媒体に固定されていなくてもよい。例えば、ソフトウェアは別のシステムからコンピュータ440にネットワーク及びNIC170を介して送信されてもよい。ソフトウェアの一部をHDD454に記憶し、ソフトウェアの残りの部分をネットワークからHDD454に取り込んで、実行の際にそれらを統合してもよい。   As for the software distribution method, it is not necessarily fixed to the recording medium. For example, the software may be transmitted from another system to the computer 440 via the network and NIC 170. A part of the software may be stored in the HDD 454, and the remaining part of the software may be taken from the network into the HDD 454 and integrated at the time of execution.

典型的には、現代のコンピュータはコンピュータのオペレーティングシステム(OS)によって提供される機能を利用し、所望の目的にしたがって制御されたやり方で機能を実行する。したがって、OS又はサードパーティによって提供される機能を含まず、一般的な機能を実行する命令の組合せのみを指定するプログラムもまた、全体として所望の目的を達成する制御構造を有する限り、この発明の範囲に含まれる。   Modern computers typically utilize functions provided by a computer operating system (OS) to perform functions in a controlled manner according to the desired purpose. Therefore, a program that does not include a function provided by the OS or a third party and that specifies only a combination of instructions that execute a general function also has a control structure that achieves a desired object as a whole. Included in the range.

6.結論
この発明は、外部言語と呼ばれる抽象的言語を用いてコミュニケーションの際に両当事者が伝えようとしている意味的内容を明示する、機械翻訳の新たな入力の枠組みを提供する。この外部言語は機械翻訳システムに対しトランスペアレントで信頼性のあるセカンドオピニオンとして働くのみならず、携帯機器で実行されるアプリケーションにうまく適合する、主たるユーザ入力の方法として用いることができる。
6). CONCLUSION The present invention provides a new machine translation input framework that uses an abstract language called an external language to clarify the semantic content that both parties are trying to convey during communication. This external language not only acts as a transparent and reliable second opinion for the machine translation system, but can also be used as a primary user input method that fits well with applications running on mobile devices.

この発明の実施の形態、発明の思想を実施するシステムの具体例、及びその特性のいくつかの実験的説明を提示した。この実施の形態では、旅行者のための2つの異なる翻訳方法の思想を結びつけた。ピクチャーブックと、統計的機械翻訳とである。このアプローチはピクチャーブックの単純ながら力強い表現の利点を全て提供すると同時に、ソース文でのユーザの意味を明瞭に言い表すことのできる自然言語をターゲット言語で生成できる。発明者らの評価によれば、アイコンベースの入力システムはこの基本旅行表現コーパスのドメインにおいて文の約74%をカバーし、さらに、テキストのみの入力方法に対し、翻訳すべき表現を入力するのに必要なキーを押す回数は大幅に減じられた。   An embodiment of the present invention, a specific example of a system for carrying out the idea of the invention, and some experimental explanations of its characteristics have been presented. This embodiment combines the ideas of two different translation methods for travelers. Picture book and statistical machine translation. This approach provides all the benefits of a simple but powerful representation of a picture book, while at the same time generating a natural language in the target language that can clearly express the user's meaning in the source sentence. According to the inventor's evaluation, the icon-based input system covers about 74% of sentences in this basic travel expression corpus domain, and also inputs expressions to be translated for text-only input methods. The number of key presses required for is significantly reduced.

今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。   The embodiment disclosed herein is merely an example, and the present invention is not limited to the above-described embodiment. The scope of the present invention is indicated by each claim of the claims after taking into account the description of the detailed description of the invention, and all modifications within the meaning and scope equivalent to the wording described therein are included. Including.

参考文献
G.Doddington.2002年。Nグラム共起統計を用いた機械翻訳品質の自動評価。HLT会議予稿集、サンディエゴ、カリフォルニア。
References Doddington. 2002. Automatic evaluation of machine translation quality using N-gram co-occurrence statistics. Proceedings of the HLT Conference, San Diego, California.

Andrew Finch及びEiichiro Sumita.2008年。フレーズベースの機械翻訳。第3回NLP国際合同会議予稿集、第1巻。ハイデラバード、インド。   Andrew Finch and Eiichiro Sumita. 2008. Phrase-based machine translation. Proceedings of the 3rd NLP International Joint Conference, Volume 1. Hyderabad, India.

Andrew Finch及びEiichiro Sumita.2010年。字訳のためのバイリンガルセグメント化のベイズモデル。IWSLT予稿集、パリ、フランス。   Andrew Finch and Eiichiro Sumita. 2010. A bilingual segmented Bayesian model for transliteration. IWSLT Proceedings, Paris, France.

Philipp Koehnら、2007年.Moses:統計的機械翻訳のためのオープンソースツールキット。ACL2007:デモ及び紙セッションの予稿集、第177−180ページ、プラハ、チェコ共和国、6月。   Philip Koehn et al., 2007. Moses: An open source toolkit for statistical machine translation. ACL 2007: Proceedings of Demos and Paper Sessions, pp. 177-180, Prague, Czech Republic, June.

T.Kudo.2008年。MeCab.[オンライン]、http://mecab.sourceforge.net/で入手可能。   T.A. Kudo. 2008. MeCab. [Online] Available at http://mecab.sourceforge.net/

Franz Josef Och及びHermann Ney.2002年。統計的機械翻訳のための識別的トレーニング及び最大エントロピモデル。第40回コンピュータ言語学会年次会合(ACL2002)予稿集、第295−302ページ。   Franz Josef Och and Hermann Ney. 2002. Discriminative training and maximum entropy model for statistical machine translation. Proceedings of the 40th Annual Meeting of the Computer Linguistic Society (ACL2002), pp. 295-302.

Franz Josef Och及びHermann Ney2003年。様々な統計的アライメントモデルの系統的比較。コンピュータ言語、29(1):19−51。   Franz Josef Och and Hermann Ney 2003. Systematic comparison of various statistical alignment models. Computer language, 29 (1): 19-51.

Kishore Papineniら、2001年.Bleu:機械翻訳の自動評価方法。ACL’02:コンピュータ言語学会第40回年次会合予稿集、第311−318ページ、モリスタウン、NJ、USA、コンピュータ言語学会。   Kishore Papineni et al., 2001. Bleu: Automatic machine translation evaluation method. ACL'02: Proceedings of the 40th Annual Meeting of the Computer Linguistic Society, 311-318, Morristown, NJ, USA, Computer Linguistic Society.

Taraka Rama及びKarthik Gali.2009年。フレーズベースの統計的機械翻訳課題としての機械翻訳モデル。NEWS’09:固有表現ワークショップ:音訳の共有タスク、第124−127ページ、モリスタウン、NJ、USA、コンピュータ言語学会。   Taraka Rama and Karthik Gali. 2009. Machine translation model as a phrase-based statistical machine translation task. NEWS'09: Specific Expression Workshop: Transliteration Sharing Task, pages 124-127, Morristown, NJ, USA, Computer Linguistic Society.

40、50、60 コミュニケーションチャネル
42、52及び64 ソース言語
44 中間言語
46、56及び66 ターゲット言語
62 外部言語
80及び82 ピクチャー
100 UI画面
110 UI言語トグルボタン
112 カテゴリボタン
114 サブカテゴリボタン
116 アイコンソートボタン
118、140、142及び144 アイコン
120 アイコンシーケンスフィールド
122 ソース文フィールド
124 翻訳ボタン
126 ソース生成ボタン
128 クリアボタン
130 翻訳文フィールド
132 チェックボタン
150 翻訳システム
152 携帯機器
154 サーバコンピュータ
156 ネットワーク
40, 50, 60 Communication channels 42, 52 and 64 Source language 44 Intermediate language 46, 56 and 66 Target language 62 External language 80 and 82 Picture 100 UI screen 110 UI language toggle button 112 Category button 114 Sub category button 116 Icon sort button 118 , 140, 142, and 144 Icon 120 Icon sequence field 122 Source sentence field 124 Translation button 126 Source generation button 128 Clear button 130 Translation sentence field 132 Check button 150 Translation system 152 Portable device 154 Server computer 156 Network

Claims (10)

タッチパネルディスプレイと関連して用いられるテキスト入力装置であって、
前記タッチパネルディスプレイに接続され、前記タッチパネルディスプレイにアイコンの組を表示する手段と、
前記タッチパネルディスプレイに接続され、ユーザによる前記タッチパネルディスプレイに表示された前記アイコンの1つ又は2つ以上のシーケンスの入力を受ける入力受信手段と、
前記タッチパネルディスプレイに接続され、前記入力受信手段を用いて前記ユーザによって入力されたアイコンのシーケンスを前記タッチパネルディスプレイに表示する手段と、
前記アイコンのシーケンスを所定の言語の完全型の文に翻訳する翻訳手段と、を含むテキスト入力装置。
A text input device used in connection with a touch panel display,
Means connected to the touch panel display and displaying a set of icons on the touch panel display;
Input receiving means connected to the touch panel display and receiving an input of one or more sequences of the icons displayed on the touch panel display by a user;
Means for displaying on the touch panel display a sequence of icons connected to the touch panel display and input by the user using the input receiving means;
Translation means for translating the sequence of icons into a complete sentence in a predetermined language.
前記タッチパネルディスプレイ及び前記翻訳手段に接続され、前記翻訳手段によって翻訳された前記完全型の文を前記タッチパネルディスプレイに表示する手段をさらに含む、請求項1に記載のテキスト入力装置。 The text input device according to claim 1, further comprising a unit connected to the touch panel display and the translation unit, and displaying the complete sentence translated by the translation unit on the touch panel display. 各々が前記アイコンとそれぞれ関連する、前記所定の言語のフレーズを記憶する記憶手段と、
前記記憶手段及び前記入力受信手段に接続され、前記アイコンの各々について前記記憶手段から抽出されたフレーズを連結することにより外部言語のテキストを生成する手段とをさらに含み、
前記翻訳手段は、文の対のコーパスで前記外部言語のテキストを前記所定の言語の文に翻訳するように統計的にトレーニングされたフレーズベースの統計的機械翻訳ユニットを含み、前記対の各々は、前記所定言語の第1の語彙内の語を含むフレーズのシーケンスと、前記第1の語彙より大きい第2の語彙内の語を含む前記所定言語の文と、を含む、請求項1又は請求項2に記載のテキスト入力装置。
Storage means for storing phrases of the predetermined language, each of which is associated with the icon;
Means for connecting to said storage means and said input receiving means, and for generating a text in an external language by concatenating phrases extracted from said storage means for each of said icons;
The translation means includes a phrase-based statistical machine translation unit that is statistically trained to translate the text in the external language into a sentence in the predetermined language in a corpus of sentence pairs, each of the pairs A sequence of phrases including words in a first vocabulary of the predetermined language and a sentence of the predetermined language including words in a second vocabulary greater than the first vocabulary. Item 3. The text input device according to Item 2.
前記第1の語彙は前記所定言語の内容語を含む、請求項3に記載のテキスト入力装置。 The text input device according to claim 3, wherein the first vocabulary includes content words of the predetermined language. 前記統計的機械翻訳ユニットは、文仮説を構築するのに用いられるバイリンガルフレーズ対を、先行する部分的仮説の末尾にこれらのフレーズ対を追加することに関連するモデル確率とともに表す、探索グラフを出力するものであり、
前記文は、前記探索グラフにおいて最も尤度の高いな経路に対応する仮説である、請求項3又は請求項4に記載のテキスト入力装置。
The statistical machine translation unit outputs a search graph that represents the bilingual phrase pairs used to build the sentence hypothesis along with the model probabilities associated with adding these phrase pairs to the end of the preceding partial hypothesis Is what
The text input device according to claim 3 or 4, wherein the sentence is a hypothesis corresponding to a route having the highest likelihood in the search graph.
前記アイコンシーケンス中のアイコンの1つのユーザによる選択を受ける手段と、
前記ユーザの選択に応答して、前記探索グラフの前記ユーザによって選択された前記アイコンに対応するノードまでの部分から引出された複数個の部分仮説を示す手段と、をさらに含む、請求項5に記載のテキスト入力装置。
Means for receiving selection by one user of the icons in the icon sequence;
Means for indicating a plurality of partial hypotheses drawn from a portion of the search graph up to a node corresponding to the icon selected by the user in response to the user selection. The text input device described.
請求項1から請求項6のいずれかに記載のテキスト入力装置と、
前記テキスト入力装置によって出力される前記文をターゲット言語の翻訳文に翻訳する統計的機械翻訳装置と、
前記翻訳文を前記タッチパネルディスプレイに表示する手段と、を含む、翻訳装置。
A text input device according to any one of claims 1 to 6,
A statistical machine translation device that translates the sentence output by the text input device into a translation in a target language;
Means for displaying the translated sentence on the touch panel display.
前記タッチパネルディスプレイから予め規定されたコマンドを受ける手段と、
前記予め規定されたコマンドに応答して前記翻訳文を前記所定言語に逆翻訳し、前記逆翻訳された文を前記タッチパネルディスプレイに表示する手段と、をさらに含む、請求項7に記載の翻訳装置。
Means for receiving a predefined command from the touch panel display;
The translation device according to claim 7, further comprising means for reverse-translating the translated sentence into the predetermined language in response to the predetermined command and displaying the reverse-translated sentence on the touch panel display. .
タッチパネルディスプレイに関連してテキストを入力する方法であって、
前記タッチパネルディスプレイにアイコンの組を表示するステップと、
ユーザによる、前記タッチパネルディスプレイに表示された前記アイコンの1つまたは2つ以上のシーケンスの入力を受けるステップと、
前記受けるステップで入力されたアイコンのシーケンスを前記タッチパネルディスプレイに表示するステップと、
前記アイコンのシーケンスを所定の言語の完全型の文に翻訳するステップと、を含む、テキスト入力方法。
A method of entering text related to a touch panel display,
Displaying a set of icons on the touch panel display;
Receiving a user input of one or more sequences of the icons displayed on the touch panel display;
Displaying a sequence of icons input in the receiving step on the touch panel display;
Translating the sequence of icons into a complete sentence in a predetermined language.
コンピュータプログラムであって、タッチパネルディスプレイを備えたコンピュータを、
前記タッチパネルディスプレイに接続され、前記タッチパネルディスプレイにアイコンの組を表示する手段と、
前記タッチパネルディスプレイに接続され、ユーザによる前記タッチパネルディスプレイに表示された前記アイコンの1つ又は2つ以上のシーケンスの入力を受ける入力受信手段と、
前記タッチパネルディスプレイに接続され、前記入力受信手段を用いて前記ユーザによって入力されたアイコンのシーケンスを前記タッチパネルディスプレイに表示する手段と、
前記アイコンのシーケンスを所定の言語の完全型の文に翻訳する翻訳手段、として機能させる、コンピュータプログラム。
A computer program comprising a touch panel display,
Means connected to the touch panel display and displaying a set of icons on the touch panel display;
Input receiving means connected to the touch panel display and receiving an input of one or more sequences of the icons displayed on the touch panel display by a user;
Means for displaying on the touch panel display a sequence of icons connected to the touch panel display and input by the user using the input receiving means;
A computer program that functions as translation means for translating the sequence of icons into a complete sentence in a predetermined language.
JP2011024518A 2011-02-08 2011-02-08 Text input device, translation device including the same, text input method, and computer program Expired - Fee Related JP5652824B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011024518A JP5652824B2 (en) 2011-02-08 2011-02-08 Text input device, translation device including the same, text input method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011024518A JP5652824B2 (en) 2011-02-08 2011-02-08 Text input device, translation device including the same, text input method, and computer program

Publications (2)

Publication Number Publication Date
JP2012164172A true JP2012164172A (en) 2012-08-30
JP5652824B2 JP5652824B2 (en) 2015-01-14

Family

ID=46843497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011024518A Expired - Fee Related JP5652824B2 (en) 2011-02-08 2011-02-08 Text input device, translation device including the same, text input method, and computer program

Country Status (1)

Country Link
JP (1) JP5652824B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071897A (en) * 2012-09-28 2014-04-21 Dassault Systemes Simulia Corp Touch-enabled complex data entry
CN111798190A (en) * 2019-04-03 2020-10-20 阿里巴巴集团控股有限公司 Method and system for processing translation case

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102592585B1 (en) 2019-02-01 2023-10-23 한국전자통신연구원 Method and apparatus for building a translation model

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244291A (en) * 2009-04-06 2010-10-28 Sammy Networks Co Ltd Sentence transformation system, sentence transformation method, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010244291A (en) * 2009-04-06 2010-10-28 Sammy Networks Co Ltd Sentence transformation system, sentence transformation method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014071897A (en) * 2012-09-28 2014-04-21 Dassault Systemes Simulia Corp Touch-enabled complex data entry
CN111798190A (en) * 2019-04-03 2020-10-20 阿里巴巴集团控股有限公司 Method and system for processing translation case
CN111798190B (en) * 2019-04-03 2024-01-23 阿里巴巴集团控股有限公司 Method and system for processing translation document

Also Published As

Publication number Publication date
JP5652824B2 (en) 2015-01-14

Similar Documents

Publication Publication Date Title
Setlur et al. Eviza: A natural language interface for visual analysis
US9047274B2 (en) Machine translation-driven authoring system and method
US9053098B2 (en) Insertion of translation in displayed text consisting of grammatical variations pertaining to gender, number and tense
Hutchins Machine translation: A concise history
US8903707B2 (en) Predicting pronouns of dropped pronoun style languages for natural language translation
JP5280642B2 (en) Translation system, translation program, and parallel translation data generation method
JP2016218995A (en) Machine translation method, machine translation system and program
WO2010046782A2 (en) Hybrid machine translation
US11853689B1 (en) Computer-implemented presentation of synonyms based on syntactic dependency
Almasoud et al. A proposed semantic machine translation system for translating Arabic text to Arabic sign language
Prabhakar et al. Machine transliteration and transliterated text retrieval: a survey
Kang Spoken language to sign language translation system based on HamNoSys
Lyons A review of Thai–English machine translation
JP5652824B2 (en) Text input device, translation device including the same, text input method, and computer program
Shahnawaz et al. Statistical machine translation system for English to Urdu
CN110888940A (en) Text information extraction method and device, computer equipment and storage medium
Johansen et al. Augmentative and alternative communication: the future of text on the move
Huang et al. A computer-assisted translation and writing system
Song et al. picoTrans: an icon-driven user interface for machine translation on mobile devices
Song et al. picoTrans: An intelligent icon-driven interface for cross-lingual communication
Singh et al. Intelligent English to Hindi Language Model Using Translation Memory
JP2003178087A (en) Retrieval device and method for electronic foreign language dictionary
Imoto et al. A multi modal supporting tool for multi lingual communication by inducing partner's reply
Finch¹ et al. Source language generation from pictures for machine translation on mobile devices
Finch et al. Speaking louder than words with pictures across languages

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140603

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141014

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141112

R150 Certificate of patent or registration of utility model

Ref document number: 5652824

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees