JP2012164172A - Text input device, translation device including the same, text input method and computer program - Google Patents
Text input device, translation device including the same, text input method and computer program Download PDFInfo
- Publication number
- JP2012164172A JP2012164172A JP2011024518A JP2011024518A JP2012164172A JP 2012164172 A JP2012164172 A JP 2012164172A JP 2011024518 A JP2011024518 A JP 2011024518A JP 2011024518 A JP2011024518 A JP 2011024518A JP 2012164172 A JP2012164172 A JP 2012164172A
- Authority
- JP
- Japan
- Prior art keywords
- touch panel
- panel display
- sentence
- translation
- icons
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Input From Keyboards Or The Like (AREA)
- Position Input By Displaying (AREA)
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Abstract
Description
この発明は自然言語処理に関し、特に、ピクチャー又はアイコンベースのテキスト処理装置と、それを含む機械翻訳とに関する。 The present invention relates to natural language processing, and more particularly to a picture or icon-based text processing apparatus and machine translation including the same.
最近は機械翻訳(Machine Translation:MT)サービスに対する需要が大いに増しているが、これは、多くの言語の組合せにおいて実用的レベルまで翻訳の品質が改良されてきたからである。機械翻訳のアプリケーションに共通のプラットフォームの1つとして、必要な時にどこでも用いることのできる携帯機器がある。MTシステムが広まるにつれ、MTに関し、翻訳品質以外の周辺的な問題に光が当てられるようになってきた。実世界のMTアプリケーションが直面する重大な問題は、MTシステムに入力としてユーザが与える可能性のあるものが実に様々であるということである。例えば、入力には、間違えたり、標準からはずれたり、又は文法に従わなかったりする文、短縮された単語、絵文字、単語の置換え(例えば、「you」の代わりに「u」と書く等)等が含まれている。このような現象はMTシステムの性能を低下させるが、本質的には、MTシステムが取組もうとしている、それ自体既に十分な難問である中心的な問題に対して、周辺的な事項である。 Recently, the demand for machine translation (MT) services has increased greatly because the quality of translation has improved to a practical level in many language combinations. One common platform for machine translation applications is portable devices that can be used anywhere when needed. As the MT system has become widespread, the MT has been focused on peripheral issues other than translation quality. A significant problem faced by real-world MT applications is that there is a great variety of what a user can provide as input to an MT system. For example, for input, a sentence that is wrong, deviating from the standard, or that does not follow the grammar, a shortened word, a pictogram, a word replacement (for example, “u” instead of “you”, etc.), etc. It is included. Such a phenomenon reduces the performance of the MT system, but is essentially a peripheral matter to the central problem that the MT system is trying to address, which is already a sufficiently difficult problem.
このような問題に対処する1つの方法は、不規則な用法とそれに対応する正確な用法とから成る大規模なコーパスを収集し、教師付き方法で言語を規則化するように学習させることであろう。しかし、この方策には明らかに限界がある。現実のユーザが標準からはずれるやり方はユーザのコミュニケーションのモード又はコード、内容、さらにはユーザのウィットにも依存するからである。 One way to deal with these problems is to collect a large corpus of irregular usages and the corresponding exact usages and train them to regularize the language in a supervised way. Let's go. However, this strategy clearly has its limitations. This is because the way a real user deviates from the standard depends on the user's communication mode or code, content, and even the user's wit.
MTドメインでは、これまで、2つのコミュニケーションチャネルが研究されてきた。図1に示すように、第1のコミュニケーションチャネル40は、ソース言語42とターゲット言語46との間の翻訳であって、これはソース言語42とターゲット言語46との間に置かれる中間の言語である中間言語(インターリンガ)44を介して行なうことができる。中間言語44が自然言語である場合は、コミュニケーションチャネルは2つのMTシステムの連結でよい。第1はソース言語42から中間言語44へのものであり、第2は中間言語44からターゲット言語46へのものである。また、翻訳はコミュニケーションチャネル50を介しても達成できる。これはソース言語52からターゲット言語54への直接翻訳処理である。これは、広範に研究されている、最新の統計的機械翻訳システムを用いて達成できる。
In the MT domain, two communication channels have been studied so far. As shown in FIG. 1, the
人が母国語を異にする人と意思の疎通を図ろうとする場合、MTは便利な道具である。しかし、完全なMTシステムを持ち歩くわけにはいかない。携帯電話、又は無線通信能力を備えた携帯タブレット型コンピュータ等の携帯機器は、これらが完全なMTシステムと通信可能である限りにおいて、有用である。しかし、携帯機器でテキストを入力するのは、面倒で、多くのキーを押す必要があり、間違えやすい。ごく短い文でも、携帯機器で入力するのは困難である。このような場合、携帯機器以外の手段を用いた従来の方法が便利である。例えば、多くの場合、意思の疎通を図ろうとする人は、画像、記号、身振り等のコミュニケーション手段を持っており、ほかの手段がうまくいかない場合にはしばしば、これらの手段を用いる。実際、アイコンベースのコミュニケーションは、コミュニケーション手段が全くない地域の人々と意思の疎通を図ろうとする外交官の間では長い歴史がある。コミュニケーションはピクチャーを主として用いた本を用いて行なわれる。この本は、表現したいと願う内容の意味を示すアイコンを含み、外交官はそれらを指さすだけで外国の人々と意思の疎通を図る。 MT is a useful tool for people who want to communicate with people who speak different native languages. But you can't carry a complete MT system. Mobile devices such as mobile phones or mobile tablet computers with wireless communication capabilities are useful as long as they can communicate with a complete MT system. However, entering text on a mobile device is cumbersome and requires many key presses, making it easy to make mistakes. Even a very short sentence is difficult to input on a mobile device. In such a case, a conventional method using means other than the portable device is convenient. For example, in many cases, a person trying to communicate has communication means such as images, symbols, and gestures, and often uses these means when other means do not work. In fact, icon-based communication has a long history among diplomats trying to communicate with people in areas where there is no means of communication. Communication is carried out using books mainly using pictures. This book includes icons that indicate the meaning of the content that you want to express, and diplomat can communicate with foreign people just by pointing to them.
例えば、図4に示すように、ピクチャーブックは2つのピクチャー80及び82を含む。ピクチャー80には「I want to go to」という英語のテキストと、対応の日本語のテキストが付されている。ピクチャー82には、「restaurant」という英語のテキストと、対応の日本語のテキストと、ナイフ及びフォークのピクチャーとがある。ユーザが、「I want to go to the restaurant」(私はレストランに行きたい)という表現を翻訳したいとする。このピクチャーブックがあれば、ユーザはおそらく図5に示すように上記した2つのピクチャーを指さすであろう。すなわちピクチャー80(「I want to go to」)を指さし、それからピクチャー82(「restaurant」)を指さす。
For example, as shown in FIG. 4, the picture book includes two
ピクチャーベースのコミュニケーションに関しては、携帯型の装置用に様々なアプリケーションが提案されている。前者の領域では、PictTrans(pic−Trans,2010:非特許文献1)はピクチャーのアイコンのみを示し、指さし(指さし、2010:非特許文献2)(指でさすことを意味する)はアイコンをタップすると音声が出るが、これらのシステムは言語の生成は何ら行なわず、これは人間のユーザに任されている。 For picture-based communication, various applications have been proposed for portable devices. In the former area, PictTrans (pic-Trans, 2010: Non-Patent Document 1) indicates only a picture icon, and pointing (2010, Non-Patent Document 2) (meaning pointing with a finger) taps the icon. A voice is then produced, but these systems do not generate any language, which is left to human users.
逆に、ハンドヘルドの装置用に、かなりの数の機械翻訳システムも提案されている。例えば、texTra(texTra,2010:非特許文献3)テキスト翻訳システム及びvoiceTra(VoiceTra、2010:非特許文献4)発話翻訳システムがあるが、われわれの承知している限りでは、これらには、アイコンを備えたユーザインターフェイスを採用しているものはない。 Conversely, a significant number of machine translation systems have also been proposed for handheld devices. For example, there is a texTra (texTra, 2010: Non-Patent Document 3) text translation system and a voiceTra (VoiceTra, 2010: Non-Patent Document 4) utterance translation system. None have a user interface.
ピクチャーベースのアプリケーションは扱いが容易であるが、ソース文の表現可能性は限られている。音声ベースの機械翻訳アプリケーションは扱いが容易であるが、音声認識には誤りが多いと思われる。テキストベースの機械翻訳は最も翻訳の信頼性が高いが、テキスト入力はその携帯機器の入力システムに依存し、ほとんどの場合面倒である。 Picture-based applications are easy to handle, but the possibilities for expressing source sentences are limited. Speech-based machine translation applications are easy to handle, but speech recognition seems to be error prone. Text-based machine translation has the highest translation reliability, but text input depends on the input system of the mobile device and is usually cumbersome.
したがって、この発明の目的は、扱いが容易で信頼性の高い翻訳を生成する装置及び方法を提供することである。 Accordingly, an object of the present invention is to provide an apparatus and method for generating a translation that is easy to handle and highly reliable.
この発明の別の目的は、ソーステキストを容易に入力し信頼性の高い翻訳を生成する装置及び方法を提供することである。 Another object of the present invention is to provide an apparatus and method for easily inputting source text and generating a reliable translation.
この発明の第1の局面にしたがえば、タッチパネルディスプレイと関連して用いられるテキスト入力装置は、前記タッチパネルディスプレイに接続され、前記タッチパネルディスプレイにアイコンの組を表示するための手段と、前記タッチパネルディスプレイに接続され、ユーザによる前記タッチパネルディスプレイに表示された前記アイコンの1つ又は2つ以上のシーケンスの入力を受けるための入力受信手段と、前記タッチパネルディスプレイに接続され、前記入力受信手段を用いて前記ユーザによって入力されたアイコンのシーケンスを前記タッチパネルディスプレイに表示するための手段と、前記アイコンのシーケンスを所定の言語の完全な文に翻訳する翻訳手段と、を含む。 According to a first aspect of the present invention, a text input device used in connection with a touch panel display is connected to the touch panel display, means for displaying a set of icons on the touch panel display, and the touch panel display Connected to the touch panel display, input receiving means for receiving an input of one or more sequences of the icons displayed on the touch panel display by the user, and using the input receiving means Means for displaying a sequence of icons input by a user on the touch panel display; and translation means for translating the sequence of icons into a complete sentence in a predetermined language.
好ましくは、テキスト入力装置は、前記タッチパネルディスプレイ及び前記翻訳手段に接続され、前記翻訳手段によって翻訳された前記完全な文を前記タッチパネルディスプレイに表示するための手段をさらに含む。 Preferably, the text input device further includes means connected to the touch panel display and the translating means, and displaying the complete sentence translated by the translating means on the touch panel display.
さらに好ましくは、テキスト入力装置は、各々が前記アイコンとそれぞれ関連する、前記所定の言語のフレーズを記憶するための記憶手段と、前記記憶手段及び前記入力受信手段に接続され、前記アイコンの各々について前記記憶手段から引出されたフレーズを連結することにより外部言語のテキストを生成するための手段とをさらに含む。前記翻訳手段は文の対のコーパスで前記外部言語のテキストを前記所定の言語の文に翻訳するように統計的にトレーニングされたフレーズベースの統計的機械翻訳ユニットを含んでもよく、前記対の各々は、前記所定言語の第1の語彙内の語を含むフレーズのシーケンスと、前記第1の語彙より大きい第2の語彙内の語を含む前記所定言語の文と、を含む。 More preferably, the text input device is connected to the storage unit for storing the phrase in the predetermined language, each of which is associated with the icon, and the storage unit and the input receiving unit. Means for generating text in an external language by concatenating phrases derived from the storage means. The translation means may include a phrase-based statistical machine translation unit that is statistically trained to translate the text in the external language into a sentence in the predetermined language in a corpus of sentence pairs, each of the pairs Includes a sequence of phrases including words in a first vocabulary of the predetermined language and a sentence of the predetermined language including words in a second vocabulary greater than the first vocabulary.
さらに好ましくは、前記第1の語彙は前記所定言語の内容語を含む。 More preferably, the first vocabulary includes content words of the predetermined language.
統計的機械翻訳ユニットは、文仮説を構築するのに用いられるバイリンガルフレーズ対を、先行する部分的仮説の末尾にこれらのフレーズ対を付加することに関連するモデル確率とともに表す、探索グラフを出力してもよい。前記文は前記探索グラフにおいて最も尤度の高い経路に対応する仮説であり得る。 The statistical machine translation unit outputs a search graph that represents the bilingual phrase pairs used to build the sentence hypothesis, along with the model probabilities associated with adding these phrase pairs to the end of the preceding partial hypothesis. May be. The sentence may be a hypothesis corresponding to the most likely path in the search graph.
テキスト入力装置はさらに、前記アイコンシーケンス中のアイコンの1つのユーザによる選択を受ける手段と、前記ユーザの選択に応答して、前記探索グラフの前記ユーザによって選択された前記アイコンに対応するノードまでの部分から引出された複数個の部分仮説を示すための手段とを含んでもよい。 The text input device further includes means for receiving selection by one user of an icon in the icon sequence and up to a node corresponding to the icon selected by the user in the search graph in response to the user selection. Means for indicating a plurality of partial hypotheses drawn from the part.
この発明の第2の局面にしたがえば、翻訳装置は、上述のテキスト入力装置のいずれかにしたがったテキスト入力装置と、前記テキスト入力装置によって出力される前記文をターゲット言語の翻訳文に翻訳するための統計的機械翻訳装置と、前記翻訳文を前記タッチパネルディスプレイに表示するための手段と、を含む。 According to a second aspect of the present invention, a translation device translates a text input device according to any of the text input devices described above and the sentence output by the text input device into a translated sentence in a target language. And a statistical machine translation device for displaying the translated sentence on the touch panel display.
好ましくは、翻訳装置はさらに、前記タッチパネルディスプレイから予め規定されたコマンドを受けるための手段と、前記予め規定されたコマンドに応答して前記翻訳文を前記所定言語に逆翻訳し、前記逆翻訳された文を前記タッチパネルディスプレイに表示するための手段とを含む。 Preferably, the translation device further includes means for receiving a predefined command from the touch panel display, and back-translates the translated sentence into the predetermined language in response to the predefined command, and the back-translated Means for displaying a sentence on the touch panel display.
この発明の第3の局面にしたがえば、タッチパネルディスプレイに関連してテキストを入力する方法は、前記タッチパネルディスプレイにアイコンの組を表示するステップと、ユーザによる、前記タッチパネルディスプレイに表示された前記アイコンの1つ又は2つ以上のシーケンスの入力を受けるステップと、前記受けるステップで入力されたアイコンのシーケンスを前記タッチパネルディスプレイに表示するステップと、前記アイコンのシーケンスを所定の言語の完全な文に翻訳するステップと、を含む。 According to a third aspect of the present invention, a method for inputting text in relation to a touch panel display includes a step of displaying a set of icons on the touch panel display, and the icon displayed on the touch panel display by a user. Receiving one or more sequences of input, displaying the sequence of icons input in the receiving step on the touch panel display, and translating the sequence of icons into a complete sentence in a predetermined language Including the steps of:
この発明の第4の局面にしたがえば、コンピュータプログラムは、タッチパネルディスプレイを備えたコンピュータを、前記タッチパネルディスプレイに接続され、前記タッチパネルディスプレイにアイコンの組を表示するための手段と、前記タッチパネルディスプレイに接続され、ユーザによる前記タッチパネルディスプレイに表示された前記アイコンの1つ又は2つ以上のシーケンスの入力を受けるための入力受信手段と、前記タッチパネルディスプレイに接続され、前記入力受信手段を用いて前記ユーザによって入力されたアイコンのシーケンスを前記タッチパネルディスプレイに表示するための手段と、前記アイコンのシーケンスを所定の言語の完全な文に翻訳する翻訳手段、として機能させる。 According to a fourth aspect of the present invention, a computer program connects a computer having a touch panel display to the touch panel display and displays a set of icons on the touch panel display, and the touch panel display. Input receiving means for receiving an input of one or more sequences of the icons displayed on the touch panel display by the user, and connected to the touch panel display, and using the input receiving means, the user And a means for displaying the sequence of icons input by the touch panel display and a translation unit for translating the sequence of icons into a complete sentence in a predetermined language.
上述の図面を参照してこの発明を説明する。以下の説明及び図面では、同一の構成要素には同一の参照番号を付してある。したがって、それらについての詳細な説明は繰返さない。それらの機能もまた同様であるので、その詳細な説明は繰返さない。 The present invention will be described with reference to the above-mentioned drawings. In the following description and drawings, the same reference numerals are assigned to the same components. Therefore, detailed description thereof will not be repeated. Since their functions are also the same, detailed description thereof will not be repeated.
1.外部言語
この実施の形態は、対話者のいずれからも見える外部言語(Extralingua)を用いる。図3を参照して、ユーザは、両者とも、外部言語62を、以下の3つのMTシステムの支援を用いて対話的に操作できる。第1は外部言語62とソース言語64との間のもの、第2はソース言語64とターゲット言語66との間のもの、第3は外部言語62とターゲット言語66との間のものである。このような外部言語が存在するならそもそもなぜMTが必要なのか疑問に思うかもしれない。実はこの点が重要なのである。対話者同士には互いに意思の疎通ができる共通の言語が無い。これまでは図1及び図2に示すように単一のMTチャネルを用いてこのギャップを埋める方法のみを考えてきた。しかし、多くの状況において、対話者は、画像、記号、身振り等のコミュニケーション手段を持っており、ほかの手段がうまくいかない場合には、これらの手段を用いることが多い。このコミュニケーションの別のモードをMTチャネルと独立して並列に採用することもできるが、この発明の思想は、第2のコミュニケーションチャネルを直接機械翻訳システムに緊密に結合することを探求しようとするものである。
1. External Language This embodiment uses an external language (Extralingua) that is visible to any of the interlocutors. Referring to FIG. 3, the user can interactively operate the
このアプローチには多くの利点がある。第1に、何よりもまず、ユーザ間のコミュニケーションの品質が改善される。外部言語62を採用することにより、ユーザは2つの別種のチャネルを介して意思の疎通を図ることが可能になる。MT出力が完全であるとは期待できないので、これを補強する、又はこれと矛盾を生じるような第2の独立したコミュニケーションモードがあれば、より良い相互理解につながる。第2に、この提案はまたMTの品質も改善する。ユーザ入力処理を外部言語へのユーザインターフェイスで支援することができ、それによって入力を規則正しくし、予期しないエントリの数を減じることができるからである。
This approach has many advantages. First, above all, the quality of communication between users is improved. By adopting the
外部言語62の概念は、2つの大きな問題を提示する。
The concept of
−外部言語はどのような形をとるべきか?
−どうすればこの外部言語を効果的にMTシステムに統合できるか?
原理的には、外部言語は対話者によって共有できる、言語型のコミュニケーション媒体であればどのようなものでもよい。画像、記号、公式又は国際的な自然言語であってもよい。この実施の形態では、このような外部言語のアプローチが単純な抽象的言語によっても効果的であることを示すために、まず初めの例としてアイコンを採用した。
-What form should an external language take?
-How can this external language be effectively integrated into the MT system?
In principle, the external language can be any language-type communication medium that can be shared by interlocutors. It may be images, symbols, official or international natural languages. In this embodiment, in order to show that such an external language approach is effective even with a simple abstract language, an icon is first adopted as an example.
2.アイコンベースの翻訳システム
ピクチャーベースの翻訳支援具は紙の本の形で使われてきて、現在はハンドヘルドの装置に統合されているが、先行技術の非特許文献1又は2に示されるように、機械翻訳システムと組合わされてはいない。簡潔に言えば、この実施の形態において、ユーザはタッチスクリーンに現れるピクチャーのアイコンを、ちょうどピクチャーベースの翻訳支援具と同じように、タップする。システムはこれらの選択されたアイコンのシーケンスから可能な文を自動的に生成し、それらを機械翻訳に供給して、翻訳結果が表示できるようにする。ピクチャーブックとは異なり、アイコンのシーケンスはディスプレイ上に維持されてユーザが見ることができ、必要に応じて操作できる。入力が完了すると、システムは自動的に又は要求に応じてソース言語で完全型の文を生成し、これがその後機械翻訳ソフトウェアで翻訳されて、アイコンのシーケンスとともにスクリーン上に表示される。
2. Icon-based translation system Picture-based translation aids have been used in the form of paper books and are now integrated into handheld devices, but as shown in the prior
後述するように、この実施の形態では、アイコンのシーケンスは携帯機器のタッチスクリーンで入力される。遠隔の翻訳サーバで完全型のソース文の探索ツリーが生成される。探索ツリーを用いて、ユーザは携帯機器上で完全型のソース文を改良する。この改良されたソース文が翻訳サーバに送られる。翻訳文が携帯機器に送り返され、ユーザに提示される。 As will be described later, in this embodiment, the sequence of icons is input on the touch screen of the portable device. A remote translation server generates a complete source sentence search tree. Using the search tree, the user refines the complete source sentence on the mobile device. This improved source sentence is sent to the translation server. The translation is sent back to the mobile device and presented to the user.
この実施の形態では、このユーザインターフェイスを介してコミュニケーションすることにより、ユーザは本の同じ見開きからのみの組合せを想定してデザインされたピクチャーブックでできるよりもかなり多くのピクチャーを組合せることができ、このためアプリケーションは本よりずっと豊かな表現を実現できる。機械翻訳システムはピクチャーベースのモードに支援された、詳細で正確な翻訳を提供することができ、これは基本的な概念を伝えるのにより迅速な方法を提供するのみならず、機械翻訳の誤りをとらえ、ユーザにその文の再試行を許して誤解を避けるような、機械翻訳出力の「セカンドオピニオン」も与える。 In this embodiment, communicating through this user interface allows the user to combine much more pictures than can be done with a picture book designed for combinations only from the same book spread. Because of this, the application can achieve a richer expression than a book. Machine translation systems can provide detailed and accurate translations, supported by a picture-based mode, which not only provides a quicker way to convey basic concepts, It also provides a “second opinion” of machine translation output that allows the user to retry the sentence and avoid misunderstandings.
携帯機器上のMTに適用した場合、このようなシステムは非常に有利である。これら形態機器上でのユーザの入力は、テキスト入力の場合は面倒だろうし、音声入力では誤りが多いだろう。この結果、ユーザはより簡単で信頼のおける、ピクチャーブックの翻訳支援具等の言語間コミュニケーション方法を好むようになっており、最近、紙の形でも、電子的翻訳支援アプリケーションの形でも、広く用いられるようになってきている。 Such a system is very advantageous when applied to MT on portable devices. The user's input on these form devices will be troublesome in the case of text input, and there will be many errors in voice input. As a result, users have come to prefer simpler and more reliable interlanguage communication methods such as picture book translation support tools, which are now widely used both in paper and electronic translation support applications. It has become like this.
2.1 ユーザインターフェイス
携帯機器で実行されるアプリケーションの完全なユーザインターフェイスの図を図6に示す。簡単に言えば、このアプリケーションはユーザが表現したいものをバイリンガルで注釈を付けたアイコンのシーケンスで入力できるようにする。これは本質的にはピクチャーブックと同じ思想である。
2.1 User Interface A diagram of the complete user interface of an application running on a mobile device is shown in FIG. Simply put, this application allows the user to enter what they want to represent in a sequence of bilingual annotated icons. This is essentially the same idea as a picture book.
図6を参照して、この実施の形態のUIは、ソース言語とターゲット言語との間で言語をトグルするUI言語トグルボタン110、所望のアイコンカテゴリをユーザに選択させるカテゴリボタン112、選択されたアイコンカテゴリのうち、所望のサブカテゴリをユーザに選択させるサブカテゴリボタン114、アイコンの順序を並べ替えるアイコンソートボタン116、及び各々がソース言語フレーズとターゲット言語フレーズとの対を保持し、フレーズの意味を図形で表すアイコンがついた、一組のアイコン118とを含む。この実施の形態では、アイコン上のテキストは必須ではない。図形がうまくデザインされていれば、テキストはアイコンから省略してもよい。各アイコン118はこのシステムを実現するプログラムにおいてオブジェクトとして実現される。各アイコンオブジェクトは表示のためのそれ自身の図形データと、そのアイコンに関連したソース言語及びターゲット言語の単語又はフレーズを有する。アイコンデータはプログラムの一部であってもよく、ハードディスクドライブ等の記憶装置に記憶される。
Referring to FIG. 6, the UI of this embodiment includes a UI
UIはさらに、アイコンのシーケンス(例えば、アイコン140、142及び144)を入力順に表示するための、入力アイコンシーケンス用のアイコンシーケンスフィールド120と、アイコンのシーケンスから完全型のソース文の生成を起動するソース生成ボタン126と、アイコンのシーケンスから生成された完全型のソース文を表示するためのソース文フィールド122と、ソース文フィールド122のソース文の翻訳文を表示する翻訳文フィールド130と、ソース文フィールド122に示された完全型のソース文の翻訳を起動し、翻訳文が翻訳文フィールド130に現れるようにさせる翻訳ボタン124と、アイコンシーケンスフィールド120、ソース文フィールド122、及び翻訳文フィールド130をクリアするためのクリアボタン128と、翻訳文フィールド130に示された翻訳文の他の言語への翻訳を起動するチェックボタン132とを含む。ユーザがアイコン118の1つを選択すると、選択されたアイコンはアイコンシーケンスフィールド120内のアイコンのシーケンスに追加される。これは、アイコンの図形表現のシーケンスが生成されるだけでなく、アイコンシーケンスにしたがって単語又はフレーズを連結することにより、アイコンに関連する単語又はフレーズのシーケンスも生成されることを意味する。
The UI further triggers an
ソース生成ボタン126は必ずしも必要でない。例えば、2個又はそれ以上のアイコンが選択された場合、完全なソーステキストを自動的に推定してもよい。又は、ソース言語によっては、例えば特定のクラスの単語又はフレーズによって推定が自動的に起動してもよい。
The
ユーザはUI言語トグルボタン110を押すことによってユーザインターフェイスを自身の言語に切換えることができる。翻訳処理は以下のように進む。
The user can switch the user interface to his / her language by pressing the UI
(1)ユーザがカテゴリボタン112のいずれかを押すことにより、表現したいと思う概念のカテゴリを選択する。
(1) When the user presses any of the
(2)ユーザがサブカテゴリボタン114の1つを押すことによりサブカテゴリを選択する。
(2) The user selects one of the subcategories by pressing one of the
(3)ユーザがアイコン118の中からアイコンを選ぶと、そのアイコンがアイコンシーケンスフィールド120内のアイコンシーケンスに追加される。
(3) When the user selects an icon from among the
(3a)もしユーザが入力を続けたい場合には、(1)に戻り、シーケンスに別のアイコンを選択する。 (3a) If the user wants to continue input, return to (1) and select another icon for the sequence.
(3b)もしアイコンシーケンスが完了であれば、ソース生成ボタン126を押し、続いてステップ(4)に進む。アイコンシーケンスフィールド120内のアイコンシーケンスは完全型のソース文に翻訳され、ソース言語文がソース文フィールド122に現れる。この翻訳はソース言語からソース言語への翻訳である。完全なソース言語は、後述するフレーズベースのソース言語−ソース言語SMTによって、アイコンのシーケンスに基づいて、又はより具体的にはアイコンテキストのシーケンスに基づいて、遠隔のサーバにおいて推定される。
(3b) If the icon sequence is completed, the
(4)ユーザはシステムを対話的に操作することにより、ソース文を改良する(後述する。)。ユーザはアイコンシーケンスフィールド120内のアイコンのいずれか1つを選択することによりソース文を改良できる。
(4) The user improves the source sentence by operating the system interactively (described later). The user can refine the source sentence by selecting any one of the icons in the
(5)完全型のソース文に満足な場合は、ユーザは翻訳ボタン124をクリックする。これによって遠隔サーバ内のSMTシステムがソース文フィールド122内の文をターゲット言語に翻訳することになる。
(5) If the user is satisfied with the complete source sentence, the user clicks the
(6)翻訳文フィールド130に翻訳文が現れる。
(6) A translated sentence appears in the translated
図7を参照して、一旦翻訳が完了すると、チェックボタン132を押すことにより翻訳文フィールド130内のターゲット文のソース言語への逆翻訳が示され、ユーザが翻訳を検証できる。チェックボタン132をもう一度押すと、逆翻訳が翻訳文に置き換わる。
Referring to FIG. 7, once the translation is completed, pressing the
2.2システムアーキテクチャ
図8を参照して、翻訳システム150は、ネットワーク156により接続された携帯機器152とサーバコンピュータ154とを含む。携帯機器152はネットワーク156によりサーバコンピュータ154に接続され、このサーバコンピュータ154には3つの異なる機械翻訳サーバ処理が内蔵されている。第1のサーバ処理はアイコンシーケンスを完全型のソース文に翻訳し、デコード処理の探索グラフを、携帯機器152上で実行されているUIアプリケーションに返す。この処理は統計的機械翻訳(SMT)によって実現され、この実施の形態ではこれをソース言語−ソース言語SMTと呼ぶ。他の2つのサーバ処理はソース言語からターゲット言語への翻訳と、ターゲット言語からソース言語への逆翻訳とを行なう。これらの処理は最新のSMTによって実現され、それぞれソース言語−ターゲット言語SMT、ターゲット言語−ソース言語SMTと呼ぶ。
2.2 System Architecture Referring to FIG. 8,
UI言語をトグルすることによって、2人のユーザ160及び162はともに携帯機器152上のUIアプリケーションを利用できる。したがって、図9に示すように、2つのソース言語−ソース言語SMT174及び176がコンピュータ154内に内蔵されている。このシステムが日本語と英語との間のものであるとすれば、SMT174は日−日(日本語から日本語)のSMTであって、日本語のアイコンテキストシーケンスを日本語の完全型のソース文に翻訳し、SMT176は英−英(英語から英語)のSMT176であって英語のアイコンテキストシーケンスを英語の完全型のソース文に翻訳する。
By toggling the UI language, two
したがって、この実施の形態では、サーバコンピュータ154は日−日SMT174と、英−英SMT176と、日−英SMT178と、英−日SMT180と、サーバコンピュータ154にネットワーク156への接続を与えるネットワークインターフェイスカード(Network Interface Card:NIC)170と、図8の携帯機器152等の遠隔携帯機器(図示せず)からの要求を、日−日SMT174、英−英SMT176、日−英SMT178及び英−日SMT180の間に配信し、携帯機器に応答を返す要求配信処理172とを有する。
Therefore, in this embodiment, the
3.外部言語からソース文への変換
3.1 機械翻訳
外部言語を完全型のソース文に変換する作業は、字訳生成作業と極めて類似しており、これは単語並べ替え処理での一方向制約を用いたフレーズベースの統計的機械翻訳システム(SMT)(Finch及びSumita、2008年;Rama及びGali、2009年)を用いて行なうことができる。ここでも同様のアプローチを採用したが、SMTシステムのためのフレーズテーブルを引出すのにはベイズ共セグメント化アプローチ(次のセクションで説明する。)を用いた。
3. Conversion from an external language to a source sentence 3.1 Machine translation The process of converting an external language into a complete source sentence is very similar to the transliteration generation process, which is a one-way constraint in word reordering. This can be done using the phrase-based statistical machine translation system (SMT) used (Finch and Sumita, 2008; Rama and Gali, 2009). Again, a similar approach was taken, but the Bayesian co-segmentation approach (described in the next section) was used to derive the phrase table for the SMT system.
アイコンテキストシーケンスを完全型のソース文に翻訳するようにSMTシステムをトレーニングするために、単語の削除によってトレーニングコーパスを生成する。この実施の形態と実験では、ソース言語として日本語を用いた。すなわち、図10に示すように、日本語コーパス200を準備する。日本語コーパス200には、公に入手可能なMeCab(Kudo、2008年)等の形態素解析ツールを用いた形態素解析が行なわれる。本システムでアイコンで表されるであろう種類の内容語(例えば、名詞、動詞、形容詞等)を表す品詞(Part−Of−Speech:POS)タグの組が手で集められ、ステップ206で残りの単語のクラス(不変化詞、形式名詞、助動詞)がソース文から削除される。さらに全ての語彙素の活用形はこのステップでその見出し語に還元される。この処理の結果、バイリンガル(日本語から日本語)のトレーニングコーパス210が得られ、これは外部言語を示す、ソース側の内容語(語幹の形)のシーケンスと、ターゲット側である、完全型のソース文とからなる。トレーニングコーパス210のソース側内容語は語彙が限られており、一方で、ターゲット文側の完全なソース単語は、より大きな語彙からなる。
In order to train the SMT system to translate the icon text sequence into a complete source sentence, a training corpus is generated by word deletion. In this embodiment and experiment, Japanese was used as the source language. That is, as shown in FIG. 10, a
後述する実験では、フレーズベースの機械翻訳デコーダ(日−日SMT174)を用い、このモデルを対数線形フレームワーク(Och及びNey、2002年)と統合した。トレーニングコーパス210内でのフレーズ対の発見と抽出は、ベイズバイリンガルアライメント部(Finch及びSumita、2010年)を用いて行なわれた。この処理では、Knesser−Ney平滑化によって構築された5−グラム言語モデルが用いられた。システムは、対数線形モデルの重みを最適化するために取りのけておいた開発データ上で、BLEUスコア(Papineniら、2001年)に関する最小誤差率トレーニング(minimum error rate training:MERT)手順(Och、2003年)を用いて、標準的なやり方でトレーニングされた。
In the experiments described below, this model was integrated with a log-linear framework (Och and Ney, 2002) using a phrase-based machine translation decoder (day-day SMT174). Discovery and extraction of phrase pairs in the
機械翻訳システムは、旅行会話集で典型的に見られるような表現からなる約700,000のバイリンガル文対でトレーニングされた。これは非常に限られたドメインであり、このドメイン内の文は非常に短い傾向がある(コーパスの英語側で平均7語)ため、翻訳は極めて容易であった。機械翻訳システムは最新のシステムであり、限定したドメインの短い文に限って適用した結果、高品質の翻訳が可能であった。 The machine translation system was trained on approximately 700,000 bilingual sentence pairs consisting of expressions typically found in travel conversation collections. This is a very limited domain and the sentences in this domain tend to be very short (on average 7 words on the English side of the corpus), so translation was very easy. The machine translation system is the latest system, and as a result of being applied only to short sentences of limited domains, high-quality translation was possible.
3.2 ベイズ共セグメント化
全てのフレーズベースの統計的機械翻訳システムにおいて中心となるのは、フレーズテーブルである。このテーブルは、翻訳を構築するのに用いられる構成要素の基本的な組である。
3.2 Bayes co-segmentation The central part of all phrase-based statistical machine translation systems is the phrase table. This table is the basic set of components used to build a translation.
フレーズベースのSMTシステムの通常のトレーニング処理の間のフレーズテーブルの作成は、しばしばGIZA++(Och及びNey、2003年)を用いる単語アライメントステップと、これに続く、ヒューリスティクス(例えば、MOSES(Koehnら、2007年)ツールキットのgrow−diag−final−and)を用いたフレーズ対抽出ステップとから成る。このアプローチは実際には非常にうまく働くが、ソースとターゲットとで非対称であり、データを過学習するおそれの大きい最大尤度法に基づいている。 Creation of a phrase table during the normal training process of a phrase-based SMT system often involves a word alignment step using GIZA ++ (Och and Ney, 2003) followed by heuristics (eg, MOSES (Koehn et al., 2007) Phrase pair extraction step using toolkit grow-diag-final-and). This approach works very well in practice, but is based on a maximum likelihood method that is asymmetric between the source and target and has a high risk of overlearning the data.
ここで共セグメント化に用いたモデルは、Finch及びSumita、2010年、に類似のディリクレプロセスモデルである。ここでベイズのアプローチを用いた理由は、その結果が、一方向にアライメント可能なシーケンスに対しGIZA++/MOSESヒューリスティックス(Finch及びSumita、2010年)を用いるよりも効果的であることを示したばかりでなく、コーパスの、首尾一貫した単一のバイリンガルセグメント化をもたらすからである。この一貫性はこのモデルを構築するのに非常に望ましい特性であると考えられる。このシステムは、これらフレーズ対を組合せるだけで自然言語を生成するからである。 The model used for co-segmentation here is a Dirichlet process model similar to Finch and Sumita, 2010. The reason for using the Bayesian approach here not only showed that the results were more effective than using GIZA ++ / MOSES heuristics (Finch and Sumita, 2010) for unidirectionally alignable sequences. This results in a consistent, single bilingual segmentation of the corpus. This consistency is considered a very desirable property to build this model. This is because this system generates a natural language only by combining these phrase pairs.
図11に共セグメント化処理を例示する。図11を参照して、日本語アイコンテキスト220のシーケンスが完全な日本語文222とアライメントされる。日本語のアイコンテキスト220のシーケンスは外部言語の文と考えられ、一方、日本語文222は日本語の文である。したがって、これら2つの文又は単語シーケンスは英語の文と日本語の文との場合と同様に、アライメントできる。図11の例では、アイコンテキスト230(タクシー)、232(レストラン)及び234(行く)がフレーズ240(タクシーで)、242(レストランに)及び244(行きたいのですが)とアライメントされている。
FIG. 11 illustrates the co-segmentation process. Referring to FIG. 11, the sequence of
3.3 ユーザの操作
図12を参照して、図6に示すアイコンベースの翻訳アプリケーションのUI画面100を実現するメインプログラムは、以下の制御構造を有する。プログラムはステップ260で始まり、ここではシステムの初期化が行なわれる。このステップでは、プログラムにメモリロケーションが割当てられ、このプログラムを実行するためのベースアドレスが決定され、メモリロケーションが初期化され、スクリーンが初期化される。
3.3 User Operations Referring to FIG. 12, the main program for realizing the
次のステップ262で、システムはユーザの入力を待つ。ユーザの入力が検出されると、システムはユーザによってどのボタン又はタブがタッチされたかを判断し、ステップ264から282に制御を分岐させる。
In the
ユーザがUI言語トグルボタン110(図6)をタッチすると、制御の流れはステップ264に進み、ここでUI言語がこの実施の形態では日本語と英語との間でトグルし、その後制御はステップ262に戻る。ユーザがカテゴリボタン112及びサブカテゴリボタン114の1つをタッチすると、対応のアイコンの組がアイコン記憶部(図示せず)から読出されて、タッチスクリーン上に配列され、制御はステップ262に戻る。ユーザがアイコンソートボタン116の1つをタッチすると、制御はステップ270に進み、ここでアイコン118が選択された順序で並べ替えられ、制御はステップ262に戻る。これらのステップは通常の処理であると考えられ、当業者によって容易に実現可能である。したがって、これらのステップの詳細はここでは説明しない。
When the user touches UI language toggle button 110 (FIG. 6), the flow of control proceeds to step 264 where the UI language toggles between Japanese and English in this embodiment, after which control proceeds to step 262. Return to. When the user touches one of the
ユーザがアイコン118のうち1つをタッチすると、制御はステップ272に進む。図13を参照して、ステップ272はアイコンをアイコンシーケンスフィールド120内のアイコンのアイコンシーケンスの末尾に追加するステップ300と、アイコンテキストをテキストシーケンスの末尾に追加するステップ302(図示せず)と、アイコンシーケンスフィールド120を更新してこのルーチンから出るステップ304とを含む。
If the user touches one of the
ユーザがソース生成ボタン126をタッチすると、制御はステップ274に進む。図14を参照して、ステップ274はアイコンシーケンスフィールド120内のアイコンシーケンスに対応するアイコンテキストシーケンスを日−日SMT174に送るステップ320(図9を参照)と、日−日SMT174から探索グラフが送り返されるのを待つステップ322と、この探索グラフを記憶部に記憶するステップ324(図示せず)と、探索グラフのうち最も尤度の高い経路を探すステップ326と、ステップ326で見つかった最も尤度高い経路に対応するソーステキストをソース文フィールド122のための記憶部に記憶するステップ328と、ソース文フィールド122を更新するステップ330と、を含む。ステップ330の後、制御はステップ262に戻る(図12)。
If the user touches
機械翻訳システムの出力は、探索グラフであって、完全型のソース文仮説を構築するのに用いられるバイリンガルフレーズ対を、先行する部分的仮説の末尾にこれらのフレーズ対を付加することに関連するモデル確率とともに表したものである。このグラフは機械翻訳システムからユーザインターフェイスクライアントに与えられ、これは図形中の情報を用いて、操作処理の間に入力を連続して再デコードする必要なしに、ユーザに満足のいく結果を与える。 The output of a machine translation system is a search graph that relates to adding bilingual phrase pairs used to build a complete source sentence hypothesis to the end of the preceding partial hypothesis. It is expressed with the model probability. This graph is provided from the machine translation system to the user interface client, which uses the information in the graphic to give the user satisfactory results without having to re-decode the input continuously during the manipulation process.
このシステムでは、外部言語からの生成処理に続いて、上述のステップ274の処理の結果として、与えられた入力文に対し完全型のソース文の最も尤度の高い仮説がユーザに提示される。この文がユーザの意図した意味に合わなければ、ユーザはアイコンシーケンスを対話的に操作することにより、生成された文を改良できる。これは図12のステップ276で行なわれる。
In this system, following the generation process from the external language, as a result of the process in
ユーザはアイコンシーケンスフィールド120に表示されているアイコンシーケンスの中のどのアイコンをタップしてもよい。図12を参照して、制御はステップ276に進む。
The user may tap any icon in the icon sequence displayed in the
図15を参照して、ステップ276はステップ340を含み、ここではユーザインターフェイスが探索グラフを調べ、ユーザに対し、選択されたアイコンの翻訳にいたる範囲で、かつ選択されたアイコンの翻訳を含む、部分的な翻訳仮説のnベストリストを提示する。これに応じて、ユーザは部分的翻訳仮説の1つを選択できる。この実施の形態では、システムに直接テキスト入力することはできないが、そのようにすることも可能であり、おそらく実世界のシステムではこれが必要であろう。入力をこのように制限することによって支払うべき対価は、表現の豊かさであるので、以下のセクションでは、このことを念頭においてこのシステムを実験的に検討する。
Referring to FIG. 15,
ステップ276はさらに、ステップ340でのユーザの入力に基づいて新たな完全型のソーステキストを生成するステップ342と、新たな完全型のソーステキストをソース文フィールド122のための記憶部に記憶するステップ344と、ソース文フィールド122を更新するステップ346と、を含む。ステップ346の後、制御はステップ262に戻る。
Step 276 further includes generating a new
再び図12を参照して、ユーザがクリアボタン128(図6を参照)をタッチすると、制御はステップ278に進み、ここでアイコンシーケンスフィールド120、ソース文フィールド122及び翻訳文フィールド130がクリアされ、制御はステップ262に戻る。
Referring again to FIG. 12, if the user touches the clear button 128 (see FIG. 6), control proceeds to step 278 where the
ユーザが翻訳ボタン124(図6を参照)をタッチすると、制御はステップ280に進む。図16を参照して、ステップ280は、ソース文フィールド122の完全型のソース文を図9に示す日−英SMT178に送るステップ360と、日−英SMT178からの応答(翻訳)を待つステップ362と、翻訳文を受取り、翻訳文フィールド130用の記憶部に記憶するステップ366と、翻訳文フィールド130を更新するステップ368とを含み、制御はステップ262に戻る(図12を参照)。
If the user touches translation button 124 (see FIG. 6), control proceeds to step 280. Referring to FIG. 16,
ユーザがチェックボタン132をタッチすると(図6を参照)、制御はステップ282に進む。この実施の形態では、ステップ282において、翻訳文フィールド130に示されたテキストが日本語のテキストか(逆翻訳)又は英語の翻訳であるかに依存して、翻訳文フィールド130に示されたテキストが日−英SMT178又は英−日SMT180に送られる。日−英SMT178又は英−日SMT180から翻訳文又は逆翻訳文が送り返され、翻訳文フィールド130に示され、制御はステップ262に戻る。
When the user touches check button 132 (see FIG. 6), control proceeds to step 282. In this embodiment, in
上の実施の形態はソース言語(例えば日本語)からターゲット言語(例えば英語)への翻訳に関連して説明されたが、上述の装置が逆方向への翻訳、すなわち英語から日本語への翻訳にも使用できることは当業者には明らかであろう。さらに、サーバコンピュータ154(図9を参照)が英−英SMT176を有していない場合でも、これは依然として日本語から英語へのアイコンベースの翻訳装置として機能する。
While the above embodiment has been described with reference to translation from a source language (eg, Japanese) to a target language (eg, English), the above described device translates backwards, ie, from English to Japanese. It will be apparent to those skilled in the art that it can also be used. Furthermore, even if the server computer 154 (see FIG. 9) does not have the English-
4.評価
4.1 表現力
アイコン駆動のユーザ入力について懸念される主な点の1つは、ドメイン内におけるその表現力である。文をその携帯機器で利用可能なアイコンのみを用いて表現しなければならないからである。このため、システムの評価を行なって、UI画面100が表すことのできるドメイン内の文の比率を判断した。この目的のために、トレーニングコーパス210(図10を参照)と同じサンプルから抽出し取りのけておいたデータの組から100個の文のサンプルを採り、各々の文からアイコン駆動のインターフェイスとそのソース文生成処理とを用いて意味的に均等な形を生成できるかどうかを判断した。現在のプロトタイプの開発ははまだ十分ではないので、数値表現(価格、電話番号、日付、時刻等)を扱うアイコンの組を含んでいない。このため、評価用の組からはこれらを含む文を除いた(数値表現を含む文を除いた後の評価用の組のサイズは100文であった。)。しかし、数値表現の扱いは比較的直截的なので、将来この機能を付加することに格別困難があるとは思われない。評価で用いたアイコンの組は、日−英SMT178及び英−日SMT180をトレーニングするのに用いたトレーニングコーパスの英語側で最もよく用いられる2010個の内容語であり、トレーニングコーパス中で28回以上出現した内容語である。この値は、ユーザインターフェイスのアイコンの数が、実世界で役立つ応用を構築するのに必要なアイコン数の概算である2000個程度になるように選ばれた。
4). Evaluation 4.1 Expressiveness One of the main concerns about icon-driven user input is its expressive power within the domain. This is because the sentence must be expressed using only icons that can be used on the portable device. Therefore, the system was evaluated to determine the ratio of sentences in the domain that the
この評価データの文の74%で、意味的に均等な文を生成可能であることが分かった。これを、より少ない数のアイコンが用いられた例についての(100個の評価文からランダムに採った30個のサンプル文に基づく)統計とともに、図17のグラフ380に示す。ユーザインターフェイスを簡素化したことを考えれば、この守備範囲は高レベルであると思われる。出力に対し人による訂正がない場合の2つの方法の比較を図18に示す。ここでもまた、MT法(グラフ390で示す)がn−グラム法(グラフ392で示す)よりも高い性能を示した。これと、この方法が一般に全ての言語に応用可能であると期待できることと考え併せれば、この発明の目的に関しこの方法がそれだけ良い生成技術であるといっても過言ではないであろう。
It was found that 74% of the sentences in the evaluation data can generate semantically equivalent sentences. This is shown in the
4.2 効率
これらの文を外部言語を用いて入力するのに必要とされたキーを押す動作の回数を、装置のテキスト入力インターフェイスを用いて入力した場合に必要とされたであろう回数と比較検討した。ここでは、アイコンの各々を選択するのにキーを3回押す必要があると仮定したが、多くの場合同じアイコンサブカテゴリからのアイコンを用いることができるので、そのようなアイコンはキーを1回押すだけで済む。したがって、ここでの推定は必要とされるキーを押す動作の回数の上限を表す。キーを1回押すのにかかる時間は、アイコンの入力とテキストの入力とでは同じではないが、実験ではこれは測定しなかった。さらに、入力処理でのユーザの入力誤りの影響も測定しなかった。ソース文が意図した意味になるように、ユーザがシステムを対話的に操作するために必要なキーを押す追加の動作は測定に含めた。
4.2 Efficiency The number of key presses required to enter these sentences using an external language is the number of times that would have been required if entered using the device's text input interface. A comparative study was conducted. Here we assume that it is necessary to press the key three times to select each of the icons, but in many cases icons from the same icon subcategory can be used, so such icons press the key once. Just do it. Therefore, the estimation here represents the upper limit of the number of times of pressing the required key. The time it takes to press a key once is not the same for icon input and text input, but this was not measured in the experiment. Furthermore, the effect of user input errors in the input process was not measured. Included in the measurement was the additional action of the user pressing the necessary keys to interact with the system so that the source sentence had the intended meaning.
この実験で、この実施の形態にしたがった外部言語の入力システムでは、テキスト入力方法のキーを押す動作の回数の57%しか必要としないことが分かった。キーを押す動作の回数はテキスト入力の1650回に対し、外部言語の入力方法では941回である。これは、外部言語の入力システムが、効率的なテキスト入力システムとして利用できることを意味する。 In this experiment, it was found that the external language input system according to this embodiment requires only 57% of the number of times of pressing the key of the text input method. The number of times of pressing the key is 1,650 times for text input, and 941 times for the input method of the external language. This means that an external language input system can be used as an efficient text input system.
4.3 ソース文生成の品質
この発明のシステムの最初の版では、欠落する機能語を回復するのに単純な言語モデルベースのアプローチを用いた。このアプローチは、形が非常に規則的で、機能を示すのに内容語に近接して不変化詞を用い、限定詞を含まない日本語には適している。内容語の対であって機能語がその左又は右についているものを含むバイグラムをトレーニングデータから抽出し、これらのバイグラムを生成処理において対応の内容語の場所に挿入した。この発明のモデルは、これら可能な置換の全てから結果として生じる仮説の組に、5グラム言語モデルでスコア付けし、最も高い言語モデルスコアとなった仮説を最良の候補として選択する。探索空間を管理可能なサイズに削減するため、ビーム探索法を用いた。
4.3 Quality of source sentence generation In the first version of the system of the present invention, a simple language model based approach was used to recover missing function words. This approach is very regular in shape and uses invariants in close proximity to the content word to indicate function, and is appropriate for Japanese that does not contain a qualifier. Bigrams containing a pair of content words that have functional words on the left or right are extracted from the training data, and these bigrams are inserted into the corresponding content word locations in the generation process. The model of the present invention scores the set of hypotheses resulting from all of these possible substitutions with a 5-gram language model and selects the hypothesis with the highest language model score as the best candidate. The beam search method was used to reduce the search space to a manageable size.
この発明のシステムのソース生成構成要素の品質を、いずれもn−グラム精度に基づく機械翻訳性能を測定する一般的な方法である、BLEUスコア(Papineniら、2001年)及びNISTスコア(Doddington、2002年)について、NIST機械翻訳評価スコアスクリプトのバージョン13aを用いて評価した。評価データの中から、数値表現を含む文を除去した。この除去により、当初510個の日本語文の組が455個の文に減じられた。これらの文をMeCab形態素解析器に供給し、発明のシステムのアイコンとは関係のない単語を除いた。実験結果を表の形で図19に示す。 The BLEU score (Papineni et al., 2001) and NIST score (Doddington, 2002), which are common methods for measuring machine translation performance based on n-gram accuracy, both of the quality of the source generation component of the system of the present invention. Was evaluated using version 13a of the NIST machine translation evaluation score script. Removed sentences containing numerical expressions from the evaluation data. With this removal, the initial set of 510 Japanese sentences was reduced to 455 sentences. These sentences were supplied to the MeCab morphological analyzer and words that were not related to the icons of the inventive system were removed. The experimental results are shown in table form in FIG.
隠れn−グラム(見出し語化済み)とSMT生成とのスコアは全く同じ入力から導出したものである。この例で隠れn−グラムのスコアが低いのは、活用形を生成できないからである。したがって、第2の実験では、活用した語の正しい表層形式から隠れn−グラムを生成できるようにした。これはこのモデルに、活用を予測する必要があるSMT生成モデルに対し不当な優位性を与えることになった。それにも関わらず、SMT処理で生成されたソース文は用いられたどちらの評価基準でもより高いスコアであった。 The scores for hidden n-grams (headworded) and SMT generation are derived from exactly the same input. The reason why the score of the hidden n-gram is low in this example is that an inflected form cannot be generated. Therefore, in the second experiment, a hidden n-gram can be generated from the correct surface layer format of the utilized word. This has given this model an unfair advantage over the SMT generation model that needs to be predicted for use. Nevertheless, the source sentence generated by the SMT process had a higher score for both evaluation criteria used.
5.コンピュータによる実現
この発明の実施の形態の上述の説明から明らかなように、携帯機器152とサーバコンピュータ154とはコンピュータハードウェアで実現可能である。携帯機器152はユーザが持ち運ぶので、そのリソースは限られるが、サーバコンピュータ154にはそのような制限はない。したがって、それらの構成は互いに異なる。
5. Realization by Computer As is apparent from the above description of the embodiment of the present invention, the
図20及び図21を参照して、この実施の形態の携帯機器152はタブレット型のコンピュータであって、液晶表示装置(Liquid Crystal Display:LDC)420上に形成されたタッチパネル418を有し、ユーザがテキストの入力をしたり、LCD420に表示された何らかのボタンをタッチしたりできる。携帯機器152はさらに、CPU(Central Processing Unit:中央処理装置)410と、フラッシュROM(Read−Only Memory:読出専用メモリ)412と、RAM(Random Access Memory:ランダムアクセスメモリ)414と、入出力インターフェイス(I/F)416と、ネットワークインターフェイス422と、ハードウェアボタン424と、を含む。これらの構成要素は全て、バス426に接続される。CPU410はバス426を介してこれらのいずれにもアクセス可能である。
Referring to FIG. 20 and FIG. 21, the
図22を参照して、この実施の形態のサーバコンピュータ154にハードウェアリソースを提供するコンピュータシステム430は、コンピュータ440を含む。コンピュータシステム430はさらに、全てコンピュータ440に接続された、モニタ442、キーボード446及びマウス448を含む。コンピュータ440はDVD(Digital Versatile Disc:ディジタル多用途ディスク)462からデータを読出し、又はDVD462にデータを書込むためのDVDドライブ450と、リムーバブルメモリ464からデータを読出し又はデータを書込むためのメモリポート452と、を有する。
Referring to FIG. 22, a
図23を参照して、コンピュータ440はさらに、CPU456と、CPU456に接続されたバス466とを含む。DVDドライブ450とメモリポート452とはバス466に接続されており、バス466を介してCPU456にアクセス可能である。コンピュータ440はさらに、コンピュータ440のブートプログラムを記憶するROM458と、CPU456によって使用される作業領域及びCPU456によって実行されるプログラムの記憶領域を提供するRAM460と、SMTが使用するコーパスデータ、翻訳モデル及び言語モデル、並びにトレーニング処理と翻訳処理との間に使用される他のデータを記憶するハードディスクドライブ(HDD)454と、を含む。
Referring to FIG. 23,
コンピュータ440はさらにNIC170を含み、これは図9にも示されるが、バス466に接続されてコンピュータ440に、典型的にはLAN(Local Area Network)(図示せず)及び無線通信である、ネットワークへの接続を与える。
The
上述の実施の形態のサーバコンピュータ154を実現するソフトウェアは、DVD462等の記録媒体に記録されたオブジェクトコードの形で配信されてもよいし、リムーバブルメモリ464に記憶され、DVDドライブ450又はメモリポート452等の読出装置を介してコンピュータ440に提供され、HDD454に記憶されてもよい。CPU456がプログラムを実行する際に、プログラムはHDD454から読出されてRAM460に記憶される。CPU456の図示しないプログラムカウンタによって指定されるアドレスからCPU456によって命令がフェッチされ、CPU456によって処理される。CPU456は、CPU456内のレジスタ、RAM460又はHDD454の、命令のオペランドによって指定されるアドレスから処理すべきデータを読出し、処理の結果を、これもまた命令のオペランドによって指定される、CPU456内のレジスタ、RAM460又はHDD454に記憶する。
The software that implements the
コンピュータシステム430の一般的な動作は周知であるので、その詳細はここでは説明しない。
Since the general operation of
ソフトウェアの配信の仕方について、これは必ずしも記録媒体に固定されていなくてもよい。例えば、ソフトウェアは別のシステムからコンピュータ440にネットワーク及びNIC170を介して送信されてもよい。ソフトウェアの一部をHDD454に記憶し、ソフトウェアの残りの部分をネットワークからHDD454に取り込んで、実行の際にそれらを統合してもよい。
As for the software distribution method, it is not necessarily fixed to the recording medium. For example, the software may be transmitted from another system to the
典型的には、現代のコンピュータはコンピュータのオペレーティングシステム(OS)によって提供される機能を利用し、所望の目的にしたがって制御されたやり方で機能を実行する。したがって、OS又はサードパーティによって提供される機能を含まず、一般的な機能を実行する命令の組合せのみを指定するプログラムもまた、全体として所望の目的を達成する制御構造を有する限り、この発明の範囲に含まれる。 Modern computers typically utilize functions provided by a computer operating system (OS) to perform functions in a controlled manner according to the desired purpose. Therefore, a program that does not include a function provided by the OS or a third party and that specifies only a combination of instructions that execute a general function also has a control structure that achieves a desired object as a whole. Included in the range.
6.結論
この発明は、外部言語と呼ばれる抽象的言語を用いてコミュニケーションの際に両当事者が伝えようとしている意味的内容を明示する、機械翻訳の新たな入力の枠組みを提供する。この外部言語は機械翻訳システムに対しトランスペアレントで信頼性のあるセカンドオピニオンとして働くのみならず、携帯機器で実行されるアプリケーションにうまく適合する、主たるユーザ入力の方法として用いることができる。
6). CONCLUSION The present invention provides a new machine translation input framework that uses an abstract language called an external language to clarify the semantic content that both parties are trying to convey during communication. This external language not only acts as a transparent and reliable second opinion for the machine translation system, but can also be used as a primary user input method that fits well with applications running on mobile devices.
この発明の実施の形態、発明の思想を実施するシステムの具体例、及びその特性のいくつかの実験的説明を提示した。この実施の形態では、旅行者のための2つの異なる翻訳方法の思想を結びつけた。ピクチャーブックと、統計的機械翻訳とである。このアプローチはピクチャーブックの単純ながら力強い表現の利点を全て提供すると同時に、ソース文でのユーザの意味を明瞭に言い表すことのできる自然言語をターゲット言語で生成できる。発明者らの評価によれば、アイコンベースの入力システムはこの基本旅行表現コーパスのドメインにおいて文の約74%をカバーし、さらに、テキストのみの入力方法に対し、翻訳すべき表現を入力するのに必要なキーを押す回数は大幅に減じられた。 An embodiment of the present invention, a specific example of a system for carrying out the idea of the invention, and some experimental explanations of its characteristics have been presented. This embodiment combines the ideas of two different translation methods for travelers. Picture book and statistical machine translation. This approach provides all the benefits of a simple but powerful representation of a picture book, while at the same time generating a natural language in the target language that can clearly express the user's meaning in the source sentence. According to the inventor's evaluation, the icon-based input system covers about 74% of sentences in this basic travel expression corpus domain, and also inputs expressions to be translated for text-only input methods. The number of key presses required for is significantly reduced.
今回開示された実施の形態は単に例示であって、本発明が上記した実施の形態のみに制限されるわけではない。本発明の範囲は、発明の詳細な説明の記載を参酌した上で、特許請求の範囲の各請求項によって示され、そこに記載された文言と均等の意味及び範囲内での全ての変更を含む。 The embodiment disclosed herein is merely an example, and the present invention is not limited to the above-described embodiment. The scope of the present invention is indicated by each claim of the claims after taking into account the description of the detailed description of the invention, and all modifications within the meaning and scope equivalent to the wording described therein are included. Including.
参考文献
G.Doddington.2002年。Nグラム共起統計を用いた機械翻訳品質の自動評価。HLT会議予稿集、サンディエゴ、カリフォルニア。
References Doddington. 2002. Automatic evaluation of machine translation quality using N-gram co-occurrence statistics. Proceedings of the HLT Conference, San Diego, California.
Andrew Finch及びEiichiro Sumita.2008年。フレーズベースの機械翻訳。第3回NLP国際合同会議予稿集、第1巻。ハイデラバード、インド。
Andrew Finch and Eiichiro Sumita. 2008. Phrase-based machine translation. Proceedings of the 3rd NLP International Joint Conference,
Andrew Finch及びEiichiro Sumita.2010年。字訳のためのバイリンガルセグメント化のベイズモデル。IWSLT予稿集、パリ、フランス。 Andrew Finch and Eiichiro Sumita. 2010. A bilingual segmented Bayesian model for transliteration. IWSLT Proceedings, Paris, France.
Philipp Koehnら、2007年.Moses:統計的機械翻訳のためのオープンソースツールキット。ACL2007:デモ及び紙セッションの予稿集、第177−180ページ、プラハ、チェコ共和国、6月。 Philip Koehn et al., 2007. Moses: An open source toolkit for statistical machine translation. ACL 2007: Proceedings of Demos and Paper Sessions, pp. 177-180, Prague, Czech Republic, June.
T.Kudo.2008年。MeCab.[オンライン]、http://mecab.sourceforge.net/で入手可能。 T.A. Kudo. 2008. MeCab. [Online] Available at http://mecab.sourceforge.net/
Franz Josef Och及びHermann Ney.2002年。統計的機械翻訳のための識別的トレーニング及び最大エントロピモデル。第40回コンピュータ言語学会年次会合(ACL2002)予稿集、第295−302ページ。 Franz Josef Och and Hermann Ney. 2002. Discriminative training and maximum entropy model for statistical machine translation. Proceedings of the 40th Annual Meeting of the Computer Linguistic Society (ACL2002), pp. 295-302.
Franz Josef Och及びHermann Ney2003年。様々な統計的アライメントモデルの系統的比較。コンピュータ言語、29(1):19−51。 Franz Josef Och and Hermann Ney 2003. Systematic comparison of various statistical alignment models. Computer language, 29 (1): 19-51.
Kishore Papineniら、2001年.Bleu:機械翻訳の自動評価方法。ACL’02:コンピュータ言語学会第40回年次会合予稿集、第311−318ページ、モリスタウン、NJ、USA、コンピュータ言語学会。 Kishore Papineni et al., 2001. Bleu: Automatic machine translation evaluation method. ACL'02: Proceedings of the 40th Annual Meeting of the Computer Linguistic Society, 311-318, Morristown, NJ, USA, Computer Linguistic Society.
Taraka Rama及びKarthik Gali.2009年。フレーズベースの統計的機械翻訳課題としての機械翻訳モデル。NEWS’09:固有表現ワークショップ:音訳の共有タスク、第124−127ページ、モリスタウン、NJ、USA、コンピュータ言語学会。 Taraka Rama and Karthik Gali. 2009. Machine translation model as a phrase-based statistical machine translation task. NEWS'09: Specific Expression Workshop: Transliteration Sharing Task, pages 124-127, Morristown, NJ, USA, Computer Linguistic Society.
40、50、60 コミュニケーションチャネル
42、52及び64 ソース言語
44 中間言語
46、56及び66 ターゲット言語
62 外部言語
80及び82 ピクチャー
100 UI画面
110 UI言語トグルボタン
112 カテゴリボタン
114 サブカテゴリボタン
116 アイコンソートボタン
118、140、142及び144 アイコン
120 アイコンシーケンスフィールド
122 ソース文フィールド
124 翻訳ボタン
126 ソース生成ボタン
128 クリアボタン
130 翻訳文フィールド
132 チェックボタン
150 翻訳システム
152 携帯機器
154 サーバコンピュータ
156 ネットワーク
40, 50, 60
Claims (10)
前記タッチパネルディスプレイに接続され、前記タッチパネルディスプレイにアイコンの組を表示する手段と、
前記タッチパネルディスプレイに接続され、ユーザによる前記タッチパネルディスプレイに表示された前記アイコンの1つ又は2つ以上のシーケンスの入力を受ける入力受信手段と、
前記タッチパネルディスプレイに接続され、前記入力受信手段を用いて前記ユーザによって入力されたアイコンのシーケンスを前記タッチパネルディスプレイに表示する手段と、
前記アイコンのシーケンスを所定の言語の完全型の文に翻訳する翻訳手段と、を含むテキスト入力装置。 A text input device used in connection with a touch panel display,
Means connected to the touch panel display and displaying a set of icons on the touch panel display;
Input receiving means connected to the touch panel display and receiving an input of one or more sequences of the icons displayed on the touch panel display by a user;
Means for displaying on the touch panel display a sequence of icons connected to the touch panel display and input by the user using the input receiving means;
Translation means for translating the sequence of icons into a complete sentence in a predetermined language.
前記記憶手段及び前記入力受信手段に接続され、前記アイコンの各々について前記記憶手段から抽出されたフレーズを連結することにより外部言語のテキストを生成する手段とをさらに含み、
前記翻訳手段は、文の対のコーパスで前記外部言語のテキストを前記所定の言語の文に翻訳するように統計的にトレーニングされたフレーズベースの統計的機械翻訳ユニットを含み、前記対の各々は、前記所定言語の第1の語彙内の語を含むフレーズのシーケンスと、前記第1の語彙より大きい第2の語彙内の語を含む前記所定言語の文と、を含む、請求項1又は請求項2に記載のテキスト入力装置。 Storage means for storing phrases of the predetermined language, each of which is associated with the icon;
Means for connecting to said storage means and said input receiving means, and for generating a text in an external language by concatenating phrases extracted from said storage means for each of said icons;
The translation means includes a phrase-based statistical machine translation unit that is statistically trained to translate the text in the external language into a sentence in the predetermined language in a corpus of sentence pairs, each of the pairs A sequence of phrases including words in a first vocabulary of the predetermined language and a sentence of the predetermined language including words in a second vocabulary greater than the first vocabulary. Item 3. The text input device according to Item 2.
前記文は、前記探索グラフにおいて最も尤度の高いな経路に対応する仮説である、請求項3又は請求項4に記載のテキスト入力装置。 The statistical machine translation unit outputs a search graph that represents the bilingual phrase pairs used to build the sentence hypothesis along with the model probabilities associated with adding these phrase pairs to the end of the preceding partial hypothesis Is what
The text input device according to claim 3 or 4, wherein the sentence is a hypothesis corresponding to a route having the highest likelihood in the search graph.
前記ユーザの選択に応答して、前記探索グラフの前記ユーザによって選択された前記アイコンに対応するノードまでの部分から引出された複数個の部分仮説を示す手段と、をさらに含む、請求項5に記載のテキスト入力装置。 Means for receiving selection by one user of the icons in the icon sequence;
Means for indicating a plurality of partial hypotheses drawn from a portion of the search graph up to a node corresponding to the icon selected by the user in response to the user selection. The text input device described.
前記テキスト入力装置によって出力される前記文をターゲット言語の翻訳文に翻訳する統計的機械翻訳装置と、
前記翻訳文を前記タッチパネルディスプレイに表示する手段と、を含む、翻訳装置。 A text input device according to any one of claims 1 to 6,
A statistical machine translation device that translates the sentence output by the text input device into a translation in a target language;
Means for displaying the translated sentence on the touch panel display.
前記予め規定されたコマンドに応答して前記翻訳文を前記所定言語に逆翻訳し、前記逆翻訳された文を前記タッチパネルディスプレイに表示する手段と、をさらに含む、請求項7に記載の翻訳装置。 Means for receiving a predefined command from the touch panel display;
The translation device according to claim 7, further comprising means for reverse-translating the translated sentence into the predetermined language in response to the predetermined command and displaying the reverse-translated sentence on the touch panel display. .
前記タッチパネルディスプレイにアイコンの組を表示するステップと、
ユーザによる、前記タッチパネルディスプレイに表示された前記アイコンの1つまたは2つ以上のシーケンスの入力を受けるステップと、
前記受けるステップで入力されたアイコンのシーケンスを前記タッチパネルディスプレイに表示するステップと、
前記アイコンのシーケンスを所定の言語の完全型の文に翻訳するステップと、を含む、テキスト入力方法。 A method of entering text related to a touch panel display,
Displaying a set of icons on the touch panel display;
Receiving a user input of one or more sequences of the icons displayed on the touch panel display;
Displaying a sequence of icons input in the receiving step on the touch panel display;
Translating the sequence of icons into a complete sentence in a predetermined language.
前記タッチパネルディスプレイに接続され、前記タッチパネルディスプレイにアイコンの組を表示する手段と、
前記タッチパネルディスプレイに接続され、ユーザによる前記タッチパネルディスプレイに表示された前記アイコンの1つ又は2つ以上のシーケンスの入力を受ける入力受信手段と、
前記タッチパネルディスプレイに接続され、前記入力受信手段を用いて前記ユーザによって入力されたアイコンのシーケンスを前記タッチパネルディスプレイに表示する手段と、
前記アイコンのシーケンスを所定の言語の完全型の文に翻訳する翻訳手段、として機能させる、コンピュータプログラム。 A computer program comprising a touch panel display,
Means connected to the touch panel display and displaying a set of icons on the touch panel display;
Input receiving means connected to the touch panel display and receiving an input of one or more sequences of the icons displayed on the touch panel display by a user;
Means for displaying on the touch panel display a sequence of icons connected to the touch panel display and input by the user using the input receiving means;
A computer program that functions as translation means for translating the sequence of icons into a complete sentence in a predetermined language.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011024518A JP5652824B2 (en) | 2011-02-08 | 2011-02-08 | Text input device, translation device including the same, text input method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011024518A JP5652824B2 (en) | 2011-02-08 | 2011-02-08 | Text input device, translation device including the same, text input method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012164172A true JP2012164172A (en) | 2012-08-30 |
JP5652824B2 JP5652824B2 (en) | 2015-01-14 |
Family
ID=46843497
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011024518A Expired - Fee Related JP5652824B2 (en) | 2011-02-08 | 2011-02-08 | Text input device, translation device including the same, text input method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5652824B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014071897A (en) * | 2012-09-28 | 2014-04-21 | Dassault Systemes Simulia Corp | Touch-enabled complex data entry |
CN111798190A (en) * | 2019-04-03 | 2020-10-20 | 阿里巴巴集团控股有限公司 | Method and system for processing translation case |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102592585B1 (en) | 2019-02-01 | 2023-10-23 | 한국전자통신연구원 | Method and apparatus for building a translation model |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244291A (en) * | 2009-04-06 | 2010-10-28 | Sammy Networks Co Ltd | Sentence transformation system, sentence transformation method, and program |
-
2011
- 2011-02-08 JP JP2011024518A patent/JP5652824B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010244291A (en) * | 2009-04-06 | 2010-10-28 | Sammy Networks Co Ltd | Sentence transformation system, sentence transformation method, and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014071897A (en) * | 2012-09-28 | 2014-04-21 | Dassault Systemes Simulia Corp | Touch-enabled complex data entry |
CN111798190A (en) * | 2019-04-03 | 2020-10-20 | 阿里巴巴集团控股有限公司 | Method and system for processing translation case |
CN111798190B (en) * | 2019-04-03 | 2024-01-23 | 阿里巴巴集团控股有限公司 | Method and system for processing translation document |
Also Published As
Publication number | Publication date |
---|---|
JP5652824B2 (en) | 2015-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Setlur et al. | Eviza: A natural language interface for visual analysis | |
US9047274B2 (en) | Machine translation-driven authoring system and method | |
US9053098B2 (en) | Insertion of translation in displayed text consisting of grammatical variations pertaining to gender, number and tense | |
Hutchins | Machine translation: A concise history | |
US8903707B2 (en) | Predicting pronouns of dropped pronoun style languages for natural language translation | |
JP5280642B2 (en) | Translation system, translation program, and parallel translation data generation method | |
JP2016218995A (en) | Machine translation method, machine translation system and program | |
WO2010046782A2 (en) | Hybrid machine translation | |
US11853689B1 (en) | Computer-implemented presentation of synonyms based on syntactic dependency | |
Almasoud et al. | A proposed semantic machine translation system for translating Arabic text to Arabic sign language | |
Prabhakar et al. | Machine transliteration and transliterated text retrieval: a survey | |
Kang | Spoken language to sign language translation system based on HamNoSys | |
Lyons | A review of Thai–English machine translation | |
JP5652824B2 (en) | Text input device, translation device including the same, text input method, and computer program | |
Shahnawaz et al. | Statistical machine translation system for English to Urdu | |
CN110888940A (en) | Text information extraction method and device, computer equipment and storage medium | |
Johansen et al. | Augmentative and alternative communication: the future of text on the move | |
Huang et al. | A computer-assisted translation and writing system | |
Song et al. | picoTrans: an icon-driven user interface for machine translation on mobile devices | |
Song et al. | picoTrans: An intelligent icon-driven interface for cross-lingual communication | |
Singh et al. | Intelligent English to Hindi Language Model Using Translation Memory | |
JP2003178087A (en) | Retrieval device and method for electronic foreign language dictionary | |
Imoto et al. | A multi modal supporting tool for multi lingual communication by inducing partner's reply | |
Finch¹ et al. | Source language generation from pictures for machine translation on mobile devices | |
Finch et al. | Speaking louder than words with pictures across languages |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140530 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140603 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140711 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141014 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141112 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5652824 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |