JP2006302091A - Translation device and program thereof - Google Patents
Translation device and program thereof Download PDFInfo
- Publication number
- JP2006302091A JP2006302091A JP2005124949A JP2005124949A JP2006302091A JP 2006302091 A JP2006302091 A JP 2006302091A JP 2005124949 A JP2005124949 A JP 2005124949A JP 2005124949 A JP2005124949 A JP 2005124949A JP 2006302091 A JP2006302091 A JP 2006302091A
- Authority
- JP
- Japan
- Prior art keywords
- language
- type
- character
- data
- translation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は翻訳装置及びそのプログラムに係り、特に、翻訳対象の言語種を特定することによって多国語辞書から適切な辞書を選択し翻訳する翻訳装置及びそのプログラムに関する。 The present invention relates to a translation apparatus and a program thereof, and more particularly, to a translation apparatus and a program thereof that select and translate an appropriate dictionary from a multilingual dictionary by specifying a language type to be translated.
従来から、所定の言語から所定の言語に自動翻訳を行う翻訳装置が知られている。翻訳装置は2ヶ国語翻訳が一般的である。キーボードやスキャナから入力された文字列や文章を単語単位に識別し、単語毎に翻訳エンジン内に記憶された辞書を参照し所定の言語への対訳を行う。 2. Description of the Related Art Conventionally, translation apparatuses that perform automatic translation from a predetermined language to a predetermined language are known. A bilingual translation is generally used for the translation device. Character strings and sentences input from a keyboard or scanner are identified in units of words, and each word is translated into a predetermined language with reference to a dictionary stored in the translation engine.
また、翻訳装置では多言語から目的言語に翻訳を行う多言語翻訳装置もある。多言語翻訳装置は、その機能的構成として2つのタイプに大別することができる。一方は、翻訳の対象となる言語の言語種に対応する辞書が上記2ヶ国語翻訳装置と同様に装置に記憶されており、この言語種をユーザが選択(即ち、ユーザが翻訳対象となる言語の言語種を知っている。)して目的言語に翻訳を行うタイプである。他方は、装置自身が翻訳の対象となる言語の言語種を自動判別し、この判別により特定された言語種に対応する辞書を参照して目的言語に翻訳を行うタイプである。前者は、上記2ヶ国語翻訳装置の応用である。後者のタイプはユーザが翻訳対象の言語が何語であるかが不明なときに便利なものである。例えば、特許文献1には、入力された文字列を翻訳に対応する複数の辞書で翻訳を行いその翻訳結果が正しいかを判定する言語判定部を備え、その判定結果により目的言語に翻訳を行う多言語翻訳システムが開示されている。特許文献2には、入力された文字列を翻訳に対応する全ての辞書で検索を行い、検出された場合にこの辞書の言語種で翻訳を行う文書検索装置が開示されている。
There is also a multilingual translation device that translates from multiple languages to a target language. Multilingual translation devices can be roughly divided into two types as functional configurations. On the other hand, a dictionary corresponding to the language type of the language to be translated is stored in the device in the same manner as the bilingual translation device, and the language type is selected by the user (ie, the language to be translated by the user). This is the type that translates into the target language. The other is a type in which the apparatus itself automatically determines the language type of the language to be translated, and translates it into the target language by referring to a dictionary corresponding to the language type specified by this determination. The former is an application of the bilingual translation device. The latter type is useful when the user is not sure what language the language to be translated is. For example,
また、翻訳装置の外観的な構成としては種々のものが知られている。ワークステーション、パーソナルコンピュータ等を始め、小型電子辞書やPDA(Personal Digital Assistant)等の小型携行型端末等まである。その中でも小型携行型の端末は、場所を選ばずに使用することができるため、出先での翻訳や辞書としての活用ができ、特に海外旅行等では大いに利用されている。例えば、小型携行型端末として、特許文献3では、小型カメラで撮像した映像データに画像処理を施し映像データ中に含まれる文字列を抽出して文字認識を行い、辞書機能を搭載して翻訳を行うヘッドマウントディスプレイが開示されている。
しかしながら、言語によっては同一の文字種及び綴りで複数の言語種に該当する単語もある。図14に世界各国で使用される文字の概要を示す。特にラテン文字、アラビア文字及びキリル文字を使用する国や地域は多く文字種のみから翻訳対象の言語種を特定することはできない場合が多い。また同一文字種を使用する言語間では単語の綴りが似ているあるいは全く同じという場合が少なからずある。例えば、「memoria」という単語は、イタリア語とスペイン語の両方に存在する。「intention」はという単語は、英語とフランス語の両方に存在する。「marine」という単語はドイツ語とフランス語に存在する。 However, some languages have the same character type and spelling and correspond to a plurality of language types. FIG. 14 shows an outline of characters used in various countries around the world. In particular, there are many countries and regions that use Latin characters, Arabic characters, and Cyrillic characters, and it is often impossible to specify the language type to be translated from only the character types. In addition, there are many cases where the spelling of words is similar or exactly the same between languages using the same character type. For example, the word “memory” exists in both Italian and Spanish. The word “intention” is present in both English and French. The word “marine” is present in German and French.
このような場合、翻訳装置は何れの言語種であるかの判断がつかず該当するいずれかの言語種で翻訳を行うか、未翻訳語として翻訳の中に原文のまま挿入するかあるいは翻訳を行わない場合がある。 In such a case, the translation device cannot determine which language type it is, and performs translation in any applicable language type, or inserts the original text into the translation as an untranslated word or performs translation. May not be done.
本発明の目的は、入力された文字列の言語種を的確に識別し、その識別された言語種の辞書を参照して多言語翻訳を行うことにある。 An object of the present invention is to accurately identify the language type of an input character string and perform multilingual translation by referring to the dictionary of the identified language type.
上記課題を解決するために、請求項1に記載の発明は、対象物を撮像する撮像手段と、該撮像手段から取得した映像データに含まれる文字列を検出する文字列検出手段と、該文字列検出手段が検出した文字列の文字種と、該文字種を使用する言語種とに対応する言語辞書を参照し特定の言語に翻訳する翻訳手段と、前記翻訳手段が翻訳した訳語を表示する表示手段を備えた翻訳装置において、
前記文字列検出手段が検出した文字列から単語を抽出する単語抽出手段と、
前記翻訳手段が翻訳の対象とする言語種毎の単語データを記憶した記憶手段と、
前記抽出手段が抽出した単語と前記記憶手段に記憶された単語データとを参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う制御手段を備えることを特徴とする。
In order to solve the above-mentioned problem, the invention described in
Word extraction means for extracting a word from the character string detected by the character string detection means;
Storage means for storing word data for each language type to be translated by the translation means;
And a control unit that refers to the word extracted by the extraction unit and the word data stored in the storage unit, and prioritizes and specifies the language type of the character string included in the video data. To do.
請求項2に記載の発明は、請求項1に記載の翻訳装置において、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出手段を更に備え、
前記記憶手段は、前記翻訳手段が翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶し、
前記制御手段は、前記文字種抽出手段が抽出した文字種データと前記記憶手段に記憶された文字種データ及び正書規則データとを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
The invention according to
A character type extracting means for extracting a character type of a character string included in the video data;
The storage means further stores character type data and correct text rule data for each language type to be translated by the translation means,
The control means further refers to the character type data extracted by the character type extraction means, the character type data and the orthography rule data stored in the storage means, and sets the priority order to the language type of the character string included in the video data. It is characterized by attaching.
請求項3に記載の発明は、請求項1又は2に記載の翻訳装置において、
GPS信号を受信し前記翻訳装置の位置情報を取得する位置検出手段と、
前記位置情報に対応付けられた言語種データを記憶する記憶手段と、
前記位置情報と前記言語種データとを更に参照して前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う制御手段を備えることを特徴とする。
The invention according to
Position detecting means for receiving a GPS signal and acquiring position information of the translation device;
Storage means for storing language type data associated with the position information;
It further comprises control means for further specifying the language type of the character string included in the video data with priority by further referring to the position information and the language type data.
請求項4に記載の発明は、対象物を撮像する撮像手段と、該撮像手段から取得した映像データに含まれる文字列を検出する文字列検出手段と、該文字列検出手段が検出した文字列の文字種と、該文字種を使用する言語種とに対応する言語辞書を参照して特定の言語に翻訳する翻訳手段と、前記翻訳手段が翻訳した訳語を表示する表示手段を備えた翻訳装置において、
GPS信号を受信し前記翻訳装置の位置情報を取得する位置検出手段と、
前記位置情報に対応付けられた言語種データを記憶する記憶手段と、
前記位置情報と前記言語種データとを参照して前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
According to a fourth aspect of the present invention, there is provided an image pickup means for picking up an object, a character string detection means for detecting a character string included in video data acquired from the image pickup means, and a character string detected by the character string detection means. A translation device comprising a translation means for translating into a specific language with reference to a language dictionary corresponding to a character type of the character type and a language type using the character type, and a display means for displaying a translated word translated by the translation means,
Position detecting means for receiving a GPS signal and acquiring position information of the translation device;
Storage means for storing language type data associated with the position information;
Referring to the position information and the language type data, the language type of the character string included in the video data is specified with a priority and specified.
請求項5に記載の発明は、請求項4に記載の翻訳装置において、
前記文字列検出手段が検出した文字列から単語を抽出する単語抽出手段を更に備え、
前記記憶手段は前記翻訳手段が翻訳の対象とする言語種毎の単語データを更に記憶し、
前記制御手段は、前記単語抽出手段が抽出した単語と前記単語データを更に参照して前記入力データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
The invention according to claim 5 is the translation device according to
A word extracting means for extracting a word from the character string detected by the character string detecting means;
The storage means further stores word data for each language type to be translated by the translation means,
The control means further specifies the language type of the character string included in the input data by specifying the priority by further referring to the word extracted by the word extraction means and the word data.
請求項6に記載の発明は、請求項4に記載の翻訳装置において、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出手段を更に備え、
前記記憶手段は、前記翻訳手段が翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶し、
前記制御手段は、前記文字種抽出手段が抽出した文字種データと前記記憶手段に記憶された文字種データ及び正書規則データを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
The invention according to
A character type extracting means for extracting a character type of a character string included in the video data;
The storage means further stores character type data and correct text rule data for each language type to be translated by the translation means,
The control unit further refers to the character type data extracted by the character type extraction unit, the character type data and the normal rule data stored in the storage unit, and prioritizes the language type of the character string included in the video data. It is characterized by performing identification.
請求項7に記載の発明は、対象物を撮像する撮像手段と、該撮像手段から取得した映像データに含まれる文字列を検出する文字列検出手段と、該文字列検出手段が検出した文字列の文字種と、該文字種を使用する言語種に対応する言語辞書を参照して特定の言語に翻訳する翻訳手段と、前記翻訳手段が翻訳した訳語を表示する表示手段を備えた翻訳装置において、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出手段と、
前記翻訳手段の翻訳に対応する複数の言語種の文字種データ及び正書規則データを記憶した記憶手段と、
前記文字種抽出手段が抽出した文字種データと前記記憶手段に記憶された複数の言語種の文字種データ及び正書規則データを参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う制御手段を備えることを特徴とする。
The invention according to
Character type extracting means for extracting a character type of a character string included in the video data;
Storage means for storing character type data and orthographic rule data of a plurality of language types corresponding to the translation of the translation means;
Referring to the character type data extracted by the character type extraction unit and the character type data and normal rule data of a plurality of language types stored in the storage unit, priorities are assigned to the language types of the character strings included in the video data. Control means for performing identification is provided.
請求項8に記載の発明は、請求項1〜7のいずれか一項に記載の翻訳装置において、
前記翻訳手段は、前記制御手段により特定された言語種の優先順位に基づいて該言語種の言語辞書を参照して特定の言語に翻訳を行うことを特徴とする。
The invention according to claim 8 is the translation device according to any one of
The translating means translates into a specific language by referring to the language dictionary of the language type based on the priority order of the language type specified by the control means.
請求項9に記載の発明は、請求項1〜8のいずれか一項に記載の翻訳装置において、
前記言語辞書は、前記翻訳手段により特定の言語に翻訳された訳語に対応する音声データを更に記憶し、
前記翻訳手段が翻訳を行った訳語に対応する音声データから音声を生成し出力する音声出力手段を更に備えることを特徴とする。
Invention of Claim 9 is the translation apparatus as described in any one of Claims 1-8,
The language dictionary further stores voice data corresponding to the translated words translated into a specific language by the translation means,
It further includes voice output means for generating and outputting voice from voice data corresponding to the translated word translated by the translation means.
請求項10に記載の発明は、請求項1〜9のいずれか一項に記載の翻訳装置において、
前記制御手段により優先順位付けされた言語種の中から翻訳を行う言語種を使用者の操作により指定可能とする指定手段を更に備え、
前記翻訳手段は、前記指定手段により指定された言語種に対応する言語辞書のみを参照して翻訳を行うことを特徴とする。
The invention according to
Further comprising a specifying unit that allows a user to specify a language type for translation from among the language types prioritized by the control unit;
The translating means translates only with reference to a language dictionary corresponding to the language type designated by the designation means.
請求項11に記載の発明は、請求項1〜10のいずれか一項に記載の翻訳装置において、
前記翻訳手段が翻訳の対象とした言語種の履歴を記憶する履歴記憶手段を更に備え、
前記制御手段は、前記履歴記憶手段による言語種の履歴を更に参照して前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
Invention of
The translation means further comprises a history storage means for storing a history of language types to be translated,
The control means further refers to the history of the language type stored in the history storage means and assigns a priority order to the language type of the character string included in the video data, and performs identification.
請求項12に記載の発明は、請求項11に記載の翻訳装置において、
現在時刻の情報を出力する時計手段を更に備え、
前記記憶手段は、所定時刻と対応付けがなされ、前記翻訳手段で翻訳の対象とする言語種に関連する関連情報を更に記憶し、
前記制御手段は、前記現在時刻の情報に基づいて、前記履歴記憶手段に記憶された言語種の履歴に応じて対応する前記関連情報を前記表示手段に表示することを特徴とする。
The invention according to
It further comprises clock means for outputting current time information,
The storage means is associated with a predetermined time, and further stores related information related to a language type to be translated by the translation means,
The control means displays the related information corresponding to the history of the language type stored in the history storage means on the display means based on the information on the current time.
請求項13に記載の発明は、請求項1〜12のいずれか一項に記載の翻訳装置において、
前記表示手段はヘッドマウントディスプレイであることを特徴とする。
The invention according to
The display means is a head mounted display.
請求項14に記載の発明は、請求項13に記載の翻訳装置において、
前記ヘッドマウントディスプレイは外界光透過型であることを特徴とする。
The invention according to
The head mounted display is an external light transmissive type.
請求項15に記載の発明は、請求項14に記載の翻訳装置において、
前記ヘッドマウントディスプレイは、映像信号から映像を生成して投射する映像表示器と、
前記映像表示器から投射された映像を採光して内部に導光するプリズムと
前記プリズムが導光した映像を回折しホログラム映像を瞳に導く回折フィルムとからなることを特徴とする。
The invention according to
The head mounted display includes a video display for generating and projecting video from a video signal;
The image display device includes a prism for collecting and guiding an image projected from the image display device, and a diffraction film for diffracting an image guided by the prism and guiding a hologram image to a pupil.
請求項16に記載の発明は、対象物を撮像する撮像手段から取得した映像データに含まれる文字列を検出し、該文字列の文字種と、該文字種を使用する言語種とに対応する言語辞書を参照して特定の言語に翻訳処理を行うコンピュータに、
前記文字列から単語を抽出する単語抽出機能と、
翻訳の対象とする言語種毎の単語データを記憶する記憶機能と、
前記単語抽出機能によって抽出された単語と前記言語種毎の単語データとを参照し前記文字列の言語種に優先順位をつけて特定を行う言語種特定機能を実現することを特徴とするプログラムである。
The invention according to
A word extraction function for extracting words from the character string;
A storage function for storing word data for each language type to be translated;
A program that realizes a language type specifying function that refers to the word extracted by the word extracting function and the word data for each language type and specifies the language type of the character string with priority. is there.
請求項17に記載の発明は、請求項16に記載のプログラムにおいて、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出機能を更に実現し、
前記記憶機能で、翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶し、
前記言語種特定機能で、前記文字種抽出機能により抽出した文字種データと前記言語種毎の文字種データ及び正書規則データを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
The invention according to
Further realizing a character type extraction function for extracting a character type of a character string included in the video data,
In the storage function, further storing character type data and correct rule data for each language type to be translated,
The language type specifying function further refers to the character type data extracted by the character type extraction function, the character type data for each language type, and the orthography rule data, and prioritizes the language types of the character strings included in the video data. It is characterized by performing identification.
請求項18に記載の発明は、請求項16又17に記載のプログラムにおいて、
GPS信号を受信し位置情報を取得する位置検出機能を更に実現し、
前記記憶機能で、前記位置情報に対応付けられた言語種データを更に記憶し、
前記言語種特定機能で、前記位置情報と前記言語種データとを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
The invention according to
Further realizing a position detection function for receiving GPS signals and acquiring position information,
The storage function further stores language type data associated with the position information,
The language type specifying function further refers to the position information and the language type data, and specifies the language type of the character string included in the video data with priority.
請求項19に記載の発明は、対象物を撮像する撮像手段から取得した映像データに含まれる文字列を検出し、該文字列の文字種と、該文字種を使用する言語種とに対応する言語辞書を参照して特定の言語に翻訳処理を行うコンピュータに、
GPS信号を受信し位置情報を取得する位置検出機能と、
前記位置情報に対応付けられた言語種データを記憶する記憶機能と、
前記位置情報と前記言語種データとを参照して前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う言語種特定機能を実現することを特徴とするプログラムである。
According to a nineteenth aspect of the present invention, there is provided a language dictionary that detects a character string included in video data acquired from an imaging unit that images an object, and corresponds to a character type of the character string and a language type using the character type To a computer that translates into a specific language with reference to
A position detection function for receiving GPS signals and acquiring position information;
A storage function for storing language type data associated with the position information;
A program that realizes a language type specifying function that specifies a language type of a character string included in the video data with priority by referring to the position information and the language type data.
請求項20に記載の発明は、請求項19に記載のプログラムにおいて、
前記映像データに含まれる文字列から単語を抽出する単語抽出機能を更に実現し、
前記記憶機能で、翻訳の対象とする言語種毎の単語データを更に記憶し、
前記言語種特定機能で、前記単語抽出機能により抽出した単語と前記言語種毎の単語データを更に参照して前記入力データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
The invention according to
Further realizing a word extraction function for extracting words from a character string included in the video data,
The memory function further stores word data for each language type to be translated,
In the language type specifying function, the word type of the character string included in the input data is prioritized and specified by further referring to the word extracted by the word extraction function and the word data for each language type. Features.
請求項21に記載の発明は、請求項19に記載のプログラムにおいて、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出機能を更に実現し、
前記記憶機能で、翻訳を可能とする複数の言語種の文字種データ及び正書規則データを更に記憶し、
前記言語特定機能で、前記文字種抽出機能により抽出した文字種データと前記言語種毎の文字種データ及び正書規則データを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
The invention according to
Further realizing a character type extraction function for extracting a character type of a character string included in the video data,
The memory function further stores character type data and orthographic rule data of a plurality of language types that enable translation,
The language specifying function further refers to the character type data extracted by the character type extraction function, the character type data for each language type, and the correct text rule data, and prioritizes the language type of the character string included in the video data. It is characterized by performing identification.
請求項22に記載の発明は、対象物を撮像する撮像手段から取得した映像データに含まれる文字列を検出し、該文字列の言語種と対応する言語辞書を参照して特定の言語に翻訳処理するコンピュータに、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出機能と、
翻訳の対象とする言語種毎の文字種データ及び正書規則データを記憶する記憶機能と、
前記文字種抽出機能が抽出した文字種データと前記複数の言語種の文字種データ及び正書規則データを参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う言語種特定機能を実現することを特徴とするプログラムである。
According to a twenty-second aspect of the present invention, a character string included in video data acquired from an imaging unit that captures an object is detected and translated into a specific language by referring to a language dictionary corresponding to the language type of the character string. On the computer to process
A character type extraction function for extracting a character type of a character string included in the video data;
A storage function for storing character type data and orthographic rule data for each language type to be translated;
Language type specification for specifying and specifying the priority of the language type of the character string included in the video data with reference to the character type data extracted by the character type extraction function, the character type data of the plurality of language types, and the orthographic rule data It is a program characterized by realizing a function.
請求項23に記載の発明は、請求項16〜22のいずれか一項に記載のプログラムにおいて、
前記言語特定機能により特定された複数の言語種の優先順位に基づいて該言語種の言語辞書を参照して前記映像データに含まれる文字列を特定の言語に翻訳する翻訳機能を実現する事を特徴とする。
The invention according to claim 23 is the program according to any one of
Realizing a translation function for translating a character string included in the video data into a specific language by referring to the language dictionary of the language type based on the priority order of the plurality of language types specified by the language specifying function. Features.
請求項24に記載の発明は、請求項16〜23のいずれか一項に記載のプログラムにおいて、
前記言語種特定機能により特定した言語種の履歴を記憶する履歴記憶機能を更に実現し、
前記言語種特定機能で、前記履歴記憶機能による言語種の履歴を更に参照し、履歴が最新の言語種に基づいて前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
The invention according to claim 24 is the program according to any one of
Further realizing a history storage function for storing a history of the language type specified by the language type specifying function,
The language type specifying function further refers to the history of the language type by the history storage function and specifies the language type of the character string included in the video data based on the language type with the latest history. It is characterized by that.
請求項25に記載の発明は、請求項24に記載のプログラムにおいて、
前記記憶機能で、所定時刻と対応付けがなされ、翻訳処理の対象とする言語種に関連する関連情報を更に記憶し、
現在時刻の情報を出力する時計機能と、
前記時計機能による現在時刻の情報に基づいて、前記履歴記憶機能に記憶された言語種の履歴が最新の言語種に応じて前記関連情報を前記表示手段に表示させる表示機能を更に実現することを特徴とする。
The invention according to
The storage function is associated with a predetermined time, and further stores related information related to the language type to be translated,
A clock function that outputs current time information,
Further realizing a display function for displaying the related information on the display unit according to the latest language type of the language type history stored in the history storage function based on the current time information by the clock function. Features.
請求項1に記載の発明によれば、翻訳装置が翻訳を行うに際し、単語抽出手段が文字列から単語を抽出し、この抽出した単語と記憶手段に記憶した言語種毎の単語データとを参照することにより撮像手段から取得した映像データに含まれる文字列の言語種を特定することができる。多言語翻訳では、文字種のみでは翻訳対象物の言語種を特定できない場合が多い。本発明では、更に単語と単語データの比較により言語種の特定を行うことで言語種の特定を行うことができる。また、言語種によっては同一の文字種及び同一の綴りを有する単語が存在することもあり言語種の特定に際し、翻訳対象物によっては複数の言語種が該当する場合もある。この点、本発明では制御手段が該当する言語種に優先順位を付けて特定を行うため、精度の高い言語種特定ができる。 According to the first aspect of the present invention, when the translation apparatus performs translation, the word extraction unit extracts a word from the character string, and refers to the extracted word and the word data for each language type stored in the storage unit. By doing so, the language type of the character string included in the video data acquired from the imaging means can be specified. In multilingual translation, there are many cases where the language type of the translation object cannot be specified only by the character type. In the present invention, the language type can be specified by further specifying the language type by comparing the word and the word data. Further, depending on the language type, there may be words having the same character type and the same spelling, and when specifying the language type, a plurality of language types may correspond depending on the translation object. In this regard, according to the present invention, the control means assigns a priority to the corresponding language type and specifies the language type, so that the language type can be specified with high accuracy.
請求項2に記載の発明によれば、請求項1に記載の翻訳装置において、更に映像データに含まれる文字列の文字種を抽出する文字抽出手段を備え、記憶手段に翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶するため、制御手段における言語種の特定の判断に単語、文字種及び正書規則を利用することができ、更に精度の高い多言語翻訳を行うことができる。また、言語種の特定に際し複数の言語種が該当する場合には、該当する言語種に優先順位を付けて特定を行う。即ち、上記3つの判断基準を満たす順に言語種の優先順位付けを行う。このためより精度の高い言語種特定ができる。 According to the second aspect of the present invention, the translation device according to the first aspect further comprises character extraction means for extracting the character type of the character string included in the video data, and the storage means includes the language type to be translated. Since the character type data and the correct text rule data for each are further stored, the word, the character type, and the correct text rule can be used for the specific determination of the language type in the control means, and more accurate multilingual translation can be performed. it can. In addition, when a plurality of language types correspond to the specification of the language type, the priority is given to the corresponding language type and specified. That is, prioritization of language types is performed in the order satisfying the above three criteria. Therefore, it is possible to specify a language type with higher accuracy.
請求項3に記載の発明によれば、請求項1又は2に記載の翻訳装置において、
更にGPS信号を受信し前記翻訳装置の位置情報を取得する位置検出手段を更に備え、この位置情報に対応付けられた言語種データを更に記憶手段に記憶するため、制御手段における言語種の特定の判断に単語、文字種、正書規則及び位置情報を利用することができ、更に精度の高い多言語翻訳を行うことができる。また、言語種の特定に際し複数の言語種が該当する場合には、該当する言語種に優先順位を付けて特定を行う。即ち、上記4つの判断基準を満たす順に言語種の優先順位付けを行う。このためより精度の高い多言語翻訳ができる。
According to invention of
Further, a position detecting means for receiving the GPS signal and acquiring the position information of the translation device is further provided, and the language type data associated with the position information is further stored in the storage means. Words, character types, orthographic rules, and position information can be used for determination, and more accurate multilingual translation can be performed. In addition, when a plurality of language types correspond to the specification of the language type, the priority is given to the corresponding language type and specified. That is, prioritization of language types is performed in the order satisfying the above four criteria. Therefore, multilingual translation with higher accuracy can be performed.
請求項4に記載の発明によれば、翻訳装置が翻訳を行うに際し、位置情報検出手段から翻訳装置の位置を特定し、この位置情報に対応付けられた言語種データを参照すことにより撮像手段から取得した映像データに含まれる文字列の言語種を特定することができる。
また、文字種が同一であって言語種が異なる場合もある。本発明では、位置情報とこの位置情報に対応付けられた言語種データとの比較により言語種の特定を行うことができる。
According to the invention described in
In addition, the character type may be the same and the language type may be different. In the present invention, the language type can be specified by comparing the position information with the language type data associated with the position information.
請求項5に記載の発明によれば、請求項4に記載の翻訳装置において、更に映像データに含まれる文字列の単語を抽出する単語抽出手段を備え、記憶手段に翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶するため、記憶手段に制御手段における言語種の特定の判断に単語及び位置情報を利用することができ、更に精度の高い多言語翻訳を行うことができる。また、言語種の特定に際し複数の言語種が該当する場合には、該当する言語種に優先順位を付けて特定を行う。即ち、上記2つの判断基準を満たす順に言語種の優先順位付けを行う。このためより精度の高い言語種特定ができる。 According to a fifth aspect of the present invention, the translation device according to the fourth aspect further comprises a word extracting means for extracting a word of a character string included in the video data, and a language type to be translated in the storage means. In order to further store the character type data and the orthographic rule data for each word, the storage unit can use the word and position information for specific determination of the language type in the control unit, and can perform multilingual translation with higher accuracy. it can. In addition, when a plurality of language types correspond to the specification of the language type, the priority is given to the corresponding language type and specified. That is, prioritization of language types is performed in the order satisfying the above two criteria. Therefore, it is possible to specify a language type with higher accuracy.
請求項6に記載の発明によれば、請求項4に記載の翻訳装置において、更に映像データに含まれる文字列の文字種を抽出する文字種抽出手段を備え、記憶手段に翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶するため、制御手段における言語種の特定の判断に位置情報、文字種及び正書規則を利用することができ、更に精度の高い多言語翻訳を行うことができる。また、言語種の特定に際し複数の言語種が該当する場合には、該当する言語種に優先順位を付けて特定を行う。即ち、上記3つの判断基準を満たす順に言語種の優先順位付けを行う。このためより精度の高い言語種特定ができる。 According to a sixth aspect of the present invention, in the translation device according to the fourth aspect, the character type extracting means for extracting the character type of the character string included in the video data is further provided, and the language type to be translated is stored in the storage means. Since each character type data and correct text rule data is further stored, position information, character type and correct text rules can be used for specific judgment of the language type in the control means, and more accurate multilingual translation can be performed. Can do. In addition, when a plurality of language types correspond to the specification of the language type, the priority is given to the corresponding language type and specified. That is, prioritization of language types is performed in the order satisfying the above three criteria. Therefore, it is possible to specify a language type with higher accuracy.
請求項7に記載の発明によれば、翻訳装置が翻訳を行うに際し、文字種抽出手段が文字列の文字種を抽出し、この抽出した文字種と記憶手段に記憶した言語種毎の文字種データ及び正書規則データを参照することにより撮像手段から取得した映像データに含まれる文字列の文字種を特定することができる。
また、文字種が同一で言語種が異なる場合もある。本発明では、文字種と正書規則データの比較により言語種の特定を行うことで言語種の特定を行うことができる。また、言語種の特定に際し、翻訳対象物によっては複数の言語種が該当する場合もある。この点、本発明では制御手段が該当する言語種に優先順位を付けて特定を行うため、精度の高い言語種特定ができる。
According to the seventh aspect of the present invention, when the translation device performs translation, the character type extracting unit extracts the character type of the character string, and the extracted character type and the character type data for each language type stored in the storage unit and the correct text By referring to the rule data, the character type of the character string included in the video data acquired from the imaging means can be specified.
In addition, the character type may be the same and the language type may be different. In the present invention, the language type can be specified by specifying the language type by comparing the character type and the correct text rule data. In addition, when specifying a language type, a plurality of language types may correspond depending on the translation object. In this regard, according to the present invention, the control means assigns a priority to the corresponding language type and specifies the language type, so that the language type can be specified with high accuracy.
請求項8に記載の発明によれば、請求項1〜7のいずれか一項に記載の翻訳装置において、文字列の翻訳に際し、制御手段により特定された言語種の優先順位に基づいて翻訳手段がこれら言語種の言語辞書を参照して翻訳を行うことができる。
言語種によっては同一の文字種及び同一の綴りを有する単語が存在することもあり翻訳対象物によっては複数の言語種が該当する場合もある。この点、本発明では制御手段により言語種に優先順位を付け、翻訳手段がこの優先順位に基づいて言語辞書を参照して翻訳を行うため、精度の高い多国語翻訳ができる。
According to invention of Claim 8, in the translation apparatus as described in any one of Claims 1-7, in the case of translation of a character string, a translation means based on the priority of the language kind specified by the control means Can translate by referring to the language dictionary of these language types.
Depending on the language type, there may be words having the same character type and the same spelling, and depending on the translation object, a plurality of language types may be applicable. In this respect, in the present invention, since priority is given to the language types by the control means, and the translation means performs translation by referring to the language dictionary based on this priority order, highly accurate multilingual translation can be performed.
請求項9に記載の発明によれば、請求項1〜8のいずれか一項に記載の翻訳装置において、翻訳手段により特定の言語に翻訳された訳語に対応する音声データを言語辞書に記憶し、音声出力手段がこの音声データから音声を生成し出力することで聴覚からも文字列の翻訳を取得することができる。
According to the invention described in claim 9, in the translation device according to any one of
請求項10に記載の発明によれば、請求項1〜9のいずれか一項に記載の翻訳装置において、指定手段により言語種の指定が可能となり、翻訳手段この指定言語種の言語辞書を参照して文字列の翻訳を行うことができる。
According to the invention described in
請求項11に記載の発明によれば、請求項1〜10のいずれか一項に記載の翻訳装置において、履歴記憶手段を備え、制御手段の言語種特定に際しこの履歴を参照することによって更に精度の高い言語種の特定又は翻訳を行うことができる。例えば、旅行時には旅行先で使用される言語の翻訳が連続する場合が多い。前回翻訳対象とした言語種と今回翻訳対象となる言語種が一致する可能性が高い。このため、特定した言語種の履歴を言語種特定の判断基準にすることで、より精度の高い言語種の特定及び翻訳を行うことができる。 According to the eleventh aspect of the present invention, in the translation device according to any one of the first to tenth aspects, the history storage means is provided, and the accuracy is further improved by referring to the history when specifying the language type of the control means. High language types can be identified or translated. For example, when traveling, the language used in the travel destination is often translated continuously. There is a high possibility that the language type to be translated last time matches the language type to be translated this time. For this reason, by using the history of the specified language type as a criterion for specifying the language type, it is possible to specify and translate the language type with higher accuracy.
請求項12に記載の発明によれば、請求項11に記載の翻訳装置において、現在時刻の情報を出力する時計手段を更に備え、記憶手段に翻訳を可能とする言語種に関連する情報を所定時刻と対応付けを行って記録し、現在時刻情報に基づいて、履歴記憶手段に記憶された言語種の履歴に応じて対応する関連情報を表示することができる。例えば、履歴の有る言語がイタリア語で、所定時刻を正午とする。また正午は昼食どきであるため正午に対応する関連情報をレストランとする。正午になると履歴記憶手段を参照し、履歴がイタリア語であるとの情報を取得し表示手段にイタリアンレストランの情報を表示することができる。 According to a twelfth aspect of the present invention, in the translation device according to the eleventh aspect of the present invention, the translation device further includes a clock unit that outputs information on the current time, and the storage unit stores predetermined information related to the language type that enables translation Corresponding information is recorded in association with the time, and the related information corresponding to the language type history stored in the history storage means can be displayed based on the current time information. For example, the language with the history is Italian and the predetermined time is noon. In addition, since noon is lunchtime, related information corresponding to noon is used as a restaurant. At noon, it is possible to refer to the history storage means, acquire information that the history is in Italian, and display information on the Italian restaurant on the display means.
請求項13に記載の発明によれば、請求項1〜12のいずれか一項に記載の翻訳装置において、表示手段がヘッドマウントディスプレイであるため携行性に優れるという効果がある。
According to invention of
請求項14に記載の発明によれば、請求項13に記載の翻訳装置において、通常の視界に翻訳映像を重畳表示することができる。このため、翻訳対象物を視界でとらえながらにして訳語を確認することができる。 According to the fourteenth aspect of the present invention, in the translation device according to the thirteenth aspect, the translated video can be superimposed and displayed in the normal field of view. For this reason, it is possible to confirm the translation while grasping the translation object in the field of view.
請求項15に記載の発明によれば、請求項14に記載の翻訳装置において、通常の視界に翻訳映像を重畳表示することができる。このため、翻訳対象物を視界でとらえながらにして訳語を確認することができる。 According to the fifteenth aspect of the present invention, in the translation device according to the fourteenth aspect, the translated video can be displayed superimposed on the normal field of view. For this reason, it is possible to confirm the translation while grasping the translation object in the field of view.
請求項16に記載の発明によれば、コンピュータが翻訳を行うに際し、単語抽出機能により文字列から単語を抽出し、この抽出した単語を複数の言語種毎の単語データとを参照することにより撮像手段から取得した映像データに含まれる文字列の言語種を特定することができる。多言語翻訳では、文字種のみでは翻訳対象物の言語種を特定できない場合が多い。本発明では、更に単語と単語データの比較により言語種の特定を行うことで言語種の特定を行うことができる。また、言語種によっては同一の文字種及び同一の綴りを有する単語が存在することもあり言語種の特定に際し、翻訳対象物によっては複数の言語種が該当する場合もある。この点、本発明では言語種特定機能が該当する言語種に優先順位を付けて特定を行うため、精度の高い言語種特定ができる。
According to the invention described in
請求項17に記載の発明によれば、請求項16に記載のプログラムにおいて、更に映像データに含まれる文字列の文字種を抽出する文字種抽出機能を実現させ、記憶機能により翻訳に対応する複数の言語種の文字種データ及び正書規則データを更に記憶するため、言語種特定機能における言語種の特定の判断に単語、文字種及び正書規則を利用することができ、更に精度の高い言語種の特定を行うことができる。また、言語種の特定に際し複数の言語種が該当する場合には、該当する言語種に優先順位を付けて特定を行う。即ち、上記3つの判断基準を満たす順に言語種の優先順位付けを行う。このためより精度の高い言語種特定ができる。
According to the invention described in
請求項18に記載の発明によれば、請求項16又17に記載のプログラムにおいて、
更にGPS信号を受信し位置情報を取得する位置検出機能を更に実現し、記憶手段でこの位置情報に対応付けられた言語種データを更に記憶するため、言語種特定機能における言語種の特定の判断に単語、文字種、正書規則及び位置情報を利用することができ、更に精度の高い言語種特定を行うことができる。
According to the invention of
Further, the position detection function for receiving the GPS signal and acquiring the position information is further realized, and the language type data associated with the position information is further stored in the storage means. In addition, it is possible to use a word, a character type, a regular text rule, and position information, and to specify a language type with higher accuracy.
請求項19に記載の発明によれば、コンピュータが翻訳を行うに際し、位置情報検出機能からコンピュータの位置を検出し、この位置情報に対応付けられた言語種データを参照すことにより撮像手段から取得した映像データに含まれる文字列の言語種を特定することができる。
多言語翻訳では、文字種のみでは翻訳対象物の言語種を特定できない場合が多い。本発明では、位置情報とこの位置情報に対応付けられた言語種データとの比較により言語種の特定を行うことができる。
According to the nineteenth aspect of the present invention, when the computer performs translation, the position of the computer is detected from the position information detection function, and acquired from the imaging means by referring to the language type data associated with the position information. The language type of the character string included in the processed video data can be specified.
In multilingual translation, there are many cases where the language type of the translation object cannot be specified only by the character type. In the present invention, the language type can be specified by comparing the position information with the language type data associated with the position information.
請求項20に記載の発明によれば、請求項19に記載のプログラムにおいて、単語抽出手段により映像データに含まれる文字列の単語を抽出し、記憶機能で翻訳の対象とする言語種毎の単語データを更に記憶するため、言語種特定機能における言語種の特定の判断に単語及び位置情報を利用することができ、更に精度の高い言語種特定を行うことができる。 According to the twentieth aspect of the invention, in the program according to the nineteenth aspect, the word of the character string included in the video data is extracted by the word extracting means, and the word for each language type to be translated by the storage function Since the data is further stored, the word and position information can be used for specifying the language type in the language type specifying function, and the language type can be specified with higher accuracy.
請求項21に記載の発明によれば、請求項19に記載のプログラムにおいて、文字種抽出機能により映像データに含まれる文字列の文字種を抽出し、記憶機能で翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶するため、言語種特定機能で言語種の特定の判断に単語及び位置情報を利用することができ、更に精度の高い言語種特定を行うことができる。
According to the invention of
請求項22に記載の発明によれば、コンピュータが翻訳を行うに際し、文字種抽出機能により文字列の文字種を抽出し、この文字種と記憶機能で記憶した言語種毎の文字種データ及び正書規則データとを言語種特定機能で参照することにより撮像手段から取得した映像データに含まれる文字列の言語種を特定することができる。多言語翻訳では、文字種のみでは翻訳対象物の言語種を特定できない場合が多い。本発明では、文字種と正書規則データの比較により言語種の特定を行うことで言語種の特定を行うことができる。
According to the invention described in
請求項23に記載の発明によれば、請求項16〜22のいずれか一項に記載のプログラムにおいて、文字列の翻訳に際し、言語種特定手段により特定された言語種の優先順位に基づいて該当する言語種の言語辞書を参照して翻訳を行うことができる。
言語種によっては同一の文字種及び同一の綴りを有する単語が存在すること等もあり翻訳対象物によっては複数の言語種が該当する場合もある。この点、本発明では言語種特定機能により言語種に優先順位を付け、翻訳手段がこの優先順位に基づいて言語辞書を参照して翻訳を行うため、精度の高い多国語翻訳ができる。
According to the invention described in claim 23, in the program according to any one of claims 16-22, the character string is translated based on the priority of the language type specified by the language type specifying means. Translation can be performed by referring to the language dictionary of the language type to be selected.
Depending on the language type, there may be words having the same character type and the same spelling, etc., and depending on the translation object, a plurality of language types may be applicable. In this respect, according to the present invention, the language type specifying function assigns priorities to the language types, and the translation unit performs translation by referring to the language dictionary based on the priorities, so that highly accurate multilingual translation can be performed.
請求項24に記載の発明によれば、請求項16〜23のいずれか一項に記載のプログラムにおいて、言語種特定機能による言語種特定に履歴記憶機能による翻訳回数を参照することで、より精度の高い言語種の特定又は翻訳を行うことができる。即ち、旅行時では、旅行先で使用される言語の翻訳が連続する場合が多い。前回翻訳を行った言語種と今回の翻訳処理が一致する可能性が高い。このため、言語種ごとの履歴を言語種の特定の判断基準にすることでより精度の高い言語種の特定及び多言語翻訳を行うことができる。
According to the invention of claim 24, in the program according to any one of
請求項25に記載の発明によれば、請求項24に記載のプログラムにおいて、記憶機能で翻訳の対象とする言語種毎に関連する情報を所定時刻と対応付けを行って記録し、現在時刻の情報を出力する時計機能からの現時時刻情報に基づいて、履歴記憶機能に記憶された言語種の履歴に応じ対応する関連情報を表示することができる。
例えば、履歴がイタリア語で、所定時刻を正午とする。また正午は昼食どきであるため正午に対応する関連情報をレストランとする。正午になると履歴記憶手段を参照し履歴がイタリア語であるとの情報を取得しイタリアンレストランの情報を表示することができる。
According to the invention described in
For example, the history is Italian and the predetermined time is noon. In addition, since noon is lunchtime, related information corresponding to noon is used as a restaurant. At noon, it is possible to obtain information that the history is in Italian by referring to the history storage means and display information on the Italian restaurant.
次に、図を用いて本発明をヘッドマウントディスプレイに適用した形態について説明する。
本実施の形態におけるヘッドマウントディスプレイは、視線方向の文字列や文章を電子映像として捉えて画像処理により文字認識を行い、各種の言語種特定要素から言語種の特定を行い、予め定められた言語に翻訳し眼前に設けられた表示装置に訳語の表示を行う多言語翻訳機能を有するものである。また、この言語種を特定する処理において特定された言語種の特定履歴を記憶し、所定の時間になると最新の特定履歴から遡って特定回数の多い言語種に関連する情報を表示装置に表示して、ユーザに翻訳対象物の言語種に関係する付随情報を提供する機能を有するものである。
Next, the form which applied this invention to the head mounted display is demonstrated using figures.
The head-mounted display in the present embodiment recognizes character strings and sentences in the line of sight as electronic images, performs character recognition by image processing, specifies language types from various language type specifying elements, and determines a predetermined language And a multilingual translation function for displaying translated words on a display device provided in front of the eyes. In addition, the specific history of the language type specified in the process of specifying the language type is stored, and information related to the language type having a specific number of times is displayed on the display device retroactively from the latest specific history at a predetermined time. Thus, the user has a function of providing accompanying information related to the language type of the translation object.
図1に、ヘッドマウントディスプレイ1の外観構成を示す。なお、以下の説明において、接眼方向と反対の方向を正面とする。
ヘッドマウントディスプレイ1は、通常の眼鏡と同様に、鼻当て2及びテンプル3R及び3Lが備えられるフレーム4とレンズ部5R及び5Lを有する。このフレーム4のレンズ部5Rの上方には、ユーザの視線方向の映像を捕らえるCCDカメラ7及びコントロールボックス9から送信される映像信号から映像を表示させる表示装置6が一体となって設置されている。また、テンプル3R及び3Lのそれぞれの中間部にケーブルが支持されてイヤホン8R及び8Lがユーザの耳に装着可能に設けられている。表示装置6、CCDカメラ7及びイヤホン8R、8Lは、それぞれケーブル14を介してコントロールボックス9に接続される。
FIG. 1 shows an external configuration of the head mounted
The head mounted
コントロールボックス9には、スイッチ10、十字キー11、電源スイッチ12及び電源である電池39が設けられる。スイッチ10は、後述する言語特定処理においてユーザの操作により「翻訳モード」の起動及び入力決定を行うものである。十字キー11は、「翻訳モード」起動時に、アプリケーションに従った各種の入力操作を適宜行うものである。
The control box 9 is provided with a
図2に、表示装置6の左方向からの側断面図を示す。表示装置6は、映像生成ユニット15と接眼光学系16とからなる。表示装置6の本体となる筐体17の内部には、コントロールボックス9から送信される映像信号から映像を生成する透過型の液晶表示器18、バックライト光源である複数のLED(Light Emitting Diode)群19及びLED群19からの照射光を液晶表示器18の全面に導くための照明光学系20が設けられる。接眼光学系16は、更にプリズム21とホログラム素子22とからなる。ホログラム素子22はレンズ部5と接眼光学系16との下端部接合面と略同一の大きさを有するシート状の部材からなり、プリズム21とレンズ部5との下端部接合面に挟まれるにように設けられる。
In FIG. 2, the side sectional view from the left direction of the
プリズム21の上端部は正面方向に厚い楔の形状を有し、液晶表示器18から照射される映像光束を採光しやすいように形成されている。この上端部から採光された映像光束は、プリズム21の内部で全反射されながら下端部に設けられたホログラム素子22へと導かれる。ホログラム素子22は光を干渉させ、眼球Eに虚像を結ばせるものである。
また、接眼光学系16は、レンズ部5Rと光の屈折率を同一とする単一の部材で構成されており、表面方向が段差なく連続するように接合されている。ユーザは、レンズ部5及び接眼光学系16を通して外界の視界を観察することが可能であるとともに、ホログラム素子22によって外界視界と重畳する映像を観察することが可能となっている。
The upper end of the
The eyepiece
図3に、ヘッドマウントディスプレイ1の機能的構成を示す。ヘッドマウントディスプレイ1は、撮像部25、画像処理部26、制御部27、記憶部28、翻訳エンジン29、通信部30、表示部31、音声出力部32、表示部及び操作入力部33から構成される。
FIG. 3 shows a functional configuration of the head mounted
撮像部25はCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の光電変換素子を用いたカメラからなる。本実施の形態ではCCDカメラ7を適用している。撮像部25で取得された映像信号は図示しないCDS(Correlated Double Sampling)回路やA/D(Analog/Digital)変換回路によりアナログ映像信号の相関二重サンプリングが行われて雑音が低減除去されるとともにゲイン調整が行われ、デジタル映像信号に変換された後画像処理部26に送信される。
The
画像処理部26は、DSP(Digital Signal Processor)とグラフィックメモリとから構成される。撮像部25から送信された映像信号から文字列をパターンマッチングにより抽出する文字列等抽出処理を行い、この文字列等抽出処理により抽出されたデータ(以下、単に「抽出文字データ」)を記憶部28に送信する。
文字列等抽出処理は、補正処理、特徴抽出処理及び文字等認識処理の3段階に分けられる。
The
The character string extraction process is divided into three stages: a correction process, a feature extraction process, and a character recognition process.
補正処理は、映像データのノイズ除去、平滑化、鮮鋭化、2次元フィルタリング、後述の特徴抽出を容易に行うために映像を2値映像に変換する2値化、認識対象とする図形や文字の骨格線を抽出する細線化、最終段階での映像照合であるパターンマッチングをより正確に行うために映像を拡大、縮小、平行移動、回転及び濃度変換に関する正規化等であり、文字等認識処理の前処理として行われる。 The correction process includes noise removal, smoothing, sharpening, two-dimensional filtering, binarization for converting a video into a binary video for easy feature extraction described later, and a figure or character to be recognized. Thinning to extract skeletal lines, normalization related to enlargement, reduction, translation, rotation, and density conversion for more accurate pattern matching, which is image matching at the final stage. Performed as pre-processing.
特徴抽出処理は、エッジ検出処理を適用している。映像信号に含まれる色の濃度値から濃度の変換点を抽出し、映像の不連続部分をエッジとして抽出しこのエッジを境界線として映像をいくつかの連続領域に分割する処理である。ラプラシアン(2次微分)処理やハフ変換処理等により行われる。なお、濃度映像からエッジ検出を行う場合には所々で途切れている場合が多いが、この場合は膨張法、収縮法及び延長跡法等により切れている点列を繋ぐ処理が行われる。 In the feature extraction process, an edge detection process is applied. In this processing, density conversion points are extracted from density values of colors included in the video signal, a discontinuous portion of the video is extracted as an edge, and the video is divided into several continuous areas using the edge as a boundary line. This is performed by Laplacian (secondary differentiation) processing, Hough transform processing, or the like. When edge detection is performed from density images, there are many cases where there are interruptions in some places. In this case, processing for connecting point sequences that are broken by an expansion method, a contraction method, an extended trace method, or the like is performed.
文字認識処理は、パターンマッチング法を用いる構成としている。パターンマッチング法は、後述する記憶部28に予め記憶された各種文字等のパターンデータと上述した特徴抽出処理によりエッジ強調された映像データとを電子的に重ね合わせ、最もよく類似したものを文字等と見なす手法である。具体的には、2つのデータから画素データレベル対応の相関(画素値の一致比率)を調べることにより判別を行う。
The character recognition process uses a pattern matching method. The pattern matching method electronically superimposes pattern data such as various characters stored in advance in the
記憶部28は、不揮発性の半導体メモリから構成される。ヘッドマウントディスプレイ1での各種処理におけるデータを一時又は恒常的に記憶する。本実施の形態では小型軽量化を図るためにEEPROM(Electric Erasable and Programmable ROM)を適用している。画像処理部26から送信される抽出文字データを格納し制御部27からのデータ要求指示信号に応じて適宜抽出文字データを送信する。また、通信部30から送信される座標データに対応する地図情報及びこの地図情報に対応する各地域使用言語データや後述する「関連情報表示モード」で使用する関連データが予め記憶される。また、言語種特定処理で使用される文字種データ、単語データ及び正書規則データも記憶される。
The
制御部27は、CPU(Central Processing Unit)35、ROM(Read Only Memory)36、RAM(Random Access Memory)37から構成される。CPU35は、ROM36に予め記憶されたプログラムをRAM37に展開し、プログラムの指示に従いヘッドマウントディスプレイ1の全体制御を行う。「翻訳モード」起動時には、記憶部28に記憶された抽出文字データを要求し、後述する言語種特定処理により抽出文字等データの言語種の特定を行い、特定した言語種のデータと抽出文字等データとを記憶部28に送信する。制御部27は図示しない時計回路を有し、各種信号処理の同期を図る他、現在時刻を計時し適宜出力するとともに各種データの記録等において記録年月日等のデータを供給する。また、言語種特定処理で特定された言語種の特定履歴を記憶部28に記憶するカウンタ38を設け、この特定履歴データ、現在時刻データ及び後述するGPS(Global Positioning system)による位置情報を参照することにより、予め記憶部28に記憶された関連情報を表示装置6に表示する「関連情報表示モード」を実行する。なお、「関連情報表示モード」については後述する。
The
翻訳エンジン29は、抽出文字データと言語種データとから予めユーザ等に設定された特定言語への翻訳を行うものである。LSI(Large Scale Integration)等を用いたハード的な構成とすることも可能であるし、ソフトウェア的に制御部27に翻訳機能を持たせる構成としてもよい。具体的には、図示しない単語辞書等を参照しながら抽出文字データを単語単位に分割する形態素解析、形態素間の接続関係等に基づいて構文構造を求める構文解析、各種言語及びこの言語の音声データが予め記憶された言語辞書から言語種データに基づいてこの言語種辞書の検索を行い、予め指定された言語(例えば、日本語等。)に翻訳を行う翻訳処理を行う。翻訳したテキストデータ及び音声データを制御部27に送信する。
The
通信部30は、GPSにより人工衛星Sから送信される座標データを受信して記憶部28に予め記憶された地図情報からユーザの現在地を特定し、特定された現在地データを制御部27に送信する。
The
表示部31は表示装置6に対応するものであり、翻訳エンジン29で所定の言語に翻訳された翻訳文等を表示する。音声出力部32は、翻訳エンジンから送信される音声翻訳データをイヤホン8R及び8Lに出力する。
The
次に、制御部27で処理される言語種特定処理について説明する。言語種特定処理とは通信部30からのGPSデータ、単語、文字種及び各種言語の正書規則から抽出文字データの言語種を特定する処理である。また、言語種特定処理により特定した言語種の特定履歴を記憶部28に記憶し、次回の言語種特定処理でこの特定履歴を参照し言語種の特定の精度を上げる処理を行う。一般に、前回特定した言語種は次回の翻訳対象物の言語種と同一である場合が多いためである。
Next, language type identification processing processed by the
また、本実施の形態における言語種の特定処理では、GPSデータ、単語、文字種及び各種言語の正書規則といった4種類の言語種特定要素を参照しながら言語種の特定を行うようになっているが、これらの内1種類の言語種特定要素を用いても言語種の特定は可能である。しかしながら、抽出文字データを1つの言語種に特定できる場合と、複数の言語種を特定する場合がある。例えば「memoria」という単語は「記憶」という意味であるが、この語は同一の文字種(ラテンスクリプト)イタリア語とスペイン語の両方に存在する単語である。同様に「intention」は英語とフランス語に、「marine」はドイツ語とフランス語に存在する。このように文字種や単語だけでは言語種の完全な特定ができない場合には、GPSデータからユーザの位置を判別し、該当する位置(地域、国等)の言語を第一として優先順位をつけて言語種の特定を行う。更には、抽出文字データから言語種に固有の正書規則を判別しこの判断結果から言語種の特定(優先順位)を行ったり、言語種の特定履歴を参照し言語特定の参照データとして活用する。言語種特定要素を複数参照することでより精度の高い言語種の特定が可能となる。 Further, in the language type specifying process in the present embodiment, the language type is specified while referring to four types of language type specifying elements such as GPS data, words, character types, and various types of normal writing rules. However, the language type can be specified using one of these types of language type specifying elements. However, there are cases where extracted character data can be specified as one language type and cases where a plurality of language types are specified. For example, the word “memory” means “memory”, but this word is a word that exists in both Italian and Spanish of the same character type (Latin script). Similarly, “intention” exists in English and French, and “marine” exists in German and French. In this way, when the language type cannot be completely specified only by the character type or word, the position of the user is determined from the GPS data, and the priority is given with the language of the corresponding position (region, country, etc.) as the first. Specify the language type. Furthermore, the correct type rule specific to the language type is discriminated from the extracted character data, and the language type is specified (priority order) from the determination result, or the language type specific history is referred to and used as the language-specific reference data. . By referring to a plurality of language type specifying elements, it is possible to specify a language type with higher accuracy.
ここで、「正書規則」について説明する。正書規則とは、言語をディスプレイ等で表示するとき又は印刷を行う際に適用される文字列の表記上の規則をいう。言語種等毎に特有の正書規則が存在するが、代表的な規則として〔1〕アクセント記号、〔2〕リガチャー(文字近接)、〔3〕文字出現位置による字形変化、〔4〕連結文字、〔5〕書記方向による字形変化、〔6〕文字配列方向、〔7〕特定文字配列時の字形変化(カーニング)、〔8〕ジャスティフィケーション(行頭、行末のそろえ方等)及び〔9〕ハイフネーションと綴り変化の関係が挙げられる。 Here, the “correct text rule” will be described. The correct book rule is a rule on the notation of a character string applied when a language is displayed on a display or the like or when printing is performed. There are regular rules for each language type, but the typical rules are: [1] Accent symbol, [2] Ligature (character proximity), [3] Character shape change by character appearance position, [4] Concatenated characters , [5] Character shape change depending on writing direction, [6] Character array direction, [7] Character shape change (kerning) at specific character array, [8] Justification (how to align line head, line end, etc.) and [9] The relationship between hyphenation and spelling changes.
〔1〕アクセント記号
表記に用いられる文字にアクセント記号を付加するものである。ラテン系言語、ギリシャ語及びベトナム語に見られる。図4(a)にイタリア語、図4(b)にギリシャ語におけるアクセント記号の一例を示す。文字列中にこのようなアクセント記号を判別した際に、他の文字種やGPSデータ等と総合的に判断して抽出文字データの言語種の優先順位を決定することが可能となる。
[1] Accent symbols Accent symbols are added to characters used for notation. Found in Latin, Greek and Vietnamese. FIG. 4A shows an example of accent symbols in Italian, and FIG. 4B shows examples of accent symbols in Greek. When such an accent symbol is discriminated in the character string, it becomes possible to determine the priority order of the language type of the extracted character data by comprehensively judging with other character types, GPS data and the like.
〔2〕リガチャ−(文字近接)
表記上の美的観点より複数の文字を合わせた活字が利用される場合がある。図5(a)にラテン語系のリガチャ−を示す。図に示すように“f”と“f”、“f”と“i”、“f”と“l”をそれぞれ文字の一部分を繋げて連続的に表記する。また、図5(b)にドイツ語の「エスツェット」の例を示す。sz又はssはsと表記される場合がある。
[2] Ligature (character proximity)
From the aesthetic point of view of the notation, there are cases in which a combination of characters is used. FIG. 5A shows a Latin ligature. As shown in the figure, “f” and “f”, “f” and “i”, and “f” and “l” are successively expressed by connecting a part of each character. FIG. 5B shows an example of German “Esset”. sz or ss may be expressed as s.
〔3〕位置による字形の変化
単語内での文字の位置や前後に来る文字によって、基本形状以外の文字形状に変化する場合がある。特にアラビア語系言語に多く見られる。図6に示すようにアラビア語系言語では、単語中の文字の位置によって独立形、語頭形、語中形及び語尾形と文字形状が変化する。なお、通常このような規則がない言語においてもフォントの種類によって前後の文字によって字形が変化する場合がある。例えば英語の筆記体フォントが挙げられる。
[3] Change in character shape depending on position Depending on the position of the character in the word and the characters before and after the character, the character shape may change to a shape other than the basic shape. This is especially true for Arabic languages. As shown in FIG. 6, in the Arabic language language, the character shape changes depending on the position of the character in the word, such as the independent form, the head form, the middle form and the ending form. Note that, even in languages that do not have such rules, the character shape may change depending on the characters before and after the font type. An example is the English cursive font.
〔4〕連結文字
インド系のほとんどの言語系では、連結と呼ばれる特殊な正書規則が存在する。複雑な規則であり、上述したリガチャ−、位置による字形変化等に似た規則である。図7にデーバナーガリー文字の一例を示す。
[4] Concatenated characters In most Indian languages, there is a special orthography rule called concatenation. This is a complicated rule similar to the above-described ligature, character shape change depending on position, and the like. FIG. 7 shows an example of Devanagari characters.
〔5〕書記方向による字形変化
日本語、中国後又は韓国語のように、1つの言語で縦方向と横方向の2つの異なる書記方向をもつものがある。書記方向で字形が変化するものがある。図8に、日本語における例を示す。「スタート」という単語を横書きした場合、長音記号は“ー”と書き表すが、縦書きの場合は“|”と書き表す。
[5] Change in character shape according to writing direction Some languages, such as Japanese, Chinese, or Korean, have two different writing directions, vertical and horizontal. Some characters change in writing direction. FIG. 8 shows an example in Japanese. When the word “start” is written horizontally, the long clef symbol is written as “−”, but when written vertically, it is written as “|”.
〔6〕文字配列方向
全ての言語に共通して、文字は特定の直線方向に配列される。図9(a)に示す英単語「direction」は左から右の直線方向に文字を配列する。日本語の例では、図9(b)に示すように「文章」という語を上から下の直線方向に配列する。また、図示しないがアラビア語では右から左の直線方向に文字を配列する。
[6] Character arrangement direction Common to all languages, characters are arranged in a specific linear direction. The English word “direction” shown in FIG. 9A arranges characters in a straight line direction from left to right. In the Japanese example, the word “sentence” is arranged in a linear direction from top to bottom as shown in FIG. Although not shown, in Arabic, characters are arranged in a straight line direction from right to left.
〔7〕特定文字配列時の字形変化(カーニング)
特定の2文字を配列する場合、お互いの文字の形状に応じて文字の間隔を微妙に調整するいわゆるカーニングという正書規則がある。図10にローマ字の「A」と「t」及び「o」と「e」の関係について示す。図10(a)で、「A」の次に「t」を配列する場合、文字間隔Hは他の文字が配列される場合より狭く調整される。同様に、図10(b)で、「o」の次に「e」を配列する場合も文字間隔Hは狭く調整される。文字が有する形状や大きさの関係より文字間隔を調整し視覚的な違和感を調整する規則である。
[7] Character shape change (kerning) when specific characters are arranged
When two specific characters are arranged, there is a so-called kerning normal rule that finely adjusts the character spacing according to the shape of each other. FIG. 10 shows the relationship between the Roman letters “A” and “t” and “o” and “e”. In FIG. 10A, when “t” is arranged next to “A”, the character interval H is adjusted narrower than when other characters are arranged. Similarly, in FIG. 10B, when “e” is arranged next to “o”, the character spacing H is adjusted narrowly. It is a rule that adjusts the character spacing based on the relationship between the shape and size of the character to adjust the visual discomfort.
〔8〕ジャスティフィケーション(行頭、行末のそろえ方等)
単語を配列方向に配列して行を形成する際、言語によっては表示や印刷を行う場合に文書の行頭や行末を揃えるジャスティフィケーションを行う規則がある。
[8] Justification (How to align the beginning and end of the line)
When a line is formed by arranging words in the arrangement direction, there are rules for justification that aligns the beginning and end of a document when displaying or printing depending on the language.
〔9〕ハイフネーションと綴りの関係
単語の途中で区切って改行する場合に改行が許される場所が限られる場合がある。ジャスティフィケーションとも関係し、言語によっては綴りが変わるなどの特有の規則がある場合が有る。例えば、英文では単語の途中で改行を行う場合にはハイフンを挿入して改行を行うが、ドイツ文では更に綴りが変化する。図11にドイツ語におけるハイフネーション規則の例を示す。文章中の「weken」という単語の途中で改行を行う場合ハイフンを挿入するが、このときハイフンの直前の文字「k」をハイフンの次に重複させて表記する(図11における行頭の「k」。「weken」が「wek-ken」となる)。
[9] Relationship between hyphenation and spelling When a line break is made in the middle of a word, the places where line breaks are allowed may be limited. There are also specific rules that are related to justification, such as spelling changes depending on the language. For example, in English, when a line break is made in the middle of a word, a hyphen is inserted to make a line break. In German, the spelling changes further. FIG. 11 shows an example of a hyphenation rule in German. When a line break is made in the middle of the word “weken” in the sentence, a hyphen is inserted. At this time, the character “k” immediately before the hyphen is duplicated after the hyphen (“k” at the beginning of the line in FIG. 11). "Weken" becomes "wek-ken").
以上のような正書規則のデータが記憶部28に記憶されており、GPSデータ等の他のデータと総合的に判断して画像処理部26から送信される抽出文字データの翻訳言語の優先順位を決定する処理を行う。
The data of the above-mentioned regular text rules is stored in the
以下に、図12のフロー図を用いてヘッドマウントディスプレイ1の「翻訳モード」における言語種特定処理の動作を説明する。なお、以下の処理は制御部27のCPU35により制御される。
ユーザが操作入力部33のスイッチ10を操作することにより送信される信号を受け、CPU35はROM36からプログラムを読み込みRAM37上に展開し「翻訳モード」を起動する(ステップS100)。
The operation of language type identification processing in the “translation mode” of the head mounted
In response to a signal transmitted by the user operating the
起動が完了すると、表示装置6に、「翻訳する文字列又は文章を見ながらスイッチ10を押してください。」との操作案内の表示を行う(ステップS101)。
When the activation is completed, an operation guidance message “Please press the
ユーザが、翻訳対象物(文字列又は文章等)を視界方向に捉えながらスイッチ10を押下することで送信される撮像指示信号を受信し、撮像部25から翻訳対象物の映像を取得する(ステップS102)。
The user receives an imaging instruction signal transmitted by pressing the
取得した映像を画像処理部26に送信し、画像処理(パターンマッチング等)を行い文字の認識を行い抽出文字データの生成を行う(ステップS103)。抽出文字データは記憶部28に送信され一時記憶がなされる。
The acquired video is transmitted to the
画像処理部26から送信される抽出文字データの画像処理の完了を示す信号を受信すると、抽出文字データ要求信号を記憶部28に送信し抽出文字データの読み込みを開始する(ステップS104)。
When a signal indicating completion of image processing of the extracted character data transmitted from the
ここで、文字種データやGPSデータといった個別の言語種特定処理に先んじて前回の言語種特定結果である言語種特定履歴の参照を行う。記憶部28にアクセスし言語種特定履歴データがあれば(ステップS105:YES)、言語種特定履歴を参照し履歴の若い順に言語種の優先順位付けを行う(ステップ:S106)
Here, prior to individual language type identification processing such as character type data and GPS data, the language type identification history which is the previous language type identification result is referred to. If the
次に、抽出文字データの文字種と文字種選択データの比較を行い言語種の優先順位付けを行う。具体的には、文字種選択データに記憶される複数の言語種から該当する言語種の優先順位付け(絞込み)を行う(ステップS107)。例えば、文字種がラテン文字であると判断すると、文字種選択データに対応付けがなされた言語種データ(英語、フランス語、イタリア語等)を他の文字種データと対応付けが行われた言語種データ(例えばアラビア文字データに対応付けられたヒンズー語等)より優先する順位付けを行う。 Next, the character type of the extracted character data is compared with the character type selection data to prioritize the language type. Specifically, prioritization (narrowing) of the corresponding language type is performed from a plurality of language types stored in the character type selection data (step S107). For example, if the character type is determined to be a Latin character, the language type data (for example, English, French, Italian, etc.) associated with the character type selection data is associated with other character type data (for example, Prioritize over Hindu words associated with Arabic character data.
次に、抽出文字データの文字種と単語選択データの比較を行い言語種の優先順位付けを行う。具体的には、単語選択データに記憶される複数の言語種から該当する言語種の優先順位付け(絞込み)を行う(ステップS108)。例えば、翻訳対象物が「TO BE TO BE TENMADE TO BE」であるとすると、「TO」、「BE」、「TEN」、「MADE」等の英単語を認識し、同じラテン文字を使用するイタリア語やフランス語である可能性を否定することが可能となる。 Next, the character type of the extracted character data is compared with the word selection data to prioritize the language type. Specifically, prioritization (narrowing) of the corresponding language type is performed from a plurality of language types stored in the word selection data (step S108). For example, if the translation object is "TO BE TO BE TENMADE TO BE", it recognizes English words such as "TO", "BE", "TEN", "MADE" and uses the same Latin script. It becomes possible to deny the possibility of being a word or French.
また、抽出文字データが「TO BE TO BE TENMADE TO BE」である場合には、日本語のローマ字表記である「とべ とべ てんまで とべ」である可能性もある。そこで、通信部30から送信される座標データ、地図データ及び地図データに対応する地域言語データを参照し、ステップS108で優先順位付けを行った言語の中から地域言語データに該当する言語を優先する順位付けを行う(ステップS109)。例えば、ユーザがニューヨーク(アメリカ)に位置していたとすると、第1優先順位は英語、2番目に日本語といった言語種の優先順位付けを行う。また、例えば抽出文字データが「memoria」といったイタリア語及びスペイン語のいずれかであるか判別がつかないデータで有る場合では、座標データと対応する地域言語データからイタリア語とスペイン語のいずれかに優先順位付けを行うことが可能となる。
In addition, if the extracted character data is “TO BE TO BE TENMADE TO BE”, there is a possibility that it will be “Tobetobentotobe” which is written in Japanese. Therefore, the coordinate data, the map data, and the regional language data corresponding to the map data transmitted from the
更に、抽出文字データから正書規則の判断を行う(ステップS110)。ステップS109で優先順位付けを行った言語種データの中からこの正書規則に該当する言語に更に優先順位付けを行い、その後言語種データを記憶部28に送信し一時記憶する(ステップS110)。また、特定した言語種を言語種特定履歴として記憶部28に記憶する(ステップS111)。
Further, the normal rule is determined from the extracted character data (step S110). Prioritization is further performed on the language corresponding to the orthographic rule from the language type data that has been prioritized in step S109, and then the language type data is transmitted to the
言語種の特定が完了すると、翻訳エンジン29に翻訳指示信号を送信する(ステップS112)。翻訳指示信号を受信した翻訳エンジン29からは抽出文字データ及び言語種データの要求信号が送信され、CPU35はこれらのデータを記憶部28から読み出し翻訳エンジン29に送信する。
When the specification of the language type is completed, a translation instruction signal is transmitted to the translation engine 29 (step S112). The
翻訳エンジン29では、優先順位付けがなされた言語種データに基づいて翻訳辞書を参照しながら抽出文字データを所定の言語(例えば日本語)に翻訳する処理が行われる(ステップS112)
The
ステップS112にて所定の言語に翻訳された抽出文字データを音声出力部32及び表示部31に出力し、翻訳を表示装置6に表示するとともにイヤホン8R、8Lから音声出力を行う(ステップS113)。
The extracted character data translated into a predetermined language in step S112 is output to the
次に、「関連情報表示モード」について説明する。「関連情報表示モード」は、カウンタ38により記憶部28に記憶された言語種の特定履歴、GPSにより取得した位置情報、記憶部28に記憶された地図情報、この地図情報と対応付けられた関連データ及び時計回路から送信される現在時刻データを参照し、特定回数の多い即ちよく翻訳を行う言語種に関連する情報を提供するものである。具体的には、特定履歴中の最新のものから遡って5つの履歴のうち最も履歴が多い言語種を特定し、現在時刻と関係が有るカテゴリーで分類されたテーブルからこの言語種を使用する国あるいは地方に関連する項目を抽出する。この抽出した項目から地図情報と対応付けられた関連データの検索を行い、表示装置6に位置を表示するようになっている。なお、この処理は「翻訳モード」の処理のバックグラウンドで行われる。
Next, the “related information display mode” will be described. The “related information display mode” includes the language type identification history stored in the
図13に、「関連情報表示モード」における処理動作を示す。
時計回路から送信される現在時刻データに基づいて、関連情報を表示する時刻(仮に午後12時とする)に一致するかを判断する(ステップS201)。
FIG. 13 shows the processing operation in the “related information display mode”.
Based on the current time data transmitted from the clock circuit, it is determined whether or not it coincides with the time for displaying the related information (assuming it is 12:00 pm) (step S201).
関連情報を表示する時刻に一致する場合には(ステップS201:YES)、予め時刻とカテゴリーの対応付けがなされたテーブルを参照し検索するカテゴリーを決定する(ステップ:S202)。午後12時は昼食どきであるため対応するカテゴリーは「昼食」とする。 If it coincides with the time at which the related information is displayed (step S201: YES), a category to be searched is determined by referring to a table in which the time and the category are associated in advance (step: S202). Since it is lunchtime at 12:00 pm, the corresponding category is “lunch”.
記憶部28に記憶された言語種の特定履歴を読み込み、最新の特定言語種から遡って5つの履歴のうち最も多い言語種を検出する(ステップS203)。仮に、この処理で検出された言語種をイタリア語とする。
The language type specific history stored in the
ステップS202で決定された「昼食」というカテゴリーの中から、ステップS203で検出された「イタリア語」という言語種に関連する「イタリア料理」の項目を検索する(ステップS204)。 From the category “lunch” determined in step S202, an item “Italian cuisine” related to the language type “Italian” detected in step S203 is searched (step S204).
GPS信号と地図情報に基づいて現在位置データ及び現在位置を中心とした周辺地域の地図情報を取得し、地図情報に対応付けられた関連データのうちから「イタリア料理」に関する関連データを検索して表示装置6上に表示された周辺地図映像にイタリア料理を提供する場所を表示する(ステップS203)。 Based on the GPS signal and the map information, the current position data and the map information of the surrounding area centering on the current position are acquired, and the related data related to “Italian cuisine” is searched from the related data associated with the map information. The place where Italian food is provided is displayed on the surrounding map image displayed on the display device 6 (step S203).
以上のように、本発明を適用したヘッドマウントディスプレイ1によれば、単語、GPSデータ及び正書規則といった3種類のデータから翻訳対象物の言語種を特定することができる。このため従来からの翻訳対象物と対訳言語とが予め限定されている翻訳機能を有する装置あるいはユーザが予め翻訳対象物の言語種を設定する翻訳機能を有する装置とは異なり、ユーザが外国語に関する知識がなくても自動的に翻訳対象物の言語種を特定して所望の言語に翻訳した表示及び音声出力を提供することができる。
As described above, according to the head mounted
また、言語種の特定に際して1つの言語種に特定するだけでなく、優先順位付けを行いこれらの上位複数種類の言語種におけるそれぞれの対訳を表示及び音声出力を行うため、ユーザが周囲の状況に応じて最も適当な意味を選択することが可能となる。例えば、英語を母国語とし日本語及び中国語に関する知識がない外国人が日本に旅行にきた折に中華街を訪れるとする。街頭の看板等に「熊猫」の文字があるときに日本語では「クマ、ネコ」の意味であるが中国語では「パンダ」の意味である。このときGPSの位置データからは日本領域内であるため抽出文字データの言語種を日本語とするが、単語データからは同じ漢字文化圏として重複する部分も多い中国語を下位順位で言語種データの候補として指定しているため第1の翻訳語として「クマ、ネコ」、第2の翻訳語として「パンダ」をユーザに提供することができる。ユーザは、周囲の状況から「クマ、ネコ」でつじつまが合わなくても「パンダ」という情報から看板等の内容を理解しやすくなる場合もある。このように、複数の言語種を同時に翻訳して表示等を行うことで、使用環境等の個別の状況に対応することが可能となる。 In addition, when specifying language types, not only one language type is specified, but also prioritization is performed, and the respective parallel translations of these higher-order plural types of language types are displayed and voice output is performed. Accordingly, the most appropriate meaning can be selected. For example, suppose a foreigner who is native English and has no knowledge of Japanese or Chinese visits Chinatown when he travels to Japan. When the sign “Bear Cat” is on the street signboard, it means “bear, cat” in Japanese, but “panda” in Chinese. At this time, since the GPS position data is within the Japanese region, the language type of the extracted character data is set to Japanese, but from the word data, the language type data in the lower order is Chinese with many overlapping parts as the same kanji culture sphere. Therefore, “bear, cat” as the first translation word and “panda” as the second translation word can be provided to the user. In some cases, the user can easily understand the contents of the signboard or the like from the information “Panda” even if the “bear, cat” does not fit in the surrounding situation. Thus, by simultaneously translating a plurality of language types and displaying them, it becomes possible to deal with individual situations such as the usage environment.
また、翻訳対象物の言語判定に更に正書規則を採用することで、特定の言語が有する特徴的な規則のみから言語種データを生成することができ、候補言語種を精度良く判別することができる。このため、多国語対応の自動翻訳の処理が容易になるという効果がある。 Further, by adopting the orthography rule for determining the language of the translation object, it is possible to generate language type data only from the characteristic rules possessed by a specific language, and to accurately identify candidate language types. it can. For this reason, there is an effect that the process of automatic translation corresponding to a multilingual language becomes easy.
更に、特定した言語の履歴、GPSデータ及び時計回路からの現在時刻を利用して翻訳された言語に関連する情報を提供することができる。この関連する情報から特定言語種に関係する種々の情報をタイミングよく取得する機会を増やすことができる。例えば、仕事上でイタリア関連の業務を行っているときに、イタリア語の文献を読むに際しヘッドマウントディスプレイ1を用いて翻訳を行っているとする。昼食時に近郊のレストラン等が表示され、そのレストランで昼食をとる場合にイタリアの食文化を体験しながら現在行っている業務のアイディア等を得ることもできる場合もある。このように特定言語種へのアクセス回数を増やすことができるため、仕事や学習を効果的に行うことができる。
Furthermore, it is possible to provide information related to the translated language using the history of the specified language, the GPS data, and the current time from the clock circuit. Opportunities for acquiring various information related to a specific language type in a timely manner from the related information can be increased. For example, suppose that when doing business related to Italy on business, translation is performed using the head mounted
以上、本発明を実施するための最良の形態について説明したが、本発明は上記種々の例に限定されるものではない。
たとえば、制御部27での言語種特定処理では、文字種データ、単語データ、GPSデータ及び正書規則データの4種類のデータから言語種の優先順位付けを行う構成としたが、これらデータのいずれか1つを言語種の優先順位付けの判別データとしても十分に候補言語種データを生成することができる。
As mentioned above, although the best form for implementing this invention was demonstrated, this invention is not limited to the said various example.
For example, in the language type specifying process in the
また、制御部27での言語種特定処理で使用される文字選択データベースや翻訳エンジン29での翻訳処理に使用される辞書データは必ずしも記憶部28等に予め記憶されている必要はなく、携帯電話等の小型通信機器を用いてインターネット等のネットワークに接続通信可能とし、ネットワーク上に構成されたサーバ等から適宜ダウンロードする構成としてもよい。これにより、文字選択データ等の大規模検索が可能となり、またヘッドマウントディスプレイ1に係る負担も軽減することができる。
Further, the character selection database used in the language type specifying process in the
1 ヘッドマウントディスプレイ
2 鼻当て
3R、3L テンプル
4 フレーム
5R、5L レンズ
6 表示装置
7 CCDカメラ
8R、8L イヤホン
9 コントロールボックス
10 スイッチ
12 十字ボタン
13 電源スイッチ
14 ケーブル
15 映像生成ユニット
16 接眼光学系
17 筐体
18 液晶表示器
19 LED
20 照明光学系
21 プリズム
22 ホログラム素子
25 撮像部
26 画像処理部
27 制御部
28 記憶部
29 翻訳エンジン
30 通信部
31 表示部
32 音声出力部
33 操作入力部
35 CPU
36 ROM
37 RAM
38 カウンタ
39 電池
DESCRIPTION OF
20 Illumination
36 ROM
37 RAM
38
Claims (25)
前記文字列検出手段が検出した文字列から単語を抽出する単語抽出手段と、
前記翻訳手段が翻訳の対象とする言語種毎に対応する単語データを記憶した記憶手段と、
前記抽出手段が抽出した単語と前記記憶手段に記憶された単語データとを参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う制御手段を備えることを特徴とする翻訳装置。 An imaging unit that images an object, a character string detection unit that detects a character string included in video data acquired from the imaging unit, a character type of a character string detected by the character string detection unit, and the character type In a translation device comprising a translation means for referring to a language dictionary corresponding to a language type and translating into a specific language, and a display means for displaying a translation translated by the translation means,
Word extraction means for extracting a word from the character string detected by the character string detection means;
Storage means for storing word data corresponding to each language type to be translated by the translation means;
And a control unit that refers to the word extracted by the extraction unit and the word data stored in the storage unit, and prioritizes and specifies the language type of the character string included in the video data. Translation device to do.
前記映像データに含まれる文字列の文字種を抽出する文字種抽出手段を更に備え、
前記記憶手段は、前記翻訳手段が翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶し、
前記制御手段は、前記文字種抽出手段が抽出した文字種データと前記記憶手段に記憶された文字種データ及び正書規則データとを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする翻訳装置。 The translation device according to claim 1,
A character type extracting means for extracting a character type of a character string included in the video data;
The storage means further stores character type data and correct text rule data for each language type to be translated by the translation means,
The control means further refers to the character type data extracted by the character type extraction means, the character type data and the orthography rule data stored in the storage means, and sets the priority order to the language type of the character string included in the video data. A translation apparatus characterized by attaching and specifying.
GPS信号を受信し前記翻訳装置の位置情報を取得する位置検出手段と、
前記位置情報に対応付けられた言語種データを記憶する記憶手段と、
前記位置情報と前記言語種データとを更に参照して前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う制御手段を備えることを特徴とする翻訳装置。 The translation device according to claim 1 or 2,
Position detecting means for receiving a GPS signal and acquiring position information of the translation device;
Storage means for storing language type data associated with the position information;
A translation apparatus comprising: control means for further specifying the language type of a character string included in the video data with priority by further referring to the position information and the language type data.
GPS信号を受信し前記翻訳装置の位置情報を取得する位置検出手段と、
前記位置情報に対応付けられた言語種データを記憶する記憶手段と、
前記位置情報と前記言語種データとを参照して前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする翻訳装置。 An imaging unit that images an object, a character string detection unit that detects a character string included in video data acquired from the imaging unit, a character type of a character string detected by the character string detection unit, and the character type In a translation apparatus comprising a translation unit that translates into a specific language with reference to a language dictionary corresponding to a language type, and a display unit that displays a translation translated by the translation unit,
Position detecting means for receiving a GPS signal and acquiring position information of the translation device;
Storage means for storing language type data associated with the position information;
A translation apparatus characterized in that priority is given to a language type of a character string included in the video data with reference to the position information and the language type data.
前記文字列検出手段が検出した文字列から単語を抽出する単語抽出手段を更に備え、
前記記憶手段は前記翻訳手段が翻訳の対象とする言語種毎の単語データを更に記憶し、
前記制御手段は、前記単語抽出手段が抽出した単語と前記単語データを更に参照して前記入力データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする翻訳装置。 The translation device according to claim 4,
A word extracting means for extracting a word from the character string detected by the character string detecting means;
The storage means further stores word data for each language type to be translated by the translation means,
The translation device according to claim 1, wherein the control unit further specifies the language type of the character string included in the input data with reference to the word extracted by the word extraction unit and the word data.
前記映像データに含まれる文字列の文字種を抽出する文字種抽出手段を更に備え、
前記記憶手段は、前記翻訳手段が翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶し、
前記制御手段は、前記文字種抽出手段が抽出した文字種データと前記記憶手段に記憶された文字種データ及び正書規則データを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする翻訳装置。 The translation device according to claim 4,
A character type extracting means for extracting a character type of a character string included in the video data;
The storage means further stores character type data and correct text rule data for each language type to be translated by the translation means,
The control unit further refers to the character type data extracted by the character type extraction unit, the character type data and the normal rule data stored in the storage unit, and prioritizes the language type of the character string included in the video data. A translation device characterized by performing identification.
前記映像データに含まれる文字列の文字種を抽出する文字種抽出手段と、
前記翻訳手段が翻訳の対象とする言語種毎の文字種データ及び正書規則データを記憶した記憶手段と、
前記文字種抽出手段が抽出した文字種データと前記記憶手段に記憶された文字種データ及び正書規則データを参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う制御手段を備えることを特徴とする翻訳装置。 An imaging unit that images an object, a character string detection unit that detects a character string included in video data acquired from the imaging unit, a character type of a character string detected by the character string detection unit, and the character type In a translation apparatus comprising a translation unit that translates into a specific language with reference to a language dictionary corresponding to a language type, and a display unit that displays a translation translated by the translation unit,
Character type extracting means for extracting a character type of a character string included in the video data;
Storage means for storing character type data and correct rule data for each language type to be translated by the translation means;
Control means for referring to the character type data extracted by the character type extraction means, the character type data stored in the storage means, and the orthographic rule data, and specifying the language type of the character string included in the video data with priority. A translation apparatus comprising:
前記翻訳手段は、前記制御手段により特定された言語種の優先順位に基づいて該言語種の言語辞書を参照して特定の言語に翻訳を行うことを特徴とする翻訳装置。 In the translation apparatus as described in any one of Claims 1-7,
The translation device translates into a specific language by referring to the language dictionary of the language type based on the priority order of the language type specified by the control unit.
前記言語辞書は、前記翻訳手段により特定の言語に翻訳された訳語に対応する音声データを更に記憶し、
前記翻訳手段が翻訳を行った訳語に対応する音声データから音声を生成し出力する音声出力手段を更に備えることを特徴とする翻訳装置。 In the translation apparatus as described in any one of Claims 1-8,
The language dictionary further stores voice data corresponding to the translated words translated into a specific language by the translation means,
A translation apparatus, further comprising voice output means for generating and outputting voice from voice data corresponding to the translated word translated by the translation means.
前記制御手段により優先順位付けされた複数の言語種の中から翻訳を行う言語種を使用者の操作により指定可能とする指定手段を更に備え、
前記翻訳手段は、前記指定手段により指定された言語種に対応する言語辞書のみを参照して翻訳を行うことを特徴とする翻訳装置。 In the translation apparatus as described in any one of Claims 1-9,
Further comprising a specifying means for enabling a user to specify a language type for translation from a plurality of language types prioritized by the control means;
The translation apparatus, wherein the translation unit performs translation by referring only to a language dictionary corresponding to the language type designated by the designation unit.
前記翻訳手段が翻訳の対象とした言語種の履歴を記憶する履歴記憶手段を更に備え、
前記制御手段は、前記履歴記憶手段による言語種の履歴を更に参照して前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする翻訳装置。 In the translation apparatus as described in any one of Claims 1-10,
The translation means further comprises a history storage means for storing a history of language types to be translated,
The translation device according to claim 1, wherein the control means further refers to the history of the language type stored in the history storage means and prioritizes the language type of the character string included in the video data.
現在時刻の情報を出力する時計手段を更に備え、
前記記憶手段は、所定時刻と対応付けがなされ、前記翻訳手段で翻訳の対象とする言語種に関連する関連情報を更に記憶し、
前記制御手段は、前記現在時刻の情報に基づいて、前記履歴記憶手段に記憶された言語種の履歴に応じて対応する前記関連情報を前記表示手段に表示することを特徴とする翻訳装置。 The translation apparatus according to claim 11,
It further comprises clock means for outputting current time information,
The storage means is associated with a predetermined time, and further stores related information related to a language type to be translated by the translation means,
The said control means displays the said relevant information corresponding to the log | history of the language type memorize | stored in the said log | history memory | storage means on the said display means based on the information of the said present | current time, The translation apparatus characterized by the above-mentioned.
前記表示手段はヘッドマウントディスプレイであることを特徴とする翻訳装置。 In the translation apparatus as described in any one of Claims 1-12,
The translation apparatus, wherein the display means is a head mounted display.
前記ヘッドマウントディスプレイは外界光透過型であることを特徴とする翻訳装置。 The translation device according to claim 13,
The translation apparatus according to claim 1, wherein the head mounted display is an external light transmission type.
前記ヘッドマウントディスプレイは、映像信号から映像を生成して投射する映像表示器と、
前記映像表示器から投射された映像を採光して内部に導光するプリズムと
前記プリズムが導光した映像を回折しホログラム映像を瞳に導く回折フィルムとからなることを特徴とする翻訳装置。 The translation device according to claim 14, wherein
The head mounted display includes a video display for generating and projecting video from a video signal;
A translation apparatus comprising: a prism that samples an image projected from the image display and guides the image to an inside; and a diffraction film that diffracts the image guided by the prism and guides a hologram image to a pupil.
前記文字列から単語を抽出する単語抽出機能と、
翻訳の対象とする言語種毎の単語データを記憶する記憶機能と、
前記単語抽出機能によって抽出された単語と前記言語種毎の単語データとを参照し前記文字列の言語種に優先順位をつけて特定を行う言語種特定機能を実現することを特徴とするプログラム。 Detects a character string included in video data acquired from an imaging means for imaging an object, and translates it into a specific language by referring to a language dictionary corresponding to the character type of the character string and the language type using the character type To the computer that performs processing,
A word extraction function for extracting words from the character string;
A storage function for storing word data for each language type to be translated;
A program for realizing a language type specifying function for specifying a priority by prioritizing the language type of the character string with reference to the word extracted by the word extracting function and the word data for each language type.
前記映像データに含まれる文字列の文字種を抽出する文字種抽出機能を更に実現し、
前記記憶機能で、翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶し、
前記言語種特定機能で、前記文字種抽出機能により抽出した文字種データと前記言語種毎の文字種データ及び正書規則データを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とするプログラム。 The program according to claim 16, wherein
Further realizing a character type extraction function for extracting a character type of a character string included in the video data,
In the storage function, further storing character type data and correct rule data for each language type to be translated,
The language type specifying function further refers to the character type data extracted by the character type extraction function, the character type data for each language type, and the orthography rule data, and prioritizes the language types of the character strings included in the video data. A program characterized by performing identification.
GPS信号を受信し位置情報を取得する位置検出機能を更に実現し、
前記記憶機能で、前記位置情報に対応付けられた言語種データを更に記憶し、
前記言語種特定機能で、前記位置情報と前記言語種データとを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とするプログラム。 The program according to claim 16 or 17,
Further realizing a position detection function for receiving GPS signals and acquiring position information,
The storage function further stores language type data associated with the position information,
A program characterized in that, with the language type specifying function, the position information and the language type data are further referred to, and the language type of the character string included in the video data is specified with priority.
GPS信号を受信し位置情報を取得する位置検出機能と、
前記位置情報に対応付けられた言語種データを記憶する記憶機能と、
前記位置情報と前記言語種データとを参照して前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う言語種特定機能を実現する事を特徴とするプログラム。 Detects a character string included in video data acquired from an imaging means for imaging an object, and translates it into a specific language by referring to a language dictionary corresponding to the character type of the character string and the language type using the character type To the computer that performs processing,
A position detection function for receiving GPS signals and acquiring position information;
A storage function for storing language type data associated with the position information;
A program for realizing a language type specifying function for specifying the language type of a character string included in the video data with a priority by referring to the position information and the language type data.
前記映像データに含まれる文字列から単語を抽出する単語抽出機能を更に実現し、
前記記憶機能で、翻訳の対象とする言語種毎の単語データを更に記憶し、
前記言語種特定機能で、前記単語抽出機能により抽出した単語と前記言語種毎の単語データを更に参照して前記入力データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とするプログラム。 The program according to claim 19, wherein
Further realizing a word extraction function for extracting words from a character string included in the video data,
The memory function further stores word data for each language type to be translated,
In the language type specifying function, the word type of the character string included in the input data is prioritized and specified by further referring to the word extracted by the word extraction function and the word data for each language type. A featured program.
前記映像データに含まれる文字列の文字種を抽出する文字種抽出機能を更に実現し、
前記記憶機能で、翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶し、
前記言語特定機能で、前記文字種抽出機能により抽出した文字種データと前記言語種毎の文字種データ及び正書規則データを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とするプログラム。 The program according to claim 19, wherein
Further realizing a character type extraction function for extracting a character type of a character string included in the video data,
In the storage function, further storing character type data and correct rule data for each language type to be translated,
The language specifying function further refers to the character type data extracted by the character type extraction function, the character type data for each language type, and the correct text rule data, and prioritizes the language type of the character string included in the video data. A program characterized by specifying.
前記映像データに含まれる文字列の文字種を抽出する文字種抽出機能と、
翻訳の対象とする言語種毎の文字種データ及び正書規則データを記憶する記憶機能と、
前記文字種抽出機能が抽出した文字種データと前記複数の言語種の文字種データ及び正書規則データを参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う言語種特定機能を実現することを特徴とするプログラム。 A computer that detects a character string included in video data acquired from an imaging unit that captures an object and translates it into a specific language with reference to a language dictionary corresponding to the language type of the character string.
A character type extraction function for extracting a character type of a character string included in the video data;
A storage function for storing character type data and orthographic rule data for each language type to be translated;
Language type specification for specifying and specifying the priority of the language type of the character string included in the video data with reference to the character type data extracted by the character type extraction function, the character type data of the plurality of language types, and the orthographic rule data A program characterized by realizing a function.
前記言語特定機能により特定された言語種の優先順位に基づいて該言語種の言語辞書を参照して前記映像データに含まれる文字列を特定の言語に翻訳する翻訳機能を実現する事を特徴とするプログラム。 In the program according to any one of claims 16 to 22,
A translation function for translating a character string included in the video data into a specific language by referring to a language dictionary of the language type based on the priority order of the language type specified by the language specifying function is provided. Program to do.
前記言語種特定機能により特定した言語種の履歴を記憶する履歴記憶機能を更に実現し、
前記言語種特定機能で、前記履歴記憶機能による言語種の履歴を更に参照し、履歴が最新の言語種に基づいて前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とするプログラム。 In the program according to any one of claims 16 to 23,
Further realizing a history storage function for storing a history of the language type specified by the language type specifying function,
The language type specifying function further refers to the history of the language type by the history storage function and specifies the language type of the character string included in the video data based on the language type with the latest history. A program characterized by that.
前記記憶機能で、所定時刻と対応付けがなされ、翻訳処理の対象とする言語種毎に関連する関連情報を更に記憶し、
現在時刻の情報を出力する時計機能と、
前記時計機能による現在時刻の情報に基づいて、前記履歴記憶機能に記憶された言語種の履歴が最新の言語種に応じて前記関連情報を前記表示手段に表示させる表示機能を更に実現することを特徴とするプログラム。 The program according to claim 24,
The storage function is associated with a predetermined time, and further stores related information related to each language type to be translated.
A clock function that outputs current time information,
Further realizing a display function for displaying the related information on the display unit according to the latest language type of the language type history stored in the history storage function based on the current time information by the clock function. A featured program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005124949A JP2006302091A (en) | 2005-04-22 | 2005-04-22 | Translation device and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005124949A JP2006302091A (en) | 2005-04-22 | 2005-04-22 | Translation device and program thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006302091A true JP2006302091A (en) | 2006-11-02 |
Family
ID=37470284
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005124949A Pending JP2006302091A (en) | 2005-04-22 | 2005-04-22 | Translation device and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006302091A (en) |
Cited By (74)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010034759A (en) * | 2008-07-28 | 2010-02-12 | Denso Corp | On-vehicle communication apparatus |
JP2010109700A (en) * | 2008-10-30 | 2010-05-13 | Sony Computer Entertainment Inc | Image processor |
JP2013508817A (en) * | 2009-10-14 | 2013-03-07 | クゥアルコム・インコーポレイテッド | Method and apparatus for automatic predictive selection of input method for web browser |
JP2015520861A (en) * | 2012-03-06 | 2015-07-23 | アップル インコーポレイテッド | Multilingual content speech synthesis processing |
KR20150098493A (en) * | 2014-02-20 | 2015-08-28 | 권형석 | System, method and computer readable recording medium for informing emergency state |
KR20150098930A (en) * | 2014-02-21 | 2015-08-31 | 권형석 | System for rescue request during emergency and method therefor |
KR101614691B1 (en) | 2014-02-24 | 2016-05-12 | 주식회사 안심동행 | System for rescue request using portable electronic apparatus and method for rescue request therefor |
JP2016519797A (en) * | 2013-03-15 | 2016-07-07 | トランスレート アブロード,インコーポレイテッド | System and method for real-time display of foreign language character sets and their translations on resource-constrained mobile devices |
CN105843944A (en) * | 2016-04-08 | 2016-08-10 | 华南师范大学 | Geographical location information based language acquisition method and system |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US9633660B2 (en) | 2010-02-25 | 2017-04-25 | Apple Inc. | User profiling for voice input processing |
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US9668024B2 (en) | 2014-06-30 | 2017-05-30 | Apple Inc. | Intelligent automated assistant for TV user interactions |
JP2017532684A (en) * | 2014-10-17 | 2017-11-02 | マシーン・ゾーン・インコーポレイテッドMachine Zone, Inc. | System and method for language detection |
JP2018503147A (en) * | 2015-11-27 | 2018-02-01 | 小米科技有限責任公司Xiaomi Inc. | Interface display method and apparatus |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US9986419B2 (en) | 2014-09-30 | 2018-05-29 | Apple Inc. | Social reminders |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
US10102359B2 (en) | 2011-03-21 | 2018-10-16 | Apple Inc. | Device access using voice authentication |
US10162811B2 (en) | 2014-10-17 | 2018-12-25 | Mz Ip Holdings, Llc | Systems and methods for language detection |
US10169329B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Exemplar-based natural language processing |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US10346543B2 (en) | 2013-02-08 | 2019-07-09 | Mz Ip Holdings, Llc | Systems and methods for incentivizing user feedback for translation processing |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US10366170B2 (en) | 2013-02-08 | 2019-07-30 | Mz Ip Holdings, Llc | Systems and methods for multi-user multi-lingual communications |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
CN110245356A (en) * | 2019-06-24 | 2019-09-17 | 付金龙 | Offline translation machine |
US10417351B2 (en) | 2013-02-08 | 2019-09-17 | Mz Ip Holdings, Llc | Systems and methods for multi-user mutli-lingual communications |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
JP2019215876A (en) * | 2019-07-03 | 2019-12-19 | エム・ゼット・アイ・ピィ・ホールディングス・リミテッド・ライアビリティ・カンパニーMz Ip Holdings, Llc | System and method for language detection |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10614171B2 (en) | 2013-02-08 | 2020-04-07 | Mz Ip Holdings, Llc | Systems and methods for multi-user multi-lingual communications |
US10650103B2 (en) | 2013-02-08 | 2020-05-12 | Mz Ip Holdings, Llc | Systems and methods for incentivizing user feedback for translation processing |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10706841B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Task flow identification based on user intent |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US10769387B2 (en) | 2017-09-21 | 2020-09-08 | Mz Ip Holdings, Llc | System and method for translating chat messages |
US10765956B2 (en) | 2016-01-07 | 2020-09-08 | Machine Zone Inc. | Named entity recognition on chat data |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10795541B2 (en) | 2009-06-05 | 2020-10-06 | Apple Inc. | Intelligent organization of tasks items |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11080012B2 (en) | 2009-06-05 | 2021-08-03 | Apple Inc. | Interface for a virtual digital assistant |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
-
2005
- 2005-04-22 JP JP2005124949A patent/JP2006302091A/en active Pending
Cited By (93)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US9865248B2 (en) | 2008-04-05 | 2018-01-09 | Apple Inc. | Intelligent text-to-speech conversion |
JP2010034759A (en) * | 2008-07-28 | 2010-02-12 | Denso Corp | On-vehicle communication apparatus |
JP2010109700A (en) * | 2008-10-30 | 2010-05-13 | Sony Computer Entertainment Inc | Image processor |
US11080012B2 (en) | 2009-06-05 | 2021-08-03 | Apple Inc. | Interface for a virtual digital assistant |
US10795541B2 (en) | 2009-06-05 | 2020-10-06 | Apple Inc. | Intelligent organization of tasks items |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
JP2013508817A (en) * | 2009-10-14 | 2013-03-07 | クゥアルコム・インコーポレイテッド | Method and apparatus for automatic predictive selection of input method for web browser |
US11423886B2 (en) | 2010-01-18 | 2022-08-23 | Apple Inc. | Task flow identification based on user intent |
US10706841B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Task flow identification based on user intent |
US10049675B2 (en) | 2010-02-25 | 2018-08-14 | Apple Inc. | User profiling for voice input processing |
US9633660B2 (en) | 2010-02-25 | 2017-04-25 | Apple Inc. | User profiling for voice input processing |
US10102359B2 (en) | 2011-03-21 | 2018-10-16 | Apple Inc. | Device access using voice authentication |
JP2015520861A (en) * | 2012-03-06 | 2015-07-23 | アップル インコーポレイテッド | Multilingual content speech synthesis processing |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US10657333B2 (en) | 2013-02-08 | 2020-05-19 | Mz Ip Holdings, Llc | Systems and methods for multi-user multi-lingual communications |
US10417351B2 (en) | 2013-02-08 | 2019-09-17 | Mz Ip Holdings, Llc | Systems and methods for multi-user mutli-lingual communications |
US10366170B2 (en) | 2013-02-08 | 2019-07-30 | Mz Ip Holdings, Llc | Systems and methods for multi-user multi-lingual communications |
US10346543B2 (en) | 2013-02-08 | 2019-07-09 | Mz Ip Holdings, Llc | Systems and methods for incentivizing user feedback for translation processing |
US10685190B2 (en) | 2013-02-08 | 2020-06-16 | Mz Ip Holdings, Llc | Systems and methods for multi-user multi-lingual communications |
US10614171B2 (en) | 2013-02-08 | 2020-04-07 | Mz Ip Holdings, Llc | Systems and methods for multi-user multi-lingual communications |
US10650103B2 (en) | 2013-02-08 | 2020-05-12 | Mz Ip Holdings, Llc | Systems and methods for incentivizing user feedback for translation processing |
JP2016519797A (en) * | 2013-03-15 | 2016-07-07 | トランスレート アブロード,インコーポレイテッド | System and method for real-time display of foreign language character sets and their translations on resource-constrained mobile devices |
US9966060B2 (en) | 2013-06-07 | 2018-05-08 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US10657961B2 (en) | 2013-06-08 | 2020-05-19 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
KR101634972B1 (en) | 2014-02-20 | 2016-07-01 | 주식회사 보형 | System, method and computer readable recording medium for informing emergency state |
KR20150098493A (en) * | 2014-02-20 | 2015-08-28 | 권형석 | System, method and computer readable recording medium for informing emergency state |
KR20150098930A (en) * | 2014-02-21 | 2015-08-31 | 권형석 | System for rescue request during emergency and method therefor |
KR101634976B1 (en) | 2014-02-21 | 2016-07-01 | 주식회사 보형 | System for rescue request during emergency and method therefor |
KR101614691B1 (en) | 2014-02-24 | 2016-05-12 | 주식회사 안심동행 | System for rescue request using portable electronic apparatus and method for rescue request therefor |
US10169329B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Exemplar-based natural language processing |
US10904611B2 (en) | 2014-06-30 | 2021-01-26 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9668024B2 (en) | 2014-06-30 | 2017-05-30 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9986419B2 (en) | 2014-09-30 | 2018-05-29 | Apple Inc. | Social reminders |
JP2017532684A (en) * | 2014-10-17 | 2017-11-02 | マシーン・ゾーン・インコーポレイテッドMachine Zone, Inc. | System and method for language detection |
US10162811B2 (en) | 2014-10-17 | 2018-12-25 | Mz Ip Holdings, Llc | Systems and methods for language detection |
US10699073B2 (en) | 2014-10-17 | 2020-06-30 | Mz Ip Holdings, Llc | Systems and methods for language detection |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US11500672B2 (en) | 2015-09-08 | 2022-11-15 | Apple Inc. | Distributed personal assistant |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US11526368B2 (en) | 2015-11-06 | 2022-12-13 | Apple Inc. | Intelligent automated assistant in a messaging environment |
JP2018503147A (en) * | 2015-11-27 | 2018-02-01 | 小米科技有限責任公司Xiaomi Inc. | Interface display method and apparatus |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10765956B2 (en) | 2016-01-07 | 2020-09-08 | Machine Zone Inc. | Named entity recognition on chat data |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
CN105843944A (en) * | 2016-04-08 | 2016-08-10 | 华南师范大学 | Geographical location information based language acquisition method and system |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US11069347B2 (en) | 2016-06-08 | 2021-07-20 | Apple Inc. | Intelligent automated assistant for media exploration |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US11037565B2 (en) | 2016-06-10 | 2021-06-15 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US11152002B2 (en) | 2016-06-11 | 2021-10-19 | Apple Inc. | Application integration with a digital assistant |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10553215B2 (en) | 2016-09-23 | 2020-02-04 | Apple Inc. | Intelligent automated assistant |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US11405466B2 (en) | 2017-05-12 | 2022-08-02 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
US10769387B2 (en) | 2017-09-21 | 2020-09-08 | Mz Ip Holdings, Llc | System and method for translating chat messages |
CN110245356A (en) * | 2019-06-24 | 2019-09-17 | 付金龙 | Offline translation machine |
JP2019215876A (en) * | 2019-07-03 | 2019-12-19 | エム・ゼット・アイ・ピィ・ホールディングス・リミテッド・ライアビリティ・カンパニーMz Ip Holdings, Llc | System and method for language detection |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2006302091A (en) | Translation device and program thereof | |
JP4047885B2 (en) | Machine translation apparatus, machine translation method, and machine translation program | |
JP4058071B2 (en) | Example translation device, example translation method, and example translation program | |
US20170315992A1 (en) | System and method for automatically translating an imaged surface of an object | |
JP2006277677A (en) | Communication support device, method, and program | |
WO2010010918A1 (en) | Information processing device and information processing method | |
Karim | Technical challenges and design issues in bangla language processing | |
US7136803B2 (en) | Japanese virtual dictionary | |
JP6417649B2 (en) | Text processing device, text display system, program | |
JP2018136900A (en) | Sentence analysis device and sentence analysis program | |
WO2020050894A1 (en) | Text to visualization | |
US11704090B2 (en) | Audio interactive display system and method of interacting with audio interactive display system | |
JP2005215887A (en) | Electronic dictionary device and electronic dictionary program | |
JP7338328B2 (en) | Data structure, computer program and image processing device | |
JP7098897B2 (en) | Image processing equipment, programs and image data | |
JP2019215936A (en) | Automatic translation device and automatic translation program | |
WO2022118720A1 (en) | Device for generating mixed text of images and characters | |
JP2007018158A (en) | Character processor, character processing method, and recording medium | |
US11947580B2 (en) | Book search apparatus, book search database generation apparatus, book search method, book search database generation method, and program | |
JP7115187B2 (en) | Information processing device, information processing method and program | |
JP6729656B2 (en) | Text processing device, text display system, information processing device, program | |
KR101080880B1 (en) | Automatic loanword-to-korean transliteration method and apparatus | |
JP2008269122A (en) | Processing unit dividing device, processing unit dividing method and program | |
JP2010033418A (en) | Portable translation device and output method of translation sentence using the same | |
WO2022146318A1 (en) | A method for converting texts into visuals |