JP2006302091A - Translation device and program thereof - Google Patents

Translation device and program thereof Download PDF

Info

Publication number
JP2006302091A
JP2006302091A JP2005124949A JP2005124949A JP2006302091A JP 2006302091 A JP2006302091 A JP 2006302091A JP 2005124949 A JP2005124949 A JP 2005124949A JP 2005124949 A JP2005124949 A JP 2005124949A JP 2006302091 A JP2006302091 A JP 2006302091A
Authority
JP
Japan
Prior art keywords
language
type
character
data
translation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005124949A
Other languages
Japanese (ja)
Inventor
Haruhiko Yoshimeki
晴彦 吉目木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Photo Imaging Inc
Original Assignee
Konica Minolta Photo Imaging Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Photo Imaging Inc filed Critical Konica Minolta Photo Imaging Inc
Priority to JP2005124949A priority Critical patent/JP2006302091A/en
Publication of JP2006302091A publication Critical patent/JP2006302091A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To accurately discriminate a language type of a language to be translated to perform translation in multi-language translation of a translation device. <P>SOLUTION: In the translation device, a character string is extracted from video data acquired from an imaging means, and a character type of the character string and a linguistic dictionary corresponding to a language type using this character type are referred to display a translation result on a display device. In this translation device, position information of the translation device is acquired by character type data of the extracted character string, word data, and formal writing rule data and/or GPS to refer to data of language types being used in this position, and priorities are given to prescribe a language type. A dictionary corresponding to the prescribed language type is referred to translate the language as the translation object to a prescribed language. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は翻訳装置及びそのプログラムに係り、特に、翻訳対象の言語種を特定することによって多国語辞書から適切な辞書を選択し翻訳する翻訳装置及びそのプログラムに関する。   The present invention relates to a translation apparatus and a program thereof, and more particularly, to a translation apparatus and a program thereof that select and translate an appropriate dictionary from a multilingual dictionary by specifying a language type to be translated.

従来から、所定の言語から所定の言語に自動翻訳を行う翻訳装置が知られている。翻訳装置は2ヶ国語翻訳が一般的である。キーボードやスキャナから入力された文字列や文章を単語単位に識別し、単語毎に翻訳エンジン内に記憶された辞書を参照し所定の言語への対訳を行う。   2. Description of the Related Art Conventionally, translation apparatuses that perform automatic translation from a predetermined language to a predetermined language are known. A bilingual translation is generally used for the translation device. Character strings and sentences input from a keyboard or scanner are identified in units of words, and each word is translated into a predetermined language with reference to a dictionary stored in the translation engine.

また、翻訳装置では多言語から目的言語に翻訳を行う多言語翻訳装置もある。多言語翻訳装置は、その機能的構成として2つのタイプに大別することができる。一方は、翻訳の対象となる言語の言語種に対応する辞書が上記2ヶ国語翻訳装置と同様に装置に記憶されており、この言語種をユーザが選択(即ち、ユーザが翻訳対象となる言語の言語種を知っている。)して目的言語に翻訳を行うタイプである。他方は、装置自身が翻訳の対象となる言語の言語種を自動判別し、この判別により特定された言語種に対応する辞書を参照して目的言語に翻訳を行うタイプである。前者は、上記2ヶ国語翻訳装置の応用である。後者のタイプはユーザが翻訳対象の言語が何語であるかが不明なときに便利なものである。例えば、特許文献1には、入力された文字列を翻訳に対応する複数の辞書で翻訳を行いその翻訳結果が正しいかを判定する言語判定部を備え、その判定結果により目的言語に翻訳を行う多言語翻訳システムが開示されている。特許文献2には、入力された文字列を翻訳に対応する全ての辞書で検索を行い、検出された場合にこの辞書の言語種で翻訳を行う文書検索装置が開示されている。   There is also a multilingual translation device that translates from multiple languages to a target language. Multilingual translation devices can be roughly divided into two types as functional configurations. On the other hand, a dictionary corresponding to the language type of the language to be translated is stored in the device in the same manner as the bilingual translation device, and the language type is selected by the user (ie, the language to be translated by the user). This is the type that translates into the target language. The other is a type in which the apparatus itself automatically determines the language type of the language to be translated, and translates it into the target language by referring to a dictionary corresponding to the language type specified by this determination. The former is an application of the bilingual translation device. The latter type is useful when the user is not sure what language the language to be translated is. For example, Patent Document 1 includes a language determination unit that translates an input character string using a plurality of dictionaries corresponding to translation and determines whether the translation result is correct, and translates the input character string into a target language based on the determination result. A multilingual translation system is disclosed. Patent Document 2 discloses a document search device that searches an input character string in all dictionaries corresponding to translation, and translates it in the language type of this dictionary when it is detected.

また、翻訳装置の外観的な構成としては種々のものが知られている。ワークステーション、パーソナルコンピュータ等を始め、小型電子辞書やPDA(Personal Digital Assistant)等の小型携行型端末等まである。その中でも小型携行型の端末は、場所を選ばずに使用することができるため、出先での翻訳や辞書としての活用ができ、特に海外旅行等では大いに利用されている。例えば、小型携行型端末として、特許文献3では、小型カメラで撮像した映像データに画像処理を施し映像データ中に含まれる文字列を抽出して文字認識を行い、辞書機能を搭載して翻訳を行うヘッドマウントディスプレイが開示されている。
特開2001−92823号公報 特開平5−165889号公報 特開2000−152125号公報
Moreover, various things are known as an external appearance structure of a translation apparatus. In addition to workstations and personal computers, there are small electronic dictionaries and small portable terminals such as PDAs (Personal Digital Assistants). Among them, a small portable terminal can be used anywhere, so that it can be translated as a destination or used as a dictionary. For example, as a small portable terminal, in Patent Document 3, image processing is performed on video data captured by a small camera, a character string included in the video data is extracted, character recognition is performed, and a dictionary function is provided for translation. A head mounted display to perform is disclosed.
JP 2001-92823 A Japanese Patent Laid-Open No. 5-165889 JP 2000-152125 A

しかしながら、言語によっては同一の文字種及び綴りで複数の言語種に該当する単語もある。図14に世界各国で使用される文字の概要を示す。特にラテン文字、アラビア文字及びキリル文字を使用する国や地域は多く文字種のみから翻訳対象の言語種を特定することはできない場合が多い。また同一文字種を使用する言語間では単語の綴りが似ているあるいは全く同じという場合が少なからずある。例えば、「memoria」という単語は、イタリア語とスペイン語の両方に存在する。「intention」はという単語は、英語とフランス語の両方に存在する。「marine」という単語はドイツ語とフランス語に存在する。   However, some languages have the same character type and spelling and correspond to a plurality of language types. FIG. 14 shows an outline of characters used in various countries around the world. In particular, there are many countries and regions that use Latin characters, Arabic characters, and Cyrillic characters, and it is often impossible to specify the language type to be translated from only the character types. In addition, there are many cases where the spelling of words is similar or exactly the same between languages using the same character type. For example, the word “memory” exists in both Italian and Spanish. The word “intention” is present in both English and French. The word “marine” is present in German and French.

このような場合、翻訳装置は何れの言語種であるかの判断がつかず該当するいずれかの言語種で翻訳を行うか、未翻訳語として翻訳の中に原文のまま挿入するかあるいは翻訳を行わない場合がある。   In such a case, the translation device cannot determine which language type it is, and performs translation in any applicable language type, or inserts the original text into the translation as an untranslated word or performs translation. May not be done.

本発明の目的は、入力された文字列の言語種を的確に識別し、その識別された言語種の辞書を参照して多言語翻訳を行うことにある。   An object of the present invention is to accurately identify the language type of an input character string and perform multilingual translation by referring to the dictionary of the identified language type.

上記課題を解決するために、請求項1に記載の発明は、対象物を撮像する撮像手段と、該撮像手段から取得した映像データに含まれる文字列を検出する文字列検出手段と、該文字列検出手段が検出した文字列の文字種と、該文字種を使用する言語種とに対応する言語辞書を参照し特定の言語に翻訳する翻訳手段と、前記翻訳手段が翻訳した訳語を表示する表示手段を備えた翻訳装置において、
前記文字列検出手段が検出した文字列から単語を抽出する単語抽出手段と、
前記翻訳手段が翻訳の対象とする言語種毎の単語データを記憶した記憶手段と、
前記抽出手段が抽出した単語と前記記憶手段に記憶された単語データとを参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う制御手段を備えることを特徴とする。
In order to solve the above-mentioned problem, the invention described in claim 1 is characterized in that an imaging unit for imaging an object, a character string detection unit for detecting a character string included in video data acquired from the imaging unit, and the character Translation means for referring to a language dictionary corresponding to the character type of the character string detected by the string detection means and the language type using the character type, and a display means for displaying the translated word translated by the translation means In a translation device equipped with
Word extraction means for extracting a word from the character string detected by the character string detection means;
Storage means for storing word data for each language type to be translated by the translation means;
And a control unit that refers to the word extracted by the extraction unit and the word data stored in the storage unit, and prioritizes and specifies the language type of the character string included in the video data. To do.

請求項2に記載の発明は、請求項1に記載の翻訳装置において、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出手段を更に備え、
前記記憶手段は、前記翻訳手段が翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶し、
前記制御手段は、前記文字種抽出手段が抽出した文字種データと前記記憶手段に記憶された文字種データ及び正書規則データとを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
The invention according to claim 2 is the translation apparatus according to claim 1,
A character type extracting means for extracting a character type of a character string included in the video data;
The storage means further stores character type data and correct text rule data for each language type to be translated by the translation means,
The control means further refers to the character type data extracted by the character type extraction means, the character type data and the orthography rule data stored in the storage means, and sets the priority order to the language type of the character string included in the video data. It is characterized by attaching.

請求項3に記載の発明は、請求項1又は2に記載の翻訳装置において、
GPS信号を受信し前記翻訳装置の位置情報を取得する位置検出手段と、
前記位置情報に対応付けられた言語種データを記憶する記憶手段と、
前記位置情報と前記言語種データとを更に参照して前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う制御手段を備えることを特徴とする。
The invention according to claim 3 is the translation device according to claim 1 or 2,
Position detecting means for receiving a GPS signal and acquiring position information of the translation device;
Storage means for storing language type data associated with the position information;
It further comprises control means for further specifying the language type of the character string included in the video data with priority by further referring to the position information and the language type data.

請求項4に記載の発明は、対象物を撮像する撮像手段と、該撮像手段から取得した映像データに含まれる文字列を検出する文字列検出手段と、該文字列検出手段が検出した文字列の文字種と、該文字種を使用する言語種とに対応する言語辞書を参照して特定の言語に翻訳する翻訳手段と、前記翻訳手段が翻訳した訳語を表示する表示手段を備えた翻訳装置において、
GPS信号を受信し前記翻訳装置の位置情報を取得する位置検出手段と、
前記位置情報に対応付けられた言語種データを記憶する記憶手段と、
前記位置情報と前記言語種データとを参照して前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
According to a fourth aspect of the present invention, there is provided an image pickup means for picking up an object, a character string detection means for detecting a character string included in video data acquired from the image pickup means, and a character string detected by the character string detection means. A translation device comprising a translation means for translating into a specific language with reference to a language dictionary corresponding to a character type of the character type and a language type using the character type, and a display means for displaying a translated word translated by the translation means,
Position detecting means for receiving a GPS signal and acquiring position information of the translation device;
Storage means for storing language type data associated with the position information;
Referring to the position information and the language type data, the language type of the character string included in the video data is specified with a priority and specified.

請求項5に記載の発明は、請求項4に記載の翻訳装置において、
前記文字列検出手段が検出した文字列から単語を抽出する単語抽出手段を更に備え、
前記記憶手段は前記翻訳手段が翻訳の対象とする言語種毎の単語データを更に記憶し、
前記制御手段は、前記単語抽出手段が抽出した単語と前記単語データを更に参照して前記入力データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
The invention according to claim 5 is the translation device according to claim 4,
A word extracting means for extracting a word from the character string detected by the character string detecting means;
The storage means further stores word data for each language type to be translated by the translation means,
The control means further specifies the language type of the character string included in the input data by specifying the priority by further referring to the word extracted by the word extraction means and the word data.

請求項6に記載の発明は、請求項4に記載の翻訳装置において、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出手段を更に備え、
前記記憶手段は、前記翻訳手段が翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶し、
前記制御手段は、前記文字種抽出手段が抽出した文字種データと前記記憶手段に記憶された文字種データ及び正書規則データを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
The invention according to claim 6 is the translation device according to claim 4,
A character type extracting means for extracting a character type of a character string included in the video data;
The storage means further stores character type data and correct text rule data for each language type to be translated by the translation means,
The control unit further refers to the character type data extracted by the character type extraction unit, the character type data and the normal rule data stored in the storage unit, and prioritizes the language type of the character string included in the video data. It is characterized by performing identification.

請求項7に記載の発明は、対象物を撮像する撮像手段と、該撮像手段から取得した映像データに含まれる文字列を検出する文字列検出手段と、該文字列検出手段が検出した文字列の文字種と、該文字種を使用する言語種に対応する言語辞書を参照して特定の言語に翻訳する翻訳手段と、前記翻訳手段が翻訳した訳語を表示する表示手段を備えた翻訳装置において、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出手段と、
前記翻訳手段の翻訳に対応する複数の言語種の文字種データ及び正書規則データを記憶した記憶手段と、
前記文字種抽出手段が抽出した文字種データと前記記憶手段に記憶された複数の言語種の文字種データ及び正書規則データを参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う制御手段を備えることを特徴とする。
The invention according to claim 7 is an image pickup means for picking up an object, a character string detection means for detecting a character string included in video data acquired from the image pickup means, and a character string detected by the character string detection means. A translation device comprising: a character type; a translation means for referring to a language dictionary corresponding to the language type using the character type; and a display means for displaying a translated word translated by the translation means.
Character type extracting means for extracting a character type of a character string included in the video data;
Storage means for storing character type data and orthographic rule data of a plurality of language types corresponding to the translation of the translation means;
Referring to the character type data extracted by the character type extraction unit and the character type data and normal rule data of a plurality of language types stored in the storage unit, priorities are assigned to the language types of the character strings included in the video data. Control means for performing identification is provided.

請求項8に記載の発明は、請求項1〜7のいずれか一項に記載の翻訳装置において、
前記翻訳手段は、前記制御手段により特定された言語種の優先順位に基づいて該言語種の言語辞書を参照して特定の言語に翻訳を行うことを特徴とする。
The invention according to claim 8 is the translation device according to any one of claims 1 to 7,
The translating means translates into a specific language by referring to the language dictionary of the language type based on the priority order of the language type specified by the control means.

請求項9に記載の発明は、請求項1〜8のいずれか一項に記載の翻訳装置において、
前記言語辞書は、前記翻訳手段により特定の言語に翻訳された訳語に対応する音声データを更に記憶し、
前記翻訳手段が翻訳を行った訳語に対応する音声データから音声を生成し出力する音声出力手段を更に備えることを特徴とする。
Invention of Claim 9 is the translation apparatus as described in any one of Claims 1-8,
The language dictionary further stores voice data corresponding to the translated words translated into a specific language by the translation means,
It further includes voice output means for generating and outputting voice from voice data corresponding to the translated word translated by the translation means.

請求項10に記載の発明は、請求項1〜9のいずれか一項に記載の翻訳装置において、
前記制御手段により優先順位付けされた言語種の中から翻訳を行う言語種を使用者の操作により指定可能とする指定手段を更に備え、
前記翻訳手段は、前記指定手段により指定された言語種に対応する言語辞書のみを参照して翻訳を行うことを特徴とする。
The invention according to claim 10 is the translation device according to any one of claims 1 to 9,
Further comprising a specifying unit that allows a user to specify a language type for translation from among the language types prioritized by the control unit;
The translating means translates only with reference to a language dictionary corresponding to the language type designated by the designation means.

請求項11に記載の発明は、請求項1〜10のいずれか一項に記載の翻訳装置において、
前記翻訳手段が翻訳の対象とした言語種の履歴を記憶する履歴記憶手段を更に備え、
前記制御手段は、前記履歴記憶手段による言語種の履歴を更に参照して前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
Invention of Claim 11 is the translation apparatus as described in any one of Claims 1-10,
The translation means further comprises a history storage means for storing a history of language types to be translated,
The control means further refers to the history of the language type stored in the history storage means and assigns a priority order to the language type of the character string included in the video data, and performs identification.

請求項12に記載の発明は、請求項11に記載の翻訳装置において、
現在時刻の情報を出力する時計手段を更に備え、
前記記憶手段は、所定時刻と対応付けがなされ、前記翻訳手段で翻訳の対象とする言語種に関連する関連情報を更に記憶し、
前記制御手段は、前記現在時刻の情報に基づいて、前記履歴記憶手段に記憶された言語種の履歴に応じて対応する前記関連情報を前記表示手段に表示することを特徴とする。
The invention according to claim 12 is the translation apparatus according to claim 11,
It further comprises clock means for outputting current time information,
The storage means is associated with a predetermined time, and further stores related information related to a language type to be translated by the translation means,
The control means displays the related information corresponding to the history of the language type stored in the history storage means on the display means based on the information on the current time.

請求項13に記載の発明は、請求項1〜12のいずれか一項に記載の翻訳装置において、
前記表示手段はヘッドマウントディスプレイであることを特徴とする。
The invention according to claim 13 is the translation device according to any one of claims 1 to 12,
The display means is a head mounted display.

請求項14に記載の発明は、請求項13に記載の翻訳装置において、
前記ヘッドマウントディスプレイは外界光透過型であることを特徴とする。
The invention according to claim 14 is the translation device according to claim 13,
The head mounted display is an external light transmissive type.

請求項15に記載の発明は、請求項14に記載の翻訳装置において、
前記ヘッドマウントディスプレイは、映像信号から映像を生成して投射する映像表示器と、
前記映像表示器から投射された映像を採光して内部に導光するプリズムと
前記プリズムが導光した映像を回折しホログラム映像を瞳に導く回折フィルムとからなることを特徴とする。
The invention according to claim 15 is the translation device according to claim 14,
The head mounted display includes a video display for generating and projecting video from a video signal;
The image display device includes a prism for collecting and guiding an image projected from the image display device, and a diffraction film for diffracting an image guided by the prism and guiding a hologram image to a pupil.

請求項16に記載の発明は、対象物を撮像する撮像手段から取得した映像データに含まれる文字列を検出し、該文字列の文字種と、該文字種を使用する言語種とに対応する言語辞書を参照して特定の言語に翻訳処理を行うコンピュータに、
前記文字列から単語を抽出する単語抽出機能と、
翻訳の対象とする言語種毎の単語データを記憶する記憶機能と、
前記単語抽出機能によって抽出された単語と前記言語種毎の単語データとを参照し前記文字列の言語種に優先順位をつけて特定を行う言語種特定機能を実現することを特徴とするプログラムである。
The invention according to claim 16 is a language dictionary that detects a character string included in video data acquired from an imaging unit that images an object, and corresponds to a character type of the character string and a language type using the character type. To a computer that translates into a specific language with reference to
A word extraction function for extracting words from the character string;
A storage function for storing word data for each language type to be translated;
A program that realizes a language type specifying function that refers to the word extracted by the word extracting function and the word data for each language type and specifies the language type of the character string with priority. is there.

請求項17に記載の発明は、請求項16に記載のプログラムにおいて、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出機能を更に実現し、
前記記憶機能で、翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶し、
前記言語種特定機能で、前記文字種抽出機能により抽出した文字種データと前記言語種毎の文字種データ及び正書規則データを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
The invention according to claim 17 is the program according to claim 16,
Further realizing a character type extraction function for extracting a character type of a character string included in the video data,
In the storage function, further storing character type data and correct rule data for each language type to be translated,
The language type specifying function further refers to the character type data extracted by the character type extraction function, the character type data for each language type, and the orthography rule data, and prioritizes the language types of the character strings included in the video data. It is characterized by performing identification.

請求項18に記載の発明は、請求項16又17に記載のプログラムにおいて、
GPS信号を受信し位置情報を取得する位置検出機能を更に実現し、
前記記憶機能で、前記位置情報に対応付けられた言語種データを更に記憶し、
前記言語種特定機能で、前記位置情報と前記言語種データとを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
The invention according to claim 18 is the program according to claim 16 or 17,
Further realizing a position detection function for receiving GPS signals and acquiring position information,
The storage function further stores language type data associated with the position information,
The language type specifying function further refers to the position information and the language type data, and specifies the language type of the character string included in the video data with priority.

請求項19に記載の発明は、対象物を撮像する撮像手段から取得した映像データに含まれる文字列を検出し、該文字列の文字種と、該文字種を使用する言語種とに対応する言語辞書を参照して特定の言語に翻訳処理を行うコンピュータに、
GPS信号を受信し位置情報を取得する位置検出機能と、
前記位置情報に対応付けられた言語種データを記憶する記憶機能と、
前記位置情報と前記言語種データとを参照して前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う言語種特定機能を実現することを特徴とするプログラムである。
According to a nineteenth aspect of the present invention, there is provided a language dictionary that detects a character string included in video data acquired from an imaging unit that images an object, and corresponds to a character type of the character string and a language type using the character type To a computer that translates into a specific language with reference to
A position detection function for receiving GPS signals and acquiring position information;
A storage function for storing language type data associated with the position information;
A program that realizes a language type specifying function that specifies a language type of a character string included in the video data with priority by referring to the position information and the language type data.

請求項20に記載の発明は、請求項19に記載のプログラムにおいて、
前記映像データに含まれる文字列から単語を抽出する単語抽出機能を更に実現し、
前記記憶機能で、翻訳の対象とする言語種毎の単語データを更に記憶し、
前記言語種特定機能で、前記単語抽出機能により抽出した単語と前記言語種毎の単語データを更に参照して前記入力データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
The invention according to claim 20 is the program according to claim 19,
Further realizing a word extraction function for extracting words from a character string included in the video data,
The memory function further stores word data for each language type to be translated,
In the language type specifying function, the word type of the character string included in the input data is prioritized and specified by further referring to the word extracted by the word extraction function and the word data for each language type. Features.

請求項21に記載の発明は、請求項19に記載のプログラムにおいて、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出機能を更に実現し、
前記記憶機能で、翻訳を可能とする複数の言語種の文字種データ及び正書規則データを更に記憶し、
前記言語特定機能で、前記文字種抽出機能により抽出した文字種データと前記言語種毎の文字種データ及び正書規則データを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
The invention according to claim 21 is the program according to claim 19,
Further realizing a character type extraction function for extracting a character type of a character string included in the video data,
The memory function further stores character type data and orthographic rule data of a plurality of language types that enable translation,
The language specifying function further refers to the character type data extracted by the character type extraction function, the character type data for each language type, and the correct text rule data, and prioritizes the language type of the character string included in the video data. It is characterized by performing identification.

請求項22に記載の発明は、対象物を撮像する撮像手段から取得した映像データに含まれる文字列を検出し、該文字列の言語種と対応する言語辞書を参照して特定の言語に翻訳処理するコンピュータに、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出機能と、
翻訳の対象とする言語種毎の文字種データ及び正書規則データを記憶する記憶機能と、
前記文字種抽出機能が抽出した文字種データと前記複数の言語種の文字種データ及び正書規則データを参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う言語種特定機能を実現することを特徴とするプログラムである。
According to a twenty-second aspect of the present invention, a character string included in video data acquired from an imaging unit that captures an object is detected and translated into a specific language by referring to a language dictionary corresponding to the language type of the character string. On the computer to process
A character type extraction function for extracting a character type of a character string included in the video data;
A storage function for storing character type data and orthographic rule data for each language type to be translated;
Language type specification for specifying and specifying the priority of the language type of the character string included in the video data with reference to the character type data extracted by the character type extraction function, the character type data of the plurality of language types, and the orthographic rule data It is a program characterized by realizing a function.

請求項23に記載の発明は、請求項16〜22のいずれか一項に記載のプログラムにおいて、
前記言語特定機能により特定された複数の言語種の優先順位に基づいて該言語種の言語辞書を参照して前記映像データに含まれる文字列を特定の言語に翻訳する翻訳機能を実現する事を特徴とする。
The invention according to claim 23 is the program according to any one of claims 16 to 22,
Realizing a translation function for translating a character string included in the video data into a specific language by referring to the language dictionary of the language type based on the priority order of the plurality of language types specified by the language specifying function. Features.

請求項24に記載の発明は、請求項16〜23のいずれか一項に記載のプログラムにおいて、
前記言語種特定機能により特定した言語種の履歴を記憶する履歴記憶機能を更に実現し、
前記言語種特定機能で、前記履歴記憶機能による言語種の履歴を更に参照し、履歴が最新の言語種に基づいて前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする。
The invention according to claim 24 is the program according to any one of claims 16 to 23, wherein
Further realizing a history storage function for storing a history of the language type specified by the language type specifying function,
The language type specifying function further refers to the history of the language type by the history storage function and specifies the language type of the character string included in the video data based on the language type with the latest history. It is characterized by that.

請求項25に記載の発明は、請求項24に記載のプログラムにおいて、
前記記憶機能で、所定時刻と対応付けがなされ、翻訳処理の対象とする言語種に関連する関連情報を更に記憶し、
現在時刻の情報を出力する時計機能と、
前記時計機能による現在時刻の情報に基づいて、前記履歴記憶機能に記憶された言語種の履歴が最新の言語種に応じて前記関連情報を前記表示手段に表示させる表示機能を更に実現することを特徴とする。
The invention according to claim 25 is the program according to claim 24,
The storage function is associated with a predetermined time, and further stores related information related to the language type to be translated,
A clock function that outputs current time information,
Further realizing a display function for displaying the related information on the display unit according to the latest language type of the language type history stored in the history storage function based on the current time information by the clock function. Features.

請求項1に記載の発明によれば、翻訳装置が翻訳を行うに際し、単語抽出手段が文字列から単語を抽出し、この抽出した単語と記憶手段に記憶した言語種毎の単語データとを参照することにより撮像手段から取得した映像データに含まれる文字列の言語種を特定することができる。多言語翻訳では、文字種のみでは翻訳対象物の言語種を特定できない場合が多い。本発明では、更に単語と単語データの比較により言語種の特定を行うことで言語種の特定を行うことができる。また、言語種によっては同一の文字種及び同一の綴りを有する単語が存在することもあり言語種の特定に際し、翻訳対象物によっては複数の言語種が該当する場合もある。この点、本発明では制御手段が該当する言語種に優先順位を付けて特定を行うため、精度の高い言語種特定ができる。   According to the first aspect of the present invention, when the translation apparatus performs translation, the word extraction unit extracts a word from the character string, and refers to the extracted word and the word data for each language type stored in the storage unit. By doing so, the language type of the character string included in the video data acquired from the imaging means can be specified. In multilingual translation, there are many cases where the language type of the translation object cannot be specified only by the character type. In the present invention, the language type can be specified by further specifying the language type by comparing the word and the word data. Further, depending on the language type, there may be words having the same character type and the same spelling, and when specifying the language type, a plurality of language types may correspond depending on the translation object. In this regard, according to the present invention, the control means assigns a priority to the corresponding language type and specifies the language type, so that the language type can be specified with high accuracy.

請求項2に記載の発明によれば、請求項1に記載の翻訳装置において、更に映像データに含まれる文字列の文字種を抽出する文字抽出手段を備え、記憶手段に翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶するため、制御手段における言語種の特定の判断に単語、文字種及び正書規則を利用することができ、更に精度の高い多言語翻訳を行うことができる。また、言語種の特定に際し複数の言語種が該当する場合には、該当する言語種に優先順位を付けて特定を行う。即ち、上記3つの判断基準を満たす順に言語種の優先順位付けを行う。このためより精度の高い言語種特定ができる。   According to the second aspect of the present invention, the translation device according to the first aspect further comprises character extraction means for extracting the character type of the character string included in the video data, and the storage means includes the language type to be translated. Since the character type data and the correct text rule data for each are further stored, the word, the character type, and the correct text rule can be used for the specific determination of the language type in the control means, and more accurate multilingual translation can be performed. it can. In addition, when a plurality of language types correspond to the specification of the language type, the priority is given to the corresponding language type and specified. That is, prioritization of language types is performed in the order satisfying the above three criteria. Therefore, it is possible to specify a language type with higher accuracy.

請求項3に記載の発明によれば、請求項1又は2に記載の翻訳装置において、
更にGPS信号を受信し前記翻訳装置の位置情報を取得する位置検出手段を更に備え、この位置情報に対応付けられた言語種データを更に記憶手段に記憶するため、制御手段における言語種の特定の判断に単語、文字種、正書規則及び位置情報を利用することができ、更に精度の高い多言語翻訳を行うことができる。また、言語種の特定に際し複数の言語種が該当する場合には、該当する言語種に優先順位を付けて特定を行う。即ち、上記4つの判断基準を満たす順に言語種の優先順位付けを行う。このためより精度の高い多言語翻訳ができる。
According to invention of Claim 3, in the translation apparatus of Claim 1 or 2,
Further, a position detecting means for receiving the GPS signal and acquiring the position information of the translation device is further provided, and the language type data associated with the position information is further stored in the storage means. Words, character types, orthographic rules, and position information can be used for determination, and more accurate multilingual translation can be performed. In addition, when a plurality of language types correspond to the specification of the language type, the priority is given to the corresponding language type and specified. That is, prioritization of language types is performed in the order satisfying the above four criteria. Therefore, multilingual translation with higher accuracy can be performed.

請求項4に記載の発明によれば、翻訳装置が翻訳を行うに際し、位置情報検出手段から翻訳装置の位置を特定し、この位置情報に対応付けられた言語種データを参照すことにより撮像手段から取得した映像データに含まれる文字列の言語種を特定することができる。
また、文字種が同一であって言語種が異なる場合もある。本発明では、位置情報とこの位置情報に対応付けられた言語種データとの比較により言語種の特定を行うことができる。
According to the invention described in claim 4, when the translation apparatus performs translation, the position of the translation apparatus is specified from the position information detection means, and the imaging means is referred to by referring to the language type data associated with the position information. The language type of the character string included in the video data acquired from the above can be specified.
In addition, the character type may be the same and the language type may be different. In the present invention, the language type can be specified by comparing the position information with the language type data associated with the position information.

請求項5に記載の発明によれば、請求項4に記載の翻訳装置において、更に映像データに含まれる文字列の単語を抽出する単語抽出手段を備え、記憶手段に翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶するため、記憶手段に制御手段における言語種の特定の判断に単語及び位置情報を利用することができ、更に精度の高い多言語翻訳を行うことができる。また、言語種の特定に際し複数の言語種が該当する場合には、該当する言語種に優先順位を付けて特定を行う。即ち、上記2つの判断基準を満たす順に言語種の優先順位付けを行う。このためより精度の高い言語種特定ができる。   According to a fifth aspect of the present invention, the translation device according to the fourth aspect further comprises a word extracting means for extracting a word of a character string included in the video data, and a language type to be translated in the storage means. In order to further store the character type data and the orthographic rule data for each word, the storage unit can use the word and position information for specific determination of the language type in the control unit, and can perform multilingual translation with higher accuracy. it can. In addition, when a plurality of language types correspond to the specification of the language type, the priority is given to the corresponding language type and specified. That is, prioritization of language types is performed in the order satisfying the above two criteria. Therefore, it is possible to specify a language type with higher accuracy.

請求項6に記載の発明によれば、請求項4に記載の翻訳装置において、更に映像データに含まれる文字列の文字種を抽出する文字種抽出手段を備え、記憶手段に翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶するため、制御手段における言語種の特定の判断に位置情報、文字種及び正書規則を利用することができ、更に精度の高い多言語翻訳を行うことができる。また、言語種の特定に際し複数の言語種が該当する場合には、該当する言語種に優先順位を付けて特定を行う。即ち、上記3つの判断基準を満たす順に言語種の優先順位付けを行う。このためより精度の高い言語種特定ができる。   According to a sixth aspect of the present invention, in the translation device according to the fourth aspect, the character type extracting means for extracting the character type of the character string included in the video data is further provided, and the language type to be translated is stored in the storage means. Since each character type data and correct text rule data is further stored, position information, character type and correct text rules can be used for specific judgment of the language type in the control means, and more accurate multilingual translation can be performed. Can do. In addition, when a plurality of language types correspond to the specification of the language type, the priority is given to the corresponding language type and specified. That is, prioritization of language types is performed in the order satisfying the above three criteria. Therefore, it is possible to specify a language type with higher accuracy.

請求項7に記載の発明によれば、翻訳装置が翻訳を行うに際し、文字種抽出手段が文字列の文字種を抽出し、この抽出した文字種と記憶手段に記憶した言語種毎の文字種データ及び正書規則データを参照することにより撮像手段から取得した映像データに含まれる文字列の文字種を特定することができる。
また、文字種が同一で言語種が異なる場合もある。本発明では、文字種と正書規則データの比較により言語種の特定を行うことで言語種の特定を行うことができる。また、言語種の特定に際し、翻訳対象物によっては複数の言語種が該当する場合もある。この点、本発明では制御手段が該当する言語種に優先順位を付けて特定を行うため、精度の高い言語種特定ができる。
According to the seventh aspect of the present invention, when the translation device performs translation, the character type extracting unit extracts the character type of the character string, and the extracted character type and the character type data for each language type stored in the storage unit and the correct text By referring to the rule data, the character type of the character string included in the video data acquired from the imaging means can be specified.
In addition, the character type may be the same and the language type may be different. In the present invention, the language type can be specified by specifying the language type by comparing the character type and the correct text rule data. In addition, when specifying a language type, a plurality of language types may correspond depending on the translation object. In this regard, according to the present invention, the control means assigns a priority to the corresponding language type and specifies the language type, so that the language type can be specified with high accuracy.

請求項8に記載の発明によれば、請求項1〜7のいずれか一項に記載の翻訳装置において、文字列の翻訳に際し、制御手段により特定された言語種の優先順位に基づいて翻訳手段がこれら言語種の言語辞書を参照して翻訳を行うことができる。
言語種によっては同一の文字種及び同一の綴りを有する単語が存在することもあり翻訳対象物によっては複数の言語種が該当する場合もある。この点、本発明では制御手段により言語種に優先順位を付け、翻訳手段がこの優先順位に基づいて言語辞書を参照して翻訳を行うため、精度の高い多国語翻訳ができる。
According to invention of Claim 8, in the translation apparatus as described in any one of Claims 1-7, in the case of translation of a character string, a translation means based on the priority of the language kind specified by the control means Can translate by referring to the language dictionary of these language types.
Depending on the language type, there may be words having the same character type and the same spelling, and depending on the translation object, a plurality of language types may be applicable. In this respect, in the present invention, since priority is given to the language types by the control means, and the translation means performs translation by referring to the language dictionary based on this priority order, highly accurate multilingual translation can be performed.

請求項9に記載の発明によれば、請求項1〜8のいずれか一項に記載の翻訳装置において、翻訳手段により特定の言語に翻訳された訳語に対応する音声データを言語辞書に記憶し、音声出力手段がこの音声データから音声を生成し出力することで聴覚からも文字列の翻訳を取得することができる。   According to the invention described in claim 9, in the translation device according to any one of claims 1 to 8, speech data corresponding to a translated word translated into a specific language by the translation means is stored in the language dictionary. The voice output means generates and outputs voice from the voice data, so that the translation of the character string can be acquired from the auditory sense.

請求項10に記載の発明によれば、請求項1〜9のいずれか一項に記載の翻訳装置において、指定手段により言語種の指定が可能となり、翻訳手段この指定言語種の言語辞書を参照して文字列の翻訳を行うことができる。   According to the invention described in claim 10, in the translation device according to any one of claims 1 to 9, it is possible to specify the language type by the specifying unit, and the translation unit refers to the language dictionary of the specified language type. The character string can be translated.

請求項11に記載の発明によれば、請求項1〜10のいずれか一項に記載の翻訳装置において、履歴記憶手段を備え、制御手段の言語種特定に際しこの履歴を参照することによって更に精度の高い言語種の特定又は翻訳を行うことができる。例えば、旅行時には旅行先で使用される言語の翻訳が連続する場合が多い。前回翻訳対象とした言語種と今回翻訳対象となる言語種が一致する可能性が高い。このため、特定した言語種の履歴を言語種特定の判断基準にすることで、より精度の高い言語種の特定及び翻訳を行うことができる。   According to the eleventh aspect of the present invention, in the translation device according to any one of the first to tenth aspects, the history storage means is provided, and the accuracy is further improved by referring to the history when specifying the language type of the control means. High language types can be identified or translated. For example, when traveling, the language used in the travel destination is often translated continuously. There is a high possibility that the language type to be translated last time matches the language type to be translated this time. For this reason, by using the history of the specified language type as a criterion for specifying the language type, it is possible to specify and translate the language type with higher accuracy.

請求項12に記載の発明によれば、請求項11に記載の翻訳装置において、現在時刻の情報を出力する時計手段を更に備え、記憶手段に翻訳を可能とする言語種に関連する情報を所定時刻と対応付けを行って記録し、現在時刻情報に基づいて、履歴記憶手段に記憶された言語種の履歴に応じて対応する関連情報を表示することができる。例えば、履歴の有る言語がイタリア語で、所定時刻を正午とする。また正午は昼食どきであるため正午に対応する関連情報をレストランとする。正午になると履歴記憶手段を参照し、履歴がイタリア語であるとの情報を取得し表示手段にイタリアンレストランの情報を表示することができる。   According to a twelfth aspect of the present invention, in the translation device according to the eleventh aspect of the present invention, the translation device further includes a clock unit that outputs information on the current time, and the storage unit stores predetermined information related to the language type that enables translation Corresponding information is recorded in association with the time, and the related information corresponding to the language type history stored in the history storage means can be displayed based on the current time information. For example, the language with the history is Italian and the predetermined time is noon. In addition, since noon is lunchtime, related information corresponding to noon is used as a restaurant. At noon, it is possible to refer to the history storage means, acquire information that the history is in Italian, and display information on the Italian restaurant on the display means.

請求項13に記載の発明によれば、請求項1〜12のいずれか一項に記載の翻訳装置において、表示手段がヘッドマウントディスプレイであるため携行性に優れるという効果がある。   According to invention of Claim 13, in the translation apparatus as described in any one of Claims 1-12, since a display means is a head mounted display, there exists an effect that it is excellent in portability.

請求項14に記載の発明によれば、請求項13に記載の翻訳装置において、通常の視界に翻訳映像を重畳表示することができる。このため、翻訳対象物を視界でとらえながらにして訳語を確認することができる。   According to the fourteenth aspect of the present invention, in the translation device according to the thirteenth aspect, the translated video can be superimposed and displayed in the normal field of view. For this reason, it is possible to confirm the translation while grasping the translation object in the field of view.

請求項15に記載の発明によれば、請求項14に記載の翻訳装置において、通常の視界に翻訳映像を重畳表示することができる。このため、翻訳対象物を視界でとらえながらにして訳語を確認することができる。   According to the fifteenth aspect of the present invention, in the translation device according to the fourteenth aspect, the translated video can be displayed superimposed on the normal field of view. For this reason, it is possible to confirm the translation while grasping the translation object in the field of view.

請求項16に記載の発明によれば、コンピュータが翻訳を行うに際し、単語抽出機能により文字列から単語を抽出し、この抽出した単語を複数の言語種毎の単語データとを参照することにより撮像手段から取得した映像データに含まれる文字列の言語種を特定することができる。多言語翻訳では、文字種のみでは翻訳対象物の言語種を特定できない場合が多い。本発明では、更に単語と単語データの比較により言語種の特定を行うことで言語種の特定を行うことができる。また、言語種によっては同一の文字種及び同一の綴りを有する単語が存在することもあり言語種の特定に際し、翻訳対象物によっては複数の言語種が該当する場合もある。この点、本発明では言語種特定機能が該当する言語種に優先順位を付けて特定を行うため、精度の高い言語種特定ができる。   According to the invention described in claim 16, when a computer performs translation, a word is extracted from a character string by a word extraction function, and the extracted word is imaged by referring to word data for a plurality of language types. The language type of the character string included in the video data acquired from the means can be specified. In multilingual translation, there are many cases where the language type of the translation object cannot be specified only by the character type. In the present invention, the language type can be specified by further specifying the language type by comparing the word and the word data. Further, depending on the language type, there may be words having the same character type and the same spelling, and when specifying the language type, a plurality of language types may correspond depending on the translation object. In this respect, according to the present invention, the language type specifying function prioritizes the language type to which the language type corresponds, and therefore specifies the language type with high accuracy.

請求項17に記載の発明によれば、請求項16に記載のプログラムにおいて、更に映像データに含まれる文字列の文字種を抽出する文字種抽出機能を実現させ、記憶機能により翻訳に対応する複数の言語種の文字種データ及び正書規則データを更に記憶するため、言語種特定機能における言語種の特定の判断に単語、文字種及び正書規則を利用することができ、更に精度の高い言語種の特定を行うことができる。また、言語種の特定に際し複数の言語種が該当する場合には、該当する言語種に優先順位を付けて特定を行う。即ち、上記3つの判断基準を満たす順に言語種の優先順位付けを行う。このためより精度の高い言語種特定ができる。   According to the invention described in claim 17, in the program described in claim 16, a character type extracting function for extracting a character type of a character string included in video data is further realized, and a plurality of languages corresponding to translation by a storage function In order to further store the character type data and the orthographic rule data, it is possible to use the word, the character type, and the normal rule for the determination of the language type in the language type specifying function, and to specify the language type with higher accuracy. It can be carried out. In addition, when a plurality of language types correspond to the specification of the language type, the priority is given to the corresponding language type and specified. That is, prioritization of language types is performed in the order satisfying the above three criteria. Therefore, it is possible to specify a language type with higher accuracy.

請求項18に記載の発明によれば、請求項16又17に記載のプログラムにおいて、
更にGPS信号を受信し位置情報を取得する位置検出機能を更に実現し、記憶手段でこの位置情報に対応付けられた言語種データを更に記憶するため、言語種特定機能における言語種の特定の判断に単語、文字種、正書規則及び位置情報を利用することができ、更に精度の高い言語種特定を行うことができる。
According to the invention of claim 18, in the program of claim 16 or 17,
Further, the position detection function for receiving the GPS signal and acquiring the position information is further realized, and the language type data associated with the position information is further stored in the storage means. In addition, it is possible to use a word, a character type, a regular text rule, and position information, and to specify a language type with higher accuracy.

請求項19に記載の発明によれば、コンピュータが翻訳を行うに際し、位置情報検出機能からコンピュータの位置を検出し、この位置情報に対応付けられた言語種データを参照すことにより撮像手段から取得した映像データに含まれる文字列の言語種を特定することができる。
多言語翻訳では、文字種のみでは翻訳対象物の言語種を特定できない場合が多い。本発明では、位置情報とこの位置情報に対応付けられた言語種データとの比較により言語種の特定を行うことができる。
According to the nineteenth aspect of the present invention, when the computer performs translation, the position of the computer is detected from the position information detection function, and acquired from the imaging means by referring to the language type data associated with the position information. The language type of the character string included in the processed video data can be specified.
In multilingual translation, there are many cases where the language type of the translation object cannot be specified only by the character type. In the present invention, the language type can be specified by comparing the position information with the language type data associated with the position information.

請求項20に記載の発明によれば、請求項19に記載のプログラムにおいて、単語抽出手段により映像データに含まれる文字列の単語を抽出し、記憶機能で翻訳の対象とする言語種毎の単語データを更に記憶するため、言語種特定機能における言語種の特定の判断に単語及び位置情報を利用することができ、更に精度の高い言語種特定を行うことができる。   According to the twentieth aspect of the invention, in the program according to the nineteenth aspect, the word of the character string included in the video data is extracted by the word extracting means, and the word for each language type to be translated by the storage function Since the data is further stored, the word and position information can be used for specifying the language type in the language type specifying function, and the language type can be specified with higher accuracy.

請求項21に記載の発明によれば、請求項19に記載のプログラムにおいて、文字種抽出機能により映像データに含まれる文字列の文字種を抽出し、記憶機能で翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶するため、言語種特定機能で言語種の特定の判断に単語及び位置情報を利用することができ、更に精度の高い言語種特定を行うことができる。   According to the invention of claim 21, in the program of claim 19, the character type of the character string included in the video data is extracted by the character type extraction function, and the character type for each language type to be translated by the storage function Since the data and the orthographic rule data are further stored, the language type specifying function can use the word and position information for specifying the language type, and the language type can be specified with higher accuracy.

請求項22に記載の発明によれば、コンピュータが翻訳を行うに際し、文字種抽出機能により文字列の文字種を抽出し、この文字種と記憶機能で記憶した言語種毎の文字種データ及び正書規則データとを言語種特定機能で参照することにより撮像手段から取得した映像データに含まれる文字列の言語種を特定することができる。多言語翻訳では、文字種のみでは翻訳対象物の言語種を特定できない場合が多い。本発明では、文字種と正書規則データの比較により言語種の特定を行うことで言語種の特定を行うことができる。   According to the invention described in claim 22, when the computer translates, the character type of the character string is extracted by the character type extraction function, and the character type data and the orthography rule data for each language type stored by the character type and the storage function, Can be specified by the language type specifying function to specify the language type of the character string included in the video data acquired from the imaging means. In multilingual translation, there are many cases where the language type of the translation object cannot be specified only by the character type. In the present invention, the language type can be specified by specifying the language type by comparing the character type and the correct text rule data.

請求項23に記載の発明によれば、請求項16〜22のいずれか一項に記載のプログラムにおいて、文字列の翻訳に際し、言語種特定手段により特定された言語種の優先順位に基づいて該当する言語種の言語辞書を参照して翻訳を行うことができる。
言語種によっては同一の文字種及び同一の綴りを有する単語が存在すること等もあり翻訳対象物によっては複数の言語種が該当する場合もある。この点、本発明では言語種特定機能により言語種に優先順位を付け、翻訳手段がこの優先順位に基づいて言語辞書を参照して翻訳を行うため、精度の高い多国語翻訳ができる。
According to the invention described in claim 23, in the program according to any one of claims 16-22, the character string is translated based on the priority of the language type specified by the language type specifying means. Translation can be performed by referring to the language dictionary of the language type to be selected.
Depending on the language type, there may be words having the same character type and the same spelling, etc., and depending on the translation object, a plurality of language types may be applicable. In this respect, according to the present invention, the language type specifying function assigns priorities to the language types, and the translation unit performs translation by referring to the language dictionary based on the priorities, so that highly accurate multilingual translation can be performed.

請求項24に記載の発明によれば、請求項16〜23のいずれか一項に記載のプログラムにおいて、言語種特定機能による言語種特定に履歴記憶機能による翻訳回数を参照することで、より精度の高い言語種の特定又は翻訳を行うことができる。即ち、旅行時では、旅行先で使用される言語の翻訳が連続する場合が多い。前回翻訳を行った言語種と今回の翻訳処理が一致する可能性が高い。このため、言語種ごとの履歴を言語種の特定の判断基準にすることでより精度の高い言語種の特定及び多言語翻訳を行うことができる。   According to the invention of claim 24, in the program according to any one of claims 16 to 23, by referring to the number of translations by the history storage function for the language type specification by the language type specification function, the accuracy can be further improved. High language types can be identified or translated. That is, when traveling, the language used in the travel destination is often translated continuously. There is a high possibility that the language type that was translated last time matches the current translation process. For this reason, it is possible to specify the language type with higher accuracy and perform multilingual translation by using the history for each language type as a specific criterion for determining the language type.

請求項25に記載の発明によれば、請求項24に記載のプログラムにおいて、記憶機能で翻訳の対象とする言語種毎に関連する情報を所定時刻と対応付けを行って記録し、現在時刻の情報を出力する時計機能からの現時時刻情報に基づいて、履歴記憶機能に記憶された言語種の履歴に応じ対応する関連情報を表示することができる。
例えば、履歴がイタリア語で、所定時刻を正午とする。また正午は昼食どきであるため正午に対応する関連情報をレストランとする。正午になると履歴記憶手段を参照し履歴がイタリア語であるとの情報を取得しイタリアンレストランの情報を表示することができる。
According to the invention described in claim 25, in the program described in claim 24, information related to each language type to be translated by the storage function is recorded in association with a predetermined time, and the current time is recorded. Based on the current time information from the clock function that outputs the information, the related information corresponding to the language type history stored in the history storage function can be displayed.
For example, the history is Italian and the predetermined time is noon. In addition, since noon is lunchtime, related information corresponding to noon is used as a restaurant. At noon, it is possible to obtain information that the history is in Italian by referring to the history storage means and display information on the Italian restaurant.

次に、図を用いて本発明をヘッドマウントディスプレイに適用した形態について説明する。
本実施の形態におけるヘッドマウントディスプレイは、視線方向の文字列や文章を電子映像として捉えて画像処理により文字認識を行い、各種の言語種特定要素から言語種の特定を行い、予め定められた言語に翻訳し眼前に設けられた表示装置に訳語の表示を行う多言語翻訳機能を有するものである。また、この言語種を特定する処理において特定された言語種の特定履歴を記憶し、所定の時間になると最新の特定履歴から遡って特定回数の多い言語種に関連する情報を表示装置に表示して、ユーザに翻訳対象物の言語種に関係する付随情報を提供する機能を有するものである。
Next, the form which applied this invention to the head mounted display is demonstrated using figures.
The head-mounted display in the present embodiment recognizes character strings and sentences in the line of sight as electronic images, performs character recognition by image processing, specifies language types from various language type specifying elements, and determines a predetermined language And a multilingual translation function for displaying translated words on a display device provided in front of the eyes. In addition, the specific history of the language type specified in the process of specifying the language type is stored, and information related to the language type having a specific number of times is displayed on the display device retroactively from the latest specific history at a predetermined time. Thus, the user has a function of providing accompanying information related to the language type of the translation object.

図1に、ヘッドマウントディスプレイ1の外観構成を示す。なお、以下の説明において、接眼方向と反対の方向を正面とする。
ヘッドマウントディスプレイ1は、通常の眼鏡と同様に、鼻当て2及びテンプル3R及び3Lが備えられるフレーム4とレンズ部5R及び5Lを有する。このフレーム4のレンズ部5Rの上方には、ユーザの視線方向の映像を捕らえるCCDカメラ7及びコントロールボックス9から送信される映像信号から映像を表示させる表示装置6が一体となって設置されている。また、テンプル3R及び3Lのそれぞれの中間部にケーブルが支持されてイヤホン8R及び8Lがユーザの耳に装着可能に設けられている。表示装置6、CCDカメラ7及びイヤホン8R、8Lは、それぞれケーブル14を介してコントロールボックス9に接続される。
FIG. 1 shows an external configuration of the head mounted display 1. In the following description, the direction opposite to the eyepiece direction is the front.
The head mounted display 1 includes a frame 4 provided with a nose pad 2 and temples 3R and 3L, and lens portions 5R and 5L, as in normal glasses. Above the lens portion 5R of the frame 4, a CCD camera 7 that captures an image in the direction of the user's line of sight and a display device 6 that displays an image from a video signal transmitted from the control box 9 are integrally installed. . Further, cables are supported at the intermediate portions of the temples 3R and 3L, and the earphones 8R and 8L are provided so as to be attachable to the user's ears. The display device 6, the CCD camera 7, and the earphones 8R and 8L are connected to the control box 9 via cables 14, respectively.

コントロールボックス9には、スイッチ10、十字キー11、電源スイッチ12及び電源である電池39が設けられる。スイッチ10は、後述する言語特定処理においてユーザの操作により「翻訳モード」の起動及び入力決定を行うものである。十字キー11は、「翻訳モード」起動時に、アプリケーションに従った各種の入力操作を適宜行うものである。   The control box 9 is provided with a switch 10, a cross key 11, a power switch 12, and a battery 39 as a power source. The switch 10 activates the “translation mode” and determines an input by a user operation in a language specifying process to be described later. The cross key 11 appropriately performs various input operations according to the application when the “translation mode” is activated.

図2に、表示装置6の左方向からの側断面図を示す。表示装置6は、映像生成ユニット15と接眼光学系16とからなる。表示装置6の本体となる筐体17の内部には、コントロールボックス9から送信される映像信号から映像を生成する透過型の液晶表示器18、バックライト光源である複数のLED(Light Emitting Diode)群19及びLED群19からの照射光を液晶表示器18の全面に導くための照明光学系20が設けられる。接眼光学系16は、更にプリズム21とホログラム素子22とからなる。ホログラム素子22はレンズ部5と接眼光学系16との下端部接合面と略同一の大きさを有するシート状の部材からなり、プリズム21とレンズ部5との下端部接合面に挟まれるにように設けられる。   In FIG. 2, the side sectional view from the left direction of the display apparatus 6 is shown. The display device 6 includes a video generation unit 15 and an eyepiece optical system 16. Inside a casing 17 serving as a main body of the display device 6, a transmissive liquid crystal display 18 that generates an image from an image signal transmitted from the control box 9, and a plurality of LEDs (Light Emitting Diodes) that are backlight light sources. An illumination optical system 20 for guiding the irradiation light from the group 19 and the LED group 19 to the entire surface of the liquid crystal display 18 is provided. The eyepiece optical system 16 further includes a prism 21 and a hologram element 22. The hologram element 22 is formed of a sheet-like member having substantially the same size as the lower end joint surface between the lens unit 5 and the eyepiece optical system 16 and is sandwiched between the lower end joint surfaces between the prism 21 and the lens unit 5. Provided.

プリズム21の上端部は正面方向に厚い楔の形状を有し、液晶表示器18から照射される映像光束を採光しやすいように形成されている。この上端部から採光された映像光束は、プリズム21の内部で全反射されながら下端部に設けられたホログラム素子22へと導かれる。ホログラム素子22は光を干渉させ、眼球Eに虚像を結ばせるものである。
また、接眼光学系16は、レンズ部5Rと光の屈折率を同一とする単一の部材で構成されており、表面方向が段差なく連続するように接合されている。ユーザは、レンズ部5及び接眼光学系16を通して外界の視界を観察することが可能であるとともに、ホログラム素子22によって外界視界と重畳する映像を観察することが可能となっている。
The upper end of the prism 21 has a thick wedge shape in the front direction, and is formed so that the image light beam emitted from the liquid crystal display 18 can be easily taken. The image light beam collected from the upper end is guided to the hologram element 22 provided at the lower end while being totally reflected inside the prism 21. The hologram element 22 interferes light and forms a virtual image on the eyeball E.
The eyepiece optical system 16 is composed of a single member having the same refractive index of light as the lens unit 5R, and is joined so that the surface direction is continuous without a step. The user can observe the external field of view through the lens unit 5 and the eyepiece optical system 16 and can observe an image superimposed on the external field of view through the hologram element 22.

図3に、ヘッドマウントディスプレイ1の機能的構成を示す。ヘッドマウントディスプレイ1は、撮像部25、画像処理部26、制御部27、記憶部28、翻訳エンジン29、通信部30、表示部31、音声出力部32、表示部及び操作入力部33から構成される。   FIG. 3 shows a functional configuration of the head mounted display 1. The head mounted display 1 includes an imaging unit 25, an image processing unit 26, a control unit 27, a storage unit 28, a translation engine 29, a communication unit 30, a display unit 31, a voice output unit 32, a display unit, and an operation input unit 33. The

撮像部25はCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の光電変換素子を用いたカメラからなる。本実施の形態ではCCDカメラ7を適用している。撮像部25で取得された映像信号は図示しないCDS(Correlated Double Sampling)回路やA/D(Analog/Digital)変換回路によりアナログ映像信号の相関二重サンプリングが行われて雑音が低減除去されるとともにゲイン調整が行われ、デジタル映像信号に変換された後画像処理部26に送信される。   The imaging unit 25 includes a camera using a photoelectric conversion element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) image sensor. In this embodiment, a CCD camera 7 is applied. The video signal acquired by the imaging unit 25 is subjected to correlated double sampling of an analog video signal by a CDS (Correlated Double Sampling) circuit or an A / D (Analog / Digital) conversion circuit (not shown) to reduce and remove noise. The gain is adjusted, converted into a digital video signal, and transmitted to the image processing unit 26.

画像処理部26は、DSP(Digital Signal Processor)とグラフィックメモリとから構成される。撮像部25から送信された映像信号から文字列をパターンマッチングにより抽出する文字列等抽出処理を行い、この文字列等抽出処理により抽出されたデータ(以下、単に「抽出文字データ」)を記憶部28に送信する。
文字列等抽出処理は、補正処理、特徴抽出処理及び文字等認識処理の3段階に分けられる。
The image processing unit 26 includes a DSP (Digital Signal Processor) and a graphic memory. A character string extraction process for extracting a character string from the video signal transmitted from the imaging unit 25 by pattern matching is performed, and data extracted by the character string extraction process (hereinafter, simply “extracted character data”) is stored in the storage unit. 28.
The character string extraction process is divided into three stages: a correction process, a feature extraction process, and a character recognition process.

補正処理は、映像データのノイズ除去、平滑化、鮮鋭化、2次元フィルタリング、後述の特徴抽出を容易に行うために映像を2値映像に変換する2値化、認識対象とする図形や文字の骨格線を抽出する細線化、最終段階での映像照合であるパターンマッチングをより正確に行うために映像を拡大、縮小、平行移動、回転及び濃度変換に関する正規化等であり、文字等認識処理の前処理として行われる。   The correction process includes noise removal, smoothing, sharpening, two-dimensional filtering, binarization for converting a video into a binary video for easy feature extraction described later, and a figure or character to be recognized. Thinning to extract skeletal lines, normalization related to enlargement, reduction, translation, rotation, and density conversion for more accurate pattern matching, which is image matching at the final stage. Performed as pre-processing.

特徴抽出処理は、エッジ検出処理を適用している。映像信号に含まれる色の濃度値から濃度の変換点を抽出し、映像の不連続部分をエッジとして抽出しこのエッジを境界線として映像をいくつかの連続領域に分割する処理である。ラプラシアン(2次微分)処理やハフ変換処理等により行われる。なお、濃度映像からエッジ検出を行う場合には所々で途切れている場合が多いが、この場合は膨張法、収縮法及び延長跡法等により切れている点列を繋ぐ処理が行われる。   In the feature extraction process, an edge detection process is applied. In this processing, density conversion points are extracted from density values of colors included in the video signal, a discontinuous portion of the video is extracted as an edge, and the video is divided into several continuous areas using the edge as a boundary line. This is performed by Laplacian (secondary differentiation) processing, Hough transform processing, or the like. When edge detection is performed from density images, there are many cases where there are interruptions in some places. In this case, processing for connecting point sequences that are broken by an expansion method, a contraction method, an extended trace method, or the like is performed.

文字認識処理は、パターンマッチング法を用いる構成としている。パターンマッチング法は、後述する記憶部28に予め記憶された各種文字等のパターンデータと上述した特徴抽出処理によりエッジ強調された映像データとを電子的に重ね合わせ、最もよく類似したものを文字等と見なす手法である。具体的には、2つのデータから画素データレベル対応の相関(画素値の一致比率)を調べることにより判別を行う。   The character recognition process uses a pattern matching method. The pattern matching method electronically superimposes pattern data such as various characters stored in advance in the storage unit 28, which will be described later, and video data that has been edge-enhanced by the above-described feature extraction processing, and uses the most similar data such as characters. It is a technique to consider. Specifically, the determination is performed by examining the correlation (pixel value matching ratio) corresponding to the pixel data level from the two data.

記憶部28は、不揮発性の半導体メモリから構成される。ヘッドマウントディスプレイ1での各種処理におけるデータを一時又は恒常的に記憶する。本実施の形態では小型軽量化を図るためにEEPROM(Electric Erasable and Programmable ROM)を適用している。画像処理部26から送信される抽出文字データを格納し制御部27からのデータ要求指示信号に応じて適宜抽出文字データを送信する。また、通信部30から送信される座標データに対応する地図情報及びこの地図情報に対応する各地域使用言語データや後述する「関連情報表示モード」で使用する関連データが予め記憶される。また、言語種特定処理で使用される文字種データ、単語データ及び正書規則データも記憶される。   The storage unit 28 is composed of a nonvolatile semiconductor memory. Data in various processes in the head mounted display 1 is temporarily or permanently stored. In this embodiment, an EEPROM (Electric Erasable and Programmable ROM) is applied to reduce the size and weight. The extracted character data transmitted from the image processing unit 26 is stored, and the extracted character data is appropriately transmitted in response to a data request instruction signal from the control unit 27. Further, the map information corresponding to the coordinate data transmitted from the communication unit 30, the local language data corresponding to the map information, and the related data used in the “related information display mode” described later are stored in advance. In addition, character type data, word data, and correct text rule data used in the language type specifying process are also stored.

制御部27は、CPU(Central Processing Unit)35、ROM(Read Only Memory)36、RAM(Random Access Memory)37から構成される。CPU35は、ROM36に予め記憶されたプログラムをRAM37に展開し、プログラムの指示に従いヘッドマウントディスプレイ1の全体制御を行う。「翻訳モード」起動時には、記憶部28に記憶された抽出文字データを要求し、後述する言語種特定処理により抽出文字等データの言語種の特定を行い、特定した言語種のデータと抽出文字等データとを記憶部28に送信する。制御部27は図示しない時計回路を有し、各種信号処理の同期を図る他、現在時刻を計時し適宜出力するとともに各種データの記録等において記録年月日等のデータを供給する。また、言語種特定処理で特定された言語種の特定履歴を記憶部28に記憶するカウンタ38を設け、この特定履歴データ、現在時刻データ及び後述するGPS(Global Positioning system)による位置情報を参照することにより、予め記憶部28に記憶された関連情報を表示装置6に表示する「関連情報表示モード」を実行する。なお、「関連情報表示モード」については後述する。   The control unit 27 includes a CPU (Central Processing Unit) 35, a ROM (Read Only Memory) 36, and a RAM (Random Access Memory) 37. The CPU 35 develops a program stored in advance in the ROM 36 in the RAM 37, and performs overall control of the head mounted display 1 in accordance with the instructions of the program. When the “translation mode” is activated, the extracted character data stored in the storage unit 28 is requested, the language type of the extracted character data is specified by the language type specifying process described later, the specified language type data and the extracted character, etc. Data is transmitted to the storage unit 28. The control unit 27 has a clock circuit (not shown), synchronizes various signal processes, measures the current time and outputs it appropriately, and supplies data such as the recording date in recording various data. In addition, a counter 38 is provided for storing the specific history of the language type specified in the language type specifying process in the storage unit 28, and the specific history data, current time data, and position information by GPS (Global Positioning System) described later are referred to. Thus, the “related information display mode” for displaying the related information stored in advance in the storage unit 28 on the display device 6 is executed. The “related information display mode” will be described later.

翻訳エンジン29は、抽出文字データと言語種データとから予めユーザ等に設定された特定言語への翻訳を行うものである。LSI(Large Scale Integration)等を用いたハード的な構成とすることも可能であるし、ソフトウェア的に制御部27に翻訳機能を持たせる構成としてもよい。具体的には、図示しない単語辞書等を参照しながら抽出文字データを単語単位に分割する形態素解析、形態素間の接続関係等に基づいて構文構造を求める構文解析、各種言語及びこの言語の音声データが予め記憶された言語辞書から言語種データに基づいてこの言語種辞書の検索を行い、予め指定された言語(例えば、日本語等。)に翻訳を行う翻訳処理を行う。翻訳したテキストデータ及び音声データを制御部27に送信する。   The translation engine 29 translates the extracted character data and language type data into a specific language set in advance by the user or the like. It is possible to adopt a hardware configuration using LSI (Large Scale Integration) or the like, or a configuration in which the control unit 27 has a translation function in software. Specifically, morphological analysis that divides extracted character data into words while referring to a word dictionary (not shown), syntactic analysis for obtaining a syntax structure based on the connection relationship between morphemes, various languages, and voice data of this language This language type dictionary is searched from a language dictionary stored in advance based on the language type data, and a translation process is performed for translation into a predesignated language (for example, Japanese). The translated text data and voice data are transmitted to the control unit 27.

通信部30は、GPSにより人工衛星Sから送信される座標データを受信して記憶部28に予め記憶された地図情報からユーザの現在地を特定し、特定された現在地データを制御部27に送信する。   The communication unit 30 receives coordinate data transmitted from the artificial satellite S by GPS, identifies the current location of the user from the map information stored in advance in the storage unit 28, and transmits the identified current location data to the control unit 27. .

表示部31は表示装置6に対応するものであり、翻訳エンジン29で所定の言語に翻訳された翻訳文等を表示する。音声出力部32は、翻訳エンジンから送信される音声翻訳データをイヤホン8R及び8Lに出力する。   The display unit 31 corresponds to the display device 6 and displays a translated sentence translated into a predetermined language by the translation engine 29. The voice output unit 32 outputs the voice translation data transmitted from the translation engine to the earphones 8R and 8L.

次に、制御部27で処理される言語種特定処理について説明する。言語種特定処理とは通信部30からのGPSデータ、単語、文字種及び各種言語の正書規則から抽出文字データの言語種を特定する処理である。また、言語種特定処理により特定した言語種の特定履歴を記憶部28に記憶し、次回の言語種特定処理でこの特定履歴を参照し言語種の特定の精度を上げる処理を行う。一般に、前回特定した言語種は次回の翻訳対象物の言語種と同一である場合が多いためである。   Next, language type identification processing processed by the control unit 27 will be described. The language type specifying process is a process of specifying the language type of the extracted character data from the GPS data from the communication unit 30, the word, the character type, and the correct text rules of various languages. In addition, the history of the language type specified by the language type specifying process is stored in the storage unit 28, and the process of increasing the accuracy of specifying the language type is performed by referring to this specific history in the next language type specifying process. This is because, in general, the language type specified last time is often the same as the language type of the next translation object.

また、本実施の形態における言語種の特定処理では、GPSデータ、単語、文字種及び各種言語の正書規則といった4種類の言語種特定要素を参照しながら言語種の特定を行うようになっているが、これらの内1種類の言語種特定要素を用いても言語種の特定は可能である。しかしながら、抽出文字データを1つの言語種に特定できる場合と、複数の言語種を特定する場合がある。例えば「memoria」という単語は「記憶」という意味であるが、この語は同一の文字種(ラテンスクリプト)イタリア語とスペイン語の両方に存在する単語である。同様に「intention」は英語とフランス語に、「marine」はドイツ語とフランス語に存在する。このように文字種や単語だけでは言語種の完全な特定ができない場合には、GPSデータからユーザの位置を判別し、該当する位置(地域、国等)の言語を第一として優先順位をつけて言語種の特定を行う。更には、抽出文字データから言語種に固有の正書規則を判別しこの判断結果から言語種の特定(優先順位)を行ったり、言語種の特定履歴を参照し言語特定の参照データとして活用する。言語種特定要素を複数参照することでより精度の高い言語種の特定が可能となる。   Further, in the language type specifying process in the present embodiment, the language type is specified while referring to four types of language type specifying elements such as GPS data, words, character types, and various types of normal writing rules. However, the language type can be specified using one of these types of language type specifying elements. However, there are cases where extracted character data can be specified as one language type and cases where a plurality of language types are specified. For example, the word “memory” means “memory”, but this word is a word that exists in both Italian and Spanish of the same character type (Latin script). Similarly, “intention” exists in English and French, and “marine” exists in German and French. In this way, when the language type cannot be completely specified only by the character type or word, the position of the user is determined from the GPS data, and the priority is given with the language of the corresponding position (region, country, etc.) as the first. Specify the language type. Furthermore, the correct type rule specific to the language type is discriminated from the extracted character data, and the language type is specified (priority order) from the determination result, or the language type specific history is referred to and used as the language-specific reference data. . By referring to a plurality of language type specifying elements, it is possible to specify a language type with higher accuracy.

ここで、「正書規則」について説明する。正書規則とは、言語をディスプレイ等で表示するとき又は印刷を行う際に適用される文字列の表記上の規則をいう。言語種等毎に特有の正書規則が存在するが、代表的な規則として〔1〕アクセント記号、〔2〕リガチャー(文字近接)、〔3〕文字出現位置による字形変化、〔4〕連結文字、〔5〕書記方向による字形変化、〔6〕文字配列方向、〔7〕特定文字配列時の字形変化(カーニング)、〔8〕ジャスティフィケーション(行頭、行末のそろえ方等)及び〔9〕ハイフネーションと綴り変化の関係が挙げられる。   Here, the “correct text rule” will be described. The correct book rule is a rule on the notation of a character string applied when a language is displayed on a display or the like or when printing is performed. There are regular rules for each language type, but the typical rules are: [1] Accent symbol, [2] Ligature (character proximity), [3] Character shape change by character appearance position, [4] Concatenated characters , [5] Character shape change depending on writing direction, [6] Character array direction, [7] Character shape change (kerning) at specific character array, [8] Justification (how to align line head, line end, etc.) and [9] The relationship between hyphenation and spelling changes.

〔1〕アクセント記号
表記に用いられる文字にアクセント記号を付加するものである。ラテン系言語、ギリシャ語及びベトナム語に見られる。図4(a)にイタリア語、図4(b)にギリシャ語におけるアクセント記号の一例を示す。文字列中にこのようなアクセント記号を判別した際に、他の文字種やGPSデータ等と総合的に判断して抽出文字データの言語種の優先順位を決定することが可能となる。
[1] Accent symbols Accent symbols are added to characters used for notation. Found in Latin, Greek and Vietnamese. FIG. 4A shows an example of accent symbols in Italian, and FIG. 4B shows examples of accent symbols in Greek. When such an accent symbol is discriminated in the character string, it becomes possible to determine the priority order of the language type of the extracted character data by comprehensively judging with other character types, GPS data and the like.

〔2〕リガチャ−(文字近接)
表記上の美的観点より複数の文字を合わせた活字が利用される場合がある。図5(a)にラテン語系のリガチャ−を示す。図に示すように“f”と“f”、“f”と“i”、“f”と“l”をそれぞれ文字の一部分を繋げて連続的に表記する。また、図5(b)にドイツ語の「エスツェット」の例を示す。sz又はssはsと表記される場合がある。
[2] Ligature (character proximity)
From the aesthetic point of view of the notation, there are cases in which a combination of characters is used. FIG. 5A shows a Latin ligature. As shown in the figure, “f” and “f”, “f” and “i”, and “f” and “l” are successively expressed by connecting a part of each character. FIG. 5B shows an example of German “Esset”. sz or ss may be expressed as s.

〔3〕位置による字形の変化
単語内での文字の位置や前後に来る文字によって、基本形状以外の文字形状に変化する場合がある。特にアラビア語系言語に多く見られる。図6に示すようにアラビア語系言語では、単語中の文字の位置によって独立形、語頭形、語中形及び語尾形と文字形状が変化する。なお、通常このような規則がない言語においてもフォントの種類によって前後の文字によって字形が変化する場合がある。例えば英語の筆記体フォントが挙げられる。
[3] Change in character shape depending on position Depending on the position of the character in the word and the characters before and after the character, the character shape may change to a shape other than the basic shape. This is especially true for Arabic languages. As shown in FIG. 6, in the Arabic language language, the character shape changes depending on the position of the character in the word, such as the independent form, the head form, the middle form and the ending form. Note that, even in languages that do not have such rules, the character shape may change depending on the characters before and after the font type. An example is the English cursive font.

〔4〕連結文字
インド系のほとんどの言語系では、連結と呼ばれる特殊な正書規則が存在する。複雑な規則であり、上述したリガチャ−、位置による字形変化等に似た規則である。図7にデーバナーガリー文字の一例を示す。
[4] Concatenated characters In most Indian languages, there is a special orthography rule called concatenation. This is a complicated rule similar to the above-described ligature, character shape change depending on position, and the like. FIG. 7 shows an example of Devanagari characters.

〔5〕書記方向による字形変化
日本語、中国後又は韓国語のように、1つの言語で縦方向と横方向の2つの異なる書記方向をもつものがある。書記方向で字形が変化するものがある。図8に、日本語における例を示す。「スタート」という単語を横書きした場合、長音記号は“ー”と書き表すが、縦書きの場合は“|”と書き表す。
[5] Change in character shape according to writing direction Some languages, such as Japanese, Chinese, or Korean, have two different writing directions, vertical and horizontal. Some characters change in writing direction. FIG. 8 shows an example in Japanese. When the word “start” is written horizontally, the long clef symbol is written as “−”, but when written vertically, it is written as “|”.

〔6〕文字配列方向
全ての言語に共通して、文字は特定の直線方向に配列される。図9(a)に示す英単語「direction」は左から右の直線方向に文字を配列する。日本語の例では、図9(b)に示すように「文章」という語を上から下の直線方向に配列する。また、図示しないがアラビア語では右から左の直線方向に文字を配列する。
[6] Character arrangement direction Common to all languages, characters are arranged in a specific linear direction. The English word “direction” shown in FIG. 9A arranges characters in a straight line direction from left to right. In the Japanese example, the word “sentence” is arranged in a linear direction from top to bottom as shown in FIG. Although not shown, in Arabic, characters are arranged in a straight line direction from right to left.

〔7〕特定文字配列時の字形変化(カーニング)
特定の2文字を配列する場合、お互いの文字の形状に応じて文字の間隔を微妙に調整するいわゆるカーニングという正書規則がある。図10にローマ字の「A」と「t」及び「o」と「e」の関係について示す。図10(a)で、「A」の次に「t」を配列する場合、文字間隔Hは他の文字が配列される場合より狭く調整される。同様に、図10(b)で、「o」の次に「e」を配列する場合も文字間隔Hは狭く調整される。文字が有する形状や大きさの関係より文字間隔を調整し視覚的な違和感を調整する規則である。
[7] Character shape change (kerning) when specific characters are arranged
When two specific characters are arranged, there is a so-called kerning normal rule that finely adjusts the character spacing according to the shape of each other. FIG. 10 shows the relationship between the Roman letters “A” and “t” and “o” and “e”. In FIG. 10A, when “t” is arranged next to “A”, the character interval H is adjusted narrower than when other characters are arranged. Similarly, in FIG. 10B, when “e” is arranged next to “o”, the character spacing H is adjusted narrowly. It is a rule that adjusts the character spacing based on the relationship between the shape and size of the character to adjust the visual discomfort.

〔8〕ジャスティフィケーション(行頭、行末のそろえ方等)
単語を配列方向に配列して行を形成する際、言語によっては表示や印刷を行う場合に文書の行頭や行末を揃えるジャスティフィケーションを行う規則がある。
[8] Justification (How to align the beginning and end of the line)
When a line is formed by arranging words in the arrangement direction, there are rules for justification that aligns the beginning and end of a document when displaying or printing depending on the language.

〔9〕ハイフネーションと綴りの関係
単語の途中で区切って改行する場合に改行が許される場所が限られる場合がある。ジャスティフィケーションとも関係し、言語によっては綴りが変わるなどの特有の規則がある場合が有る。例えば、英文では単語の途中で改行を行う場合にはハイフンを挿入して改行を行うが、ドイツ文では更に綴りが変化する。図11にドイツ語におけるハイフネーション規則の例を示す。文章中の「weken」という単語の途中で改行を行う場合ハイフンを挿入するが、このときハイフンの直前の文字「k」をハイフンの次に重複させて表記する(図11における行頭の「k」。「weken」が「wek-ken」となる)。
[9] Relationship between hyphenation and spelling When a line break is made in the middle of a word, the places where line breaks are allowed may be limited. There are also specific rules that are related to justification, such as spelling changes depending on the language. For example, in English, when a line break is made in the middle of a word, a hyphen is inserted to make a line break. In German, the spelling changes further. FIG. 11 shows an example of a hyphenation rule in German. When a line break is made in the middle of the word “weken” in the sentence, a hyphen is inserted. At this time, the character “k” immediately before the hyphen is duplicated after the hyphen (“k” at the beginning of the line in FIG. 11). "Weken" becomes "wek-ken").

以上のような正書規則のデータが記憶部28に記憶されており、GPSデータ等の他のデータと総合的に判断して画像処理部26から送信される抽出文字データの翻訳言語の優先順位を決定する処理を行う。   The data of the above-mentioned regular text rules is stored in the storage unit 28, and the priority order of the translation language of the extracted character data transmitted from the image processing unit 26 is comprehensively determined from other data such as GPS data. The process of determining is performed.

以下に、図12のフロー図を用いてヘッドマウントディスプレイ1の「翻訳モード」における言語種特定処理の動作を説明する。なお、以下の処理は制御部27のCPU35により制御される。
ユーザが操作入力部33のスイッチ10を操作することにより送信される信号を受け、CPU35はROM36からプログラムを読み込みRAM37上に展開し「翻訳モード」を起動する(ステップS100)。
The operation of language type identification processing in the “translation mode” of the head mounted display 1 will be described below with reference to the flowchart of FIG. The following processing is controlled by the CPU 35 of the control unit 27.
In response to a signal transmitted by the user operating the switch 10 of the operation input unit 33, the CPU 35 reads a program from the ROM 36, develops it on the RAM 37, and activates “translation mode” (step S100).

起動が完了すると、表示装置6に、「翻訳する文字列又は文章を見ながらスイッチ10を押してください。」との操作案内の表示を行う(ステップS101)。   When the activation is completed, an operation guidance message “Please press the switch 10 while viewing the character string or sentence to be translated” is displayed on the display device 6 (step S101).

ユーザが、翻訳対象物(文字列又は文章等)を視界方向に捉えながらスイッチ10を押下することで送信される撮像指示信号を受信し、撮像部25から翻訳対象物の映像を取得する(ステップS102)。   The user receives an imaging instruction signal transmitted by pressing the switch 10 while grasping the translation object (a character string or a sentence) in the visual field direction, and obtains an image of the translation object from the imaging unit 25 (step) S102).

取得した映像を画像処理部26に送信し、画像処理(パターンマッチング等)を行い文字の認識を行い抽出文字データの生成を行う(ステップS103)。抽出文字データは記憶部28に送信され一時記憶がなされる。   The acquired video is transmitted to the image processing unit 26, image processing (pattern matching, etc.) is performed, character recognition is performed, and extracted character data is generated (step S103). The extracted character data is transmitted to the storage unit 28 and temporarily stored.

画像処理部26から送信される抽出文字データの画像処理の完了を示す信号を受信すると、抽出文字データ要求信号を記憶部28に送信し抽出文字データの読み込みを開始する(ステップS104)。   When a signal indicating completion of image processing of the extracted character data transmitted from the image processing unit 26 is received, an extracted character data request signal is transmitted to the storage unit 28, and reading of the extracted character data is started (step S104).

ここで、文字種データやGPSデータといった個別の言語種特定処理に先んじて前回の言語種特定結果である言語種特定履歴の参照を行う。記憶部28にアクセスし言語種特定履歴データがあれば(ステップS105:YES)、言語種特定履歴を参照し履歴の若い順に言語種の優先順位付けを行う(ステップ:S106)   Here, prior to individual language type identification processing such as character type data and GPS data, the language type identification history which is the previous language type identification result is referred to. If the storage unit 28 is accessed and there is language type identification history data (step S105: YES), the language type priorities are prioritized with reference to the language type identification history (step: S106).

次に、抽出文字データの文字種と文字種選択データの比較を行い言語種の優先順位付けを行う。具体的には、文字種選択データに記憶される複数の言語種から該当する言語種の優先順位付け(絞込み)を行う(ステップS107)。例えば、文字種がラテン文字であると判断すると、文字種選択データに対応付けがなされた言語種データ(英語、フランス語、イタリア語等)を他の文字種データと対応付けが行われた言語種データ(例えばアラビア文字データに対応付けられたヒンズー語等)より優先する順位付けを行う。   Next, the character type of the extracted character data is compared with the character type selection data to prioritize the language type. Specifically, prioritization (narrowing) of the corresponding language type is performed from a plurality of language types stored in the character type selection data (step S107). For example, if the character type is determined to be a Latin character, the language type data (for example, English, French, Italian, etc.) associated with the character type selection data is associated with other character type data (for example, Prioritize over Hindu words associated with Arabic character data.

次に、抽出文字データの文字種と単語選択データの比較を行い言語種の優先順位付けを行う。具体的には、単語選択データに記憶される複数の言語種から該当する言語種の優先順位付け(絞込み)を行う(ステップS108)。例えば、翻訳対象物が「TO BE TO BE TENMADE TO BE」であるとすると、「TO」、「BE」、「TEN」、「MADE」等の英単語を認識し、同じラテン文字を使用するイタリア語やフランス語である可能性を否定することが可能となる。   Next, the character type of the extracted character data is compared with the word selection data to prioritize the language type. Specifically, prioritization (narrowing) of the corresponding language type is performed from a plurality of language types stored in the word selection data (step S108). For example, if the translation object is "TO BE TO BE TENMADE TO BE", it recognizes English words such as "TO", "BE", "TEN", "MADE" and uses the same Latin script. It becomes possible to deny the possibility of being a word or French.

また、抽出文字データが「TO BE TO BE TENMADE TO BE」である場合には、日本語のローマ字表記である「とべ とべ てんまで とべ」である可能性もある。そこで、通信部30から送信される座標データ、地図データ及び地図データに対応する地域言語データを参照し、ステップS108で優先順位付けを行った言語の中から地域言語データに該当する言語を優先する順位付けを行う(ステップS109)。例えば、ユーザがニューヨーク(アメリカ)に位置していたとすると、第1優先順位は英語、2番目に日本語といった言語種の優先順位付けを行う。また、例えば抽出文字データが「memoria」といったイタリア語及びスペイン語のいずれかであるか判別がつかないデータで有る場合では、座標データと対応する地域言語データからイタリア語とスペイン語のいずれかに優先順位付けを行うことが可能となる。   In addition, if the extracted character data is “TO BE TO BE TENMADE TO BE”, there is a possibility that it will be “Tobetobentotobe” which is written in Japanese. Therefore, the coordinate data, the map data, and the regional language data corresponding to the map data transmitted from the communication unit 30 are referred to, and the language corresponding to the regional language data is prioritized from the languages prioritized in step S108. Ranking is performed (step S109). For example, if the user is located in New York (United States), the first priority is assigned to a language type such as English and secondly Japanese. Further, for example, when the extracted character data is data such as “memoria” that cannot be determined whether it is either Italian or Spanish, the coordinate language data and the corresponding regional language data are changed to either Italian or Spanish. Prioritization can be performed.

更に、抽出文字データから正書規則の判断を行う(ステップS110)。ステップS109で優先順位付けを行った言語種データの中からこの正書規則に該当する言語に更に優先順位付けを行い、その後言語種データを記憶部28に送信し一時記憶する(ステップS110)。また、特定した言語種を言語種特定履歴として記憶部28に記憶する(ステップS111)。   Further, the normal rule is determined from the extracted character data (step S110). Prioritization is further performed on the language corresponding to the orthographic rule from the language type data that has been prioritized in step S109, and then the language type data is transmitted to the storage unit 28 and temporarily stored (step S110). Further, the specified language type is stored in the storage unit 28 as a language type specifying history (step S111).

言語種の特定が完了すると、翻訳エンジン29に翻訳指示信号を送信する(ステップS112)。翻訳指示信号を受信した翻訳エンジン29からは抽出文字データ及び言語種データの要求信号が送信され、CPU35はこれらのデータを記憶部28から読み出し翻訳エンジン29に送信する。   When the specification of the language type is completed, a translation instruction signal is transmitted to the translation engine 29 (step S112). The translation engine 29 that has received the translation instruction signal transmits a request signal for extracted character data and language type data, and the CPU 35 reads these data from the storage unit 28 and transmits them to the translation engine 29.

翻訳エンジン29では、優先順位付けがなされた言語種データに基づいて翻訳辞書を参照しながら抽出文字データを所定の言語(例えば日本語)に翻訳する処理が行われる(ステップS112)   The translation engine 29 performs a process of translating the extracted character data into a predetermined language (for example, Japanese) while referring to the translation dictionary based on the prioritized language type data (step S112).

ステップS112にて所定の言語に翻訳された抽出文字データを音声出力部32及び表示部31に出力し、翻訳を表示装置6に表示するとともにイヤホン8R、8Lから音声出力を行う(ステップS113)。   The extracted character data translated into a predetermined language in step S112 is output to the voice output unit 32 and the display unit 31, and the translation is displayed on the display device 6 and voice output is performed from the earphones 8R and 8L (step S113).

次に、「関連情報表示モード」について説明する。「関連情報表示モード」は、カウンタ38により記憶部28に記憶された言語種の特定履歴、GPSにより取得した位置情報、記憶部28に記憶された地図情報、この地図情報と対応付けられた関連データ及び時計回路から送信される現在時刻データを参照し、特定回数の多い即ちよく翻訳を行う言語種に関連する情報を提供するものである。具体的には、特定履歴中の最新のものから遡って5つの履歴のうち最も履歴が多い言語種を特定し、現在時刻と関係が有るカテゴリーで分類されたテーブルからこの言語種を使用する国あるいは地方に関連する項目を抽出する。この抽出した項目から地図情報と対応付けられた関連データの検索を行い、表示装置6に位置を表示するようになっている。なお、この処理は「翻訳モード」の処理のバックグラウンドで行われる。   Next, the “related information display mode” will be described. The “related information display mode” includes the language type identification history stored in the storage unit 28 by the counter 38, the position information acquired by the GPS, the map information stored in the storage unit 28, and the association associated with this map information. By referring to data and current time data transmitted from the clock circuit, information related to a language type that is frequently translated, that is, frequently translated is provided. Specifically, the language type with the most history is identified from the five latest histories retroactively from the latest one in the specific history, and the country that uses this language type from the table classified by the category related to the current time. Or the item relevant to a district is extracted. The extracted data is searched for related data associated with the map information, and the position is displayed on the display device 6. This process is performed in the background of the “translation mode” process.

図13に、「関連情報表示モード」における処理動作を示す。
時計回路から送信される現在時刻データに基づいて、関連情報を表示する時刻(仮に午後12時とする)に一致するかを判断する(ステップS201)。
FIG. 13 shows the processing operation in the “related information display mode”.
Based on the current time data transmitted from the clock circuit, it is determined whether or not it coincides with the time for displaying the related information (assuming it is 12:00 pm) (step S201).

関連情報を表示する時刻に一致する場合には(ステップS201:YES)、予め時刻とカテゴリーの対応付けがなされたテーブルを参照し検索するカテゴリーを決定する(ステップ:S202)。午後12時は昼食どきであるため対応するカテゴリーは「昼食」とする。   If it coincides with the time at which the related information is displayed (step S201: YES), a category to be searched is determined by referring to a table in which the time and the category are associated in advance (step: S202). Since it is lunchtime at 12:00 pm, the corresponding category is “lunch”.

記憶部28に記憶された言語種の特定履歴を読み込み、最新の特定言語種から遡って5つの履歴のうち最も多い言語種を検出する(ステップS203)。仮に、この処理で検出された言語種をイタリア語とする。   The language type specific history stored in the storage unit 28 is read, and the most frequent language type is detected from among the five histories retroactively from the latest specific language type (step S203). Suppose that the language type detected by this processing is Italian.

ステップS202で決定された「昼食」というカテゴリーの中から、ステップS203で検出された「イタリア語」という言語種に関連する「イタリア料理」の項目を検索する(ステップS204)。   From the category “lunch” determined in step S202, an item “Italian cuisine” related to the language type “Italian” detected in step S203 is searched (step S204).

GPS信号と地図情報に基づいて現在位置データ及び現在位置を中心とした周辺地域の地図情報を取得し、地図情報に対応付けられた関連データのうちから「イタリア料理」に関する関連データを検索して表示装置6上に表示された周辺地図映像にイタリア料理を提供する場所を表示する(ステップS203)。   Based on the GPS signal and the map information, the current position data and the map information of the surrounding area centering on the current position are acquired, and the related data related to “Italian cuisine” is searched from the related data associated with the map information. The place where Italian food is provided is displayed on the surrounding map image displayed on the display device 6 (step S203).

以上のように、本発明を適用したヘッドマウントディスプレイ1によれば、単語、GPSデータ及び正書規則といった3種類のデータから翻訳対象物の言語種を特定することができる。このため従来からの翻訳対象物と対訳言語とが予め限定されている翻訳機能を有する装置あるいはユーザが予め翻訳対象物の言語種を設定する翻訳機能を有する装置とは異なり、ユーザが外国語に関する知識がなくても自動的に翻訳対象物の言語種を特定して所望の言語に翻訳した表示及び音声出力を提供することができる。   As described above, according to the head mounted display 1 to which the present invention is applied, it is possible to specify the language type of the translation object from three types of data such as a word, GPS data, and a normal text rule. Therefore, unlike a conventional device having a translation function in which the translation object and the parallel language are limited in advance or a device having a translation function in which the user sets the language type of the translation object in advance, the user is related to a foreign language. Even without knowledge, it is possible to automatically specify the language type of the translation object and provide a display and audio output translated into a desired language.

また、言語種の特定に際して1つの言語種に特定するだけでなく、優先順位付けを行いこれらの上位複数種類の言語種におけるそれぞれの対訳を表示及び音声出力を行うため、ユーザが周囲の状況に応じて最も適当な意味を選択することが可能となる。例えば、英語を母国語とし日本語及び中国語に関する知識がない外国人が日本に旅行にきた折に中華街を訪れるとする。街頭の看板等に「熊猫」の文字があるときに日本語では「クマ、ネコ」の意味であるが中国語では「パンダ」の意味である。このときGPSの位置データからは日本領域内であるため抽出文字データの言語種を日本語とするが、単語データからは同じ漢字文化圏として重複する部分も多い中国語を下位順位で言語種データの候補として指定しているため第1の翻訳語として「クマ、ネコ」、第2の翻訳語として「パンダ」をユーザに提供することができる。ユーザは、周囲の状況から「クマ、ネコ」でつじつまが合わなくても「パンダ」という情報から看板等の内容を理解しやすくなる場合もある。このように、複数の言語種を同時に翻訳して表示等を行うことで、使用環境等の個別の状況に対応することが可能となる。   In addition, when specifying language types, not only one language type is specified, but also prioritization is performed, and the respective parallel translations of these higher-order plural types of language types are displayed and voice output is performed. Accordingly, the most appropriate meaning can be selected. For example, suppose a foreigner who is native English and has no knowledge of Japanese or Chinese visits Chinatown when he travels to Japan. When the sign “Bear Cat” is on the street signboard, it means “bear, cat” in Japanese, but “panda” in Chinese. At this time, since the GPS position data is within the Japanese region, the language type of the extracted character data is set to Japanese, but from the word data, the language type data in the lower order is Chinese with many overlapping parts as the same kanji culture sphere. Therefore, “bear, cat” as the first translation word and “panda” as the second translation word can be provided to the user. In some cases, the user can easily understand the contents of the signboard or the like from the information “Panda” even if the “bear, cat” does not fit in the surrounding situation. Thus, by simultaneously translating a plurality of language types and displaying them, it becomes possible to deal with individual situations such as the usage environment.

また、翻訳対象物の言語判定に更に正書規則を採用することで、特定の言語が有する特徴的な規則のみから言語種データを生成することができ、候補言語種を精度良く判別することができる。このため、多国語対応の自動翻訳の処理が容易になるという効果がある。   Further, by adopting the orthography rule for determining the language of the translation object, it is possible to generate language type data only from the characteristic rules possessed by a specific language, and to accurately identify candidate language types. it can. For this reason, there is an effect that the process of automatic translation corresponding to a multilingual language becomes easy.

更に、特定した言語の履歴、GPSデータ及び時計回路からの現在時刻を利用して翻訳された言語に関連する情報を提供することができる。この関連する情報から特定言語種に関係する種々の情報をタイミングよく取得する機会を増やすことができる。例えば、仕事上でイタリア関連の業務を行っているときに、イタリア語の文献を読むに際しヘッドマウントディスプレイ1を用いて翻訳を行っているとする。昼食時に近郊のレストラン等が表示され、そのレストランで昼食をとる場合にイタリアの食文化を体験しながら現在行っている業務のアイディア等を得ることもできる場合もある。このように特定言語種へのアクセス回数を増やすことができるため、仕事や学習を効果的に行うことができる。   Furthermore, it is possible to provide information related to the translated language using the history of the specified language, the GPS data, and the current time from the clock circuit. Opportunities for acquiring various information related to a specific language type in a timely manner from the related information can be increased. For example, suppose that when doing business related to Italy on business, translation is performed using the head mounted display 1 when reading an Italian document. In the case of lunch, a nearby restaurant is displayed. When having lunch at the restaurant, it may be possible to obtain ideas of current business while experiencing Italian food culture. Since the number of accesses to the specific language type can be increased in this way, work and learning can be performed effectively.

以上、本発明を実施するための最良の形態について説明したが、本発明は上記種々の例に限定されるものではない。
たとえば、制御部27での言語種特定処理では、文字種データ、単語データ、GPSデータ及び正書規則データの4種類のデータから言語種の優先順位付けを行う構成としたが、これらデータのいずれか1つを言語種の優先順位付けの判別データとしても十分に候補言語種データを生成することができる。
As mentioned above, although the best form for implementing this invention was demonstrated, this invention is not limited to the said various example.
For example, in the language type specifying process in the control unit 27, the language type is prioritized from four types of data: character type data, word data, GPS data, and orthographic rule data. Candidate language type data can be generated sufficiently even if one is used as discrimination data for prioritizing language types.

また、制御部27での言語種特定処理で使用される文字選択データベースや翻訳エンジン29での翻訳処理に使用される辞書データは必ずしも記憶部28等に予め記憶されている必要はなく、携帯電話等の小型通信機器を用いてインターネット等のネットワークに接続通信可能とし、ネットワーク上に構成されたサーバ等から適宜ダウンロードする構成としてもよい。これにより、文字選択データ等の大規模検索が可能となり、またヘッドマウントディスプレイ1に係る負担も軽減することができる。   Further, the character selection database used in the language type specifying process in the control unit 27 and the dictionary data used in the translation process in the translation engine 29 are not necessarily stored in advance in the storage unit 28 or the like. It is possible to use a small communication device such as the Internet so that connection communication can be made with a network such as the Internet, and download from a server or the like configured on the network as appropriate. As a result, a large-scale search for character selection data and the like is possible, and the burden on the head mounted display 1 can be reduced.

本発明を実施するための最良の形態におけるヘッドマウントディスプレイ1の外観構成を示した概要図である。1 is a schematic diagram showing an external configuration of a head mounted display 1 in the best mode for carrying out the present invention. 図1に示す表示装置6の左側断面を示した断面図。Sectional drawing which showed the left side cross section of the display apparatus 6 shown in FIG. 図1に示すヘッドマウントディスプレイ1の機能的構成を示したブロック図である。It is the block diagram which showed the functional structure of the head mounted display 1 shown in FIG. (a)は、本発明を実施するための最良の形態におけるイタリア語の正書規則の例を示したものである。(b)は、ギリシャ語の例を示したものである。(A) shows an example of an Italian orthography rule in the best mode for carrying out the present invention. (B) shows an example of Greek. (a)は、本発明を実施するための最良の形態におけるラテン語系の正書規則の例を示したものである。(b)は、ドイツ語の例を示したものである。(A) shows an example of a Latin-style correct writing rule in the best mode for carrying out the present invention. (B) shows an example in German. 本発明を実施するための最良の形態におけるアラビア語系の正書規則の例を示したものである。2 shows an example of an Arabic-style orthography rule in the best mode for carrying out the present invention. 本発明を実施するための最良の形態におけるデーバナーガリー文字の正書規則の例を示したものである。FIG. 3 shows an example of a Devanagari character normal writing rule in the best mode for carrying out the present invention. FIG. 本発明を実施するための最良の形態における日本語の正書規則の例を示したものである。FIG. 2 shows an example of a Japanese orthography rule in the best mode for carrying out the present invention. FIG. (a)は、本発明を実施するための最良の形態における英語の正書規則の例を示したものである。(b)は、日本語の例を示したものである。(A) shows an example of a normal English rule in the best mode for carrying out the present invention. (B) shows an example of Japanese. (a)及び(b)は、本発明を実施するための最良の形態におけるローマ字の正書規則の例を示したものである。(A) And (b) shows the example of the normal writing rule of the Roman character in the best form for implementing this invention. 本発明を実施するための最良の形態におけるドイツ語の正書規則の例を示したものである。FIG. 3 shows an example of a German orthography rule in the best mode for carrying out the present invention. FIG. 本発明を実施するための最良の形態におけるヘッドマウントディスプレイ1の言語種特定処理を示したフロー図である。It is the flowchart which showed the language type specific process of the head mounted display 1 in the best form for implementing this invention. 本発明を実施するための最良の形態におけるヘッドマウントディスプレイ1の「関連情報表示モード」での処理を示したフロー図である。It is the flowchart which showed the process in the "related information display mode" of the head mounted display 1 in the best form for implementing this invention. 世界で使用される文字種とその分布を示した概要図である。It is the schematic which showed the character type used in the world, and its distribution.

符号の説明Explanation of symbols

1 ヘッドマウントディスプレイ
2 鼻当て
3R、3L テンプル
4 フレーム
5R、5L レンズ
6 表示装置
7 CCDカメラ
8R、8L イヤホン
9 コントロールボックス
10 スイッチ
12 十字ボタン
13 電源スイッチ
14 ケーブル
15 映像生成ユニット
16 接眼光学系
17 筐体
18 液晶表示器
19 LED
20 照明光学系
21 プリズム
22 ホログラム素子
25 撮像部
26 画像処理部
27 制御部
28 記憶部
29 翻訳エンジン
30 通信部
31 表示部
32 音声出力部
33 操作入力部
35 CPU
36 ROM
37 RAM
38 カウンタ
39 電池
DESCRIPTION OF SYMBOLS 1 Head mounted display 2 Nose pad 3R, 3L Temple 4 Frame 5R, 5L Lens 6 Display apparatus 7 CCD camera 8R, 8L Earphone 9 Control box 10 Switch 12 Cross button 13 Power switch 14 Cable 15 Image generation unit 16 Eyepiece optical system 17 Housing Body 18 LCD 19 LED
20 Illumination optical system 21 Prism 22 Hologram element 25 Imaging unit 26 Image processing unit 27 Control unit 28 Storage unit 29 Translation engine 30 Communication unit 31 Display unit 32 Audio output unit 33 Operation input unit 35 CPU
36 ROM
37 RAM
38 Counter 39 Battery

Claims (25)

対象物を撮像する撮像手段と、該撮像手段から取得した映像データに含まれる文字列を検出する文字列検出手段と、該文字列検出手段が検出した文字列の文字種と、該文字種を使用する言語種とに対応する言語辞書を参照し特定の言語に翻訳する翻訳手段と、前記翻訳手段が翻訳した訳語を表示する表示手段を備えた翻訳装置において、
前記文字列検出手段が検出した文字列から単語を抽出する単語抽出手段と、
前記翻訳手段が翻訳の対象とする言語種毎に対応する単語データを記憶した記憶手段と、
前記抽出手段が抽出した単語と前記記憶手段に記憶された単語データとを参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う制御手段を備えることを特徴とする翻訳装置。
An imaging unit that images an object, a character string detection unit that detects a character string included in video data acquired from the imaging unit, a character type of a character string detected by the character string detection unit, and the character type In a translation device comprising a translation means for referring to a language dictionary corresponding to a language type and translating into a specific language, and a display means for displaying a translation translated by the translation means,
Word extraction means for extracting a word from the character string detected by the character string detection means;
Storage means for storing word data corresponding to each language type to be translated by the translation means;
And a control unit that refers to the word extracted by the extraction unit and the word data stored in the storage unit, and prioritizes and specifies the language type of the character string included in the video data. Translation device to do.
請求項1に記載の翻訳装置において、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出手段を更に備え、
前記記憶手段は、前記翻訳手段が翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶し、
前記制御手段は、前記文字種抽出手段が抽出した文字種データと前記記憶手段に記憶された文字種データ及び正書規則データとを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする翻訳装置。
The translation device according to claim 1,
A character type extracting means for extracting a character type of a character string included in the video data;
The storage means further stores character type data and correct text rule data for each language type to be translated by the translation means,
The control means further refers to the character type data extracted by the character type extraction means, the character type data and the orthography rule data stored in the storage means, and sets the priority order to the language type of the character string included in the video data. A translation apparatus characterized by attaching and specifying.
請求項1又は2に記載の翻訳装置において、
GPS信号を受信し前記翻訳装置の位置情報を取得する位置検出手段と、
前記位置情報に対応付けられた言語種データを記憶する記憶手段と、
前記位置情報と前記言語種データとを更に参照して前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う制御手段を備えることを特徴とする翻訳装置。
The translation device according to claim 1 or 2,
Position detecting means for receiving a GPS signal and acquiring position information of the translation device;
Storage means for storing language type data associated with the position information;
A translation apparatus comprising: control means for further specifying the language type of a character string included in the video data with priority by further referring to the position information and the language type data.
対象物を撮像する撮像手段と、該撮像手段から取得した映像データに含まれる文字列を検出する文字列検出手段と、該文字列検出手段が検出した文字列の文字種と、該文字種を使用する言語種とに対応する言語辞書を参照して特定の言語に翻訳する翻訳手段と、前記翻訳手段が翻訳した訳語を表示する表示手段を備えた翻訳装置において、
GPS信号を受信し前記翻訳装置の位置情報を取得する位置検出手段と、
前記位置情報に対応付けられた言語種データを記憶する記憶手段と、
前記位置情報と前記言語種データとを参照して前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする翻訳装置。
An imaging unit that images an object, a character string detection unit that detects a character string included in video data acquired from the imaging unit, a character type of a character string detected by the character string detection unit, and the character type In a translation apparatus comprising a translation unit that translates into a specific language with reference to a language dictionary corresponding to a language type, and a display unit that displays a translation translated by the translation unit,
Position detecting means for receiving a GPS signal and acquiring position information of the translation device;
Storage means for storing language type data associated with the position information;
A translation apparatus characterized in that priority is given to a language type of a character string included in the video data with reference to the position information and the language type data.
請求項4に記載の翻訳装置において、
前記文字列検出手段が検出した文字列から単語を抽出する単語抽出手段を更に備え、
前記記憶手段は前記翻訳手段が翻訳の対象とする言語種毎の単語データを更に記憶し、
前記制御手段は、前記単語抽出手段が抽出した単語と前記単語データを更に参照して前記入力データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする翻訳装置。
The translation device according to claim 4,
A word extracting means for extracting a word from the character string detected by the character string detecting means;
The storage means further stores word data for each language type to be translated by the translation means,
The translation device according to claim 1, wherein the control unit further specifies the language type of the character string included in the input data with reference to the word extracted by the word extraction unit and the word data.
請求項4に記載の翻訳装置において、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出手段を更に備え、
前記記憶手段は、前記翻訳手段が翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶し、
前記制御手段は、前記文字種抽出手段が抽出した文字種データと前記記憶手段に記憶された文字種データ及び正書規則データを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする翻訳装置。
The translation device according to claim 4,
A character type extracting means for extracting a character type of a character string included in the video data;
The storage means further stores character type data and correct text rule data for each language type to be translated by the translation means,
The control unit further refers to the character type data extracted by the character type extraction unit, the character type data and the normal rule data stored in the storage unit, and prioritizes the language type of the character string included in the video data. A translation device characterized by performing identification.
対象物を撮像する撮像手段と、該撮像手段から取得した映像データに含まれる文字列を検出する文字列検出手段と、該文字列検出手段が検出した文字列の文字種と、該文字種を使用する言語種とに対応する言語辞書を参照して特定の言語に翻訳する翻訳手段と、前記翻訳手段が翻訳した訳語を表示する表示手段を備えた翻訳装置において、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出手段と、
前記翻訳手段が翻訳の対象とする言語種毎の文字種データ及び正書規則データを記憶した記憶手段と、
前記文字種抽出手段が抽出した文字種データと前記記憶手段に記憶された文字種データ及び正書規則データを参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う制御手段を備えることを特徴とする翻訳装置。
An imaging unit that images an object, a character string detection unit that detects a character string included in video data acquired from the imaging unit, a character type of a character string detected by the character string detection unit, and the character type In a translation apparatus comprising a translation unit that translates into a specific language with reference to a language dictionary corresponding to a language type, and a display unit that displays a translation translated by the translation unit,
Character type extracting means for extracting a character type of a character string included in the video data;
Storage means for storing character type data and correct rule data for each language type to be translated by the translation means;
Control means for referring to the character type data extracted by the character type extraction means, the character type data stored in the storage means, and the orthographic rule data, and specifying the language type of the character string included in the video data with priority. A translation apparatus comprising:
請求項1〜7のいずれか一項に記載の翻訳装置において、
前記翻訳手段は、前記制御手段により特定された言語種の優先順位に基づいて該言語種の言語辞書を参照して特定の言語に翻訳を行うことを特徴とする翻訳装置。
In the translation apparatus as described in any one of Claims 1-7,
The translation device translates into a specific language by referring to the language dictionary of the language type based on the priority order of the language type specified by the control unit.
請求項1〜8のいずれか一項に記載の翻訳装置において、
前記言語辞書は、前記翻訳手段により特定の言語に翻訳された訳語に対応する音声データを更に記憶し、
前記翻訳手段が翻訳を行った訳語に対応する音声データから音声を生成し出力する音声出力手段を更に備えることを特徴とする翻訳装置。
In the translation apparatus as described in any one of Claims 1-8,
The language dictionary further stores voice data corresponding to the translated words translated into a specific language by the translation means,
A translation apparatus, further comprising voice output means for generating and outputting voice from voice data corresponding to the translated word translated by the translation means.
請求項1〜9のいずれか一項に記載の翻訳装置において、
前記制御手段により優先順位付けされた複数の言語種の中から翻訳を行う言語種を使用者の操作により指定可能とする指定手段を更に備え、
前記翻訳手段は、前記指定手段により指定された言語種に対応する言語辞書のみを参照して翻訳を行うことを特徴とする翻訳装置。
In the translation apparatus as described in any one of Claims 1-9,
Further comprising a specifying means for enabling a user to specify a language type for translation from a plurality of language types prioritized by the control means;
The translation apparatus, wherein the translation unit performs translation by referring only to a language dictionary corresponding to the language type designated by the designation unit.
請求項1〜10のいずれか一項に記載の翻訳装置において、
前記翻訳手段が翻訳の対象とした言語種の履歴を記憶する履歴記憶手段を更に備え、
前記制御手段は、前記履歴記憶手段による言語種の履歴を更に参照して前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とする翻訳装置。
In the translation apparatus as described in any one of Claims 1-10,
The translation means further comprises a history storage means for storing a history of language types to be translated,
The translation device according to claim 1, wherein the control means further refers to the history of the language type stored in the history storage means and prioritizes the language type of the character string included in the video data.
請求項11に記載の翻訳装置において、
現在時刻の情報を出力する時計手段を更に備え、
前記記憶手段は、所定時刻と対応付けがなされ、前記翻訳手段で翻訳の対象とする言語種に関連する関連情報を更に記憶し、
前記制御手段は、前記現在時刻の情報に基づいて、前記履歴記憶手段に記憶された言語種の履歴に応じて対応する前記関連情報を前記表示手段に表示することを特徴とする翻訳装置。
The translation apparatus according to claim 11,
It further comprises clock means for outputting current time information,
The storage means is associated with a predetermined time, and further stores related information related to a language type to be translated by the translation means,
The said control means displays the said relevant information corresponding to the log | history of the language type memorize | stored in the said log | history memory | storage means on the said display means based on the information of the said present | current time, The translation apparatus characterized by the above-mentioned.
請求項1〜12のいずれか一項に記載の翻訳装置において、
前記表示手段はヘッドマウントディスプレイであることを特徴とする翻訳装置。
In the translation apparatus as described in any one of Claims 1-12,
The translation apparatus, wherein the display means is a head mounted display.
請求項13に記載の翻訳装置において、
前記ヘッドマウントディスプレイは外界光透過型であることを特徴とする翻訳装置。
The translation device according to claim 13,
The translation apparatus according to claim 1, wherein the head mounted display is an external light transmission type.
請求項14に記載の翻訳装置において、
前記ヘッドマウントディスプレイは、映像信号から映像を生成して投射する映像表示器と、
前記映像表示器から投射された映像を採光して内部に導光するプリズムと
前記プリズムが導光した映像を回折しホログラム映像を瞳に導く回折フィルムとからなることを特徴とする翻訳装置。
The translation device according to claim 14, wherein
The head mounted display includes a video display for generating and projecting video from a video signal;
A translation apparatus comprising: a prism that samples an image projected from the image display and guides the image to an inside; and a diffraction film that diffracts the image guided by the prism and guides a hologram image to a pupil.
対象物を撮像する撮像手段から取得した映像データに含まれる文字列を検出し、該文字列の文字種と、該文字種を使用する言語種とに対応する言語辞書を参照して特定の言語に翻訳処理を行うコンピュータに、
前記文字列から単語を抽出する単語抽出機能と、
翻訳の対象とする言語種毎の単語データを記憶する記憶機能と、
前記単語抽出機能によって抽出された単語と前記言語種毎の単語データとを参照し前記文字列の言語種に優先順位をつけて特定を行う言語種特定機能を実現することを特徴とするプログラム。
Detects a character string included in video data acquired from an imaging means for imaging an object, and translates it into a specific language by referring to a language dictionary corresponding to the character type of the character string and the language type using the character type To the computer that performs processing,
A word extraction function for extracting words from the character string;
A storage function for storing word data for each language type to be translated;
A program for realizing a language type specifying function for specifying a priority by prioritizing the language type of the character string with reference to the word extracted by the word extracting function and the word data for each language type.
請求項16に記載のプログラムにおいて、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出機能を更に実現し、
前記記憶機能で、翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶し、
前記言語種特定機能で、前記文字種抽出機能により抽出した文字種データと前記言語種毎の文字種データ及び正書規則データを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とするプログラム。
The program according to claim 16, wherein
Further realizing a character type extraction function for extracting a character type of a character string included in the video data,
In the storage function, further storing character type data and correct rule data for each language type to be translated,
The language type specifying function further refers to the character type data extracted by the character type extraction function, the character type data for each language type, and the orthography rule data, and prioritizes the language types of the character strings included in the video data. A program characterized by performing identification.
請求項16又17に記載のプログラムにおいて、
GPS信号を受信し位置情報を取得する位置検出機能を更に実現し、
前記記憶機能で、前記位置情報に対応付けられた言語種データを更に記憶し、
前記言語種特定機能で、前記位置情報と前記言語種データとを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とするプログラム。
The program according to claim 16 or 17,
Further realizing a position detection function for receiving GPS signals and acquiring position information,
The storage function further stores language type data associated with the position information,
A program characterized in that, with the language type specifying function, the position information and the language type data are further referred to, and the language type of the character string included in the video data is specified with priority.
対象物を撮像する撮像手段から取得した映像データに含まれる文字列を検出し、該文字列の文字種と、該文字種を使用する言語種とに対応する言語辞書を参照して特定の言語に翻訳処理を行うコンピュータに、
GPS信号を受信し位置情報を取得する位置検出機能と、
前記位置情報に対応付けられた言語種データを記憶する記憶機能と、
前記位置情報と前記言語種データとを参照して前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う言語種特定機能を実現する事を特徴とするプログラム。
Detects a character string included in video data acquired from an imaging means for imaging an object, and translates it into a specific language by referring to a language dictionary corresponding to the character type of the character string and the language type using the character type To the computer that performs processing,
A position detection function for receiving GPS signals and acquiring position information;
A storage function for storing language type data associated with the position information;
A program for realizing a language type specifying function for specifying the language type of a character string included in the video data with a priority by referring to the position information and the language type data.
請求項19に記載のプログラムにおいて、
前記映像データに含まれる文字列から単語を抽出する単語抽出機能を更に実現し、
前記記憶機能で、翻訳の対象とする言語種毎の単語データを更に記憶し、
前記言語種特定機能で、前記単語抽出機能により抽出した単語と前記言語種毎の単語データを更に参照して前記入力データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とするプログラム。
The program according to claim 19, wherein
Further realizing a word extraction function for extracting words from a character string included in the video data,
The memory function further stores word data for each language type to be translated,
In the language type specifying function, the word type of the character string included in the input data is prioritized and specified by further referring to the word extracted by the word extraction function and the word data for each language type. A featured program.
請求項19に記載のプログラムにおいて、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出機能を更に実現し、
前記記憶機能で、翻訳の対象とする言語種毎の文字種データ及び正書規則データを更に記憶し、
前記言語特定機能で、前記文字種抽出機能により抽出した文字種データと前記言語種毎の文字種データ及び正書規則データを更に参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とするプログラム。
The program according to claim 19, wherein
Further realizing a character type extraction function for extracting a character type of a character string included in the video data,
In the storage function, further storing character type data and correct rule data for each language type to be translated,
The language specifying function further refers to the character type data extracted by the character type extraction function, the character type data for each language type, and the correct text rule data, and prioritizes the language type of the character string included in the video data. A program characterized by specifying.
対象物を撮像する撮像手段から取得した映像データに含まれる文字列を検出し、該文字列の言語種と対応する言語辞書を参照して特定の言語に翻訳処理するコンピュータに、
前記映像データに含まれる文字列の文字種を抽出する文字種抽出機能と、
翻訳の対象とする言語種毎の文字種データ及び正書規則データを記憶する記憶機能と、
前記文字種抽出機能が抽出した文字種データと前記複数の言語種の文字種データ及び正書規則データを参照し、前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行う言語種特定機能を実現することを特徴とするプログラム。
A computer that detects a character string included in video data acquired from an imaging unit that captures an object and translates it into a specific language with reference to a language dictionary corresponding to the language type of the character string.
A character type extraction function for extracting a character type of a character string included in the video data;
A storage function for storing character type data and orthographic rule data for each language type to be translated;
Language type specification for specifying and specifying the priority of the language type of the character string included in the video data with reference to the character type data extracted by the character type extraction function, the character type data of the plurality of language types, and the orthographic rule data A program characterized by realizing a function.
請求項16〜22のいずれか一項に記載のプログラムにおいて、
前記言語特定機能により特定された言語種の優先順位に基づいて該言語種の言語辞書を参照して前記映像データに含まれる文字列を特定の言語に翻訳する翻訳機能を実現する事を特徴とするプログラム。
In the program according to any one of claims 16 to 22,
A translation function for translating a character string included in the video data into a specific language by referring to a language dictionary of the language type based on the priority order of the language type specified by the language specifying function is provided. Program to do.
請求項16〜23のいずれか一項に記載のプログラムにおいて、
前記言語種特定機能により特定した言語種の履歴を記憶する履歴記憶機能を更に実現し、
前記言語種特定機能で、前記履歴記憶機能による言語種の履歴を更に参照し、履歴が最新の言語種に基づいて前記映像データに含まれる文字列の言語種に優先順位を付けて特定を行うことを特徴とするプログラム。
In the program according to any one of claims 16 to 23,
Further realizing a history storage function for storing a history of the language type specified by the language type specifying function,
The language type specifying function further refers to the history of the language type by the history storage function and specifies the language type of the character string included in the video data based on the language type with the latest history. A program characterized by that.
請求項24に記載のプログラムにおいて、
前記記憶機能で、所定時刻と対応付けがなされ、翻訳処理の対象とする言語種毎に関連する関連情報を更に記憶し、
現在時刻の情報を出力する時計機能と、
前記時計機能による現在時刻の情報に基づいて、前記履歴記憶機能に記憶された言語種の履歴が最新の言語種に応じて前記関連情報を前記表示手段に表示させる表示機能を更に実現することを特徴とするプログラム。
The program according to claim 24,
The storage function is associated with a predetermined time, and further stores related information related to each language type to be translated.
A clock function that outputs current time information,
Further realizing a display function for displaying the related information on the display unit according to the latest language type of the language type history stored in the history storage function based on the current time information by the clock function. A featured program.
JP2005124949A 2005-04-22 2005-04-22 Translation device and program thereof Pending JP2006302091A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005124949A JP2006302091A (en) 2005-04-22 2005-04-22 Translation device and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005124949A JP2006302091A (en) 2005-04-22 2005-04-22 Translation device and program thereof

Publications (1)

Publication Number Publication Date
JP2006302091A true JP2006302091A (en) 2006-11-02

Family

ID=37470284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005124949A Pending JP2006302091A (en) 2005-04-22 2005-04-22 Translation device and program thereof

Country Status (1)

Country Link
JP (1) JP2006302091A (en)

Cited By (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010034759A (en) * 2008-07-28 2010-02-12 Denso Corp On-vehicle communication apparatus
JP2010109700A (en) * 2008-10-30 2010-05-13 Sony Computer Entertainment Inc Image processor
JP2013508817A (en) * 2009-10-14 2013-03-07 クゥアルコム・インコーポレイテッド Method and apparatus for automatic predictive selection of input method for web browser
JP2015520861A (en) * 2012-03-06 2015-07-23 アップル インコーポレイテッド Multilingual content speech synthesis processing
KR20150098493A (en) * 2014-02-20 2015-08-28 권형석 System, method and computer readable recording medium for informing emergency state
KR20150098930A (en) * 2014-02-21 2015-08-31 권형석 System for rescue request during emergency and method therefor
KR101614691B1 (en) 2014-02-24 2016-05-12 주식회사 안심동행 System for rescue request using portable electronic apparatus and method for rescue request therefor
JP2016519797A (en) * 2013-03-15 2016-07-07 トランスレート アブロード,インコーポレイテッド System and method for real-time display of foreign language character sets and their translations on resource-constrained mobile devices
CN105843944A (en) * 2016-04-08 2016-08-10 华南师范大学 Geographical location information based language acquisition method and system
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
US9668024B2 (en) 2014-06-30 2017-05-30 Apple Inc. Intelligent automated assistant for TV user interactions
JP2017532684A (en) * 2014-10-17 2017-11-02 マシーン・ゾーン・インコーポレイテッドMachine Zone, Inc. System and method for language detection
JP2018503147A (en) * 2015-11-27 2018-02-01 小米科技有限責任公司Xiaomi Inc. Interface display method and apparatus
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10102359B2 (en) 2011-03-21 2018-10-16 Apple Inc. Device access using voice authentication
US10162811B2 (en) 2014-10-17 2018-12-25 Mz Ip Holdings, Llc Systems and methods for language detection
US10169329B2 (en) 2014-05-30 2019-01-01 Apple Inc. Exemplar-based natural language processing
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
US10346543B2 (en) 2013-02-08 2019-07-09 Mz Ip Holdings, Llc Systems and methods for incentivizing user feedback for translation processing
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US10366170B2 (en) 2013-02-08 2019-07-30 Mz Ip Holdings, Llc Systems and methods for multi-user multi-lingual communications
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
CN110245356A (en) * 2019-06-24 2019-09-17 付金龙 Offline translation machine
US10417351B2 (en) 2013-02-08 2019-09-17 Mz Ip Holdings, Llc Systems and methods for multi-user mutli-lingual communications
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
JP2019215876A (en) * 2019-07-03 2019-12-19 エム・ゼット・アイ・ピィ・ホールディングス・リミテッド・ライアビリティ・カンパニーMz Ip Holdings, Llc System and method for language detection
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10614171B2 (en) 2013-02-08 2020-04-07 Mz Ip Holdings, Llc Systems and methods for multi-user multi-lingual communications
US10650103B2 (en) 2013-02-08 2020-05-12 Mz Ip Holdings, Llc Systems and methods for incentivizing user feedback for translation processing
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10706841B2 (en) 2010-01-18 2020-07-07 Apple Inc. Task flow identification based on user intent
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US10769387B2 (en) 2017-09-21 2020-09-08 Mz Ip Holdings, Llc System and method for translating chat messages
US10765956B2 (en) 2016-01-07 2020-09-08 Machine Zone Inc. Named entity recognition on chat data
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification

Cited By (93)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9646614B2 (en) 2000-03-16 2017-05-09 Apple Inc. Fast, language-independent method for user authentication by voice
US10318871B2 (en) 2005-09-08 2019-06-11 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9626955B2 (en) 2008-04-05 2017-04-18 Apple Inc. Intelligent text-to-speech conversion
US9865248B2 (en) 2008-04-05 2018-01-09 Apple Inc. Intelligent text-to-speech conversion
JP2010034759A (en) * 2008-07-28 2010-02-12 Denso Corp On-vehicle communication apparatus
JP2010109700A (en) * 2008-10-30 2010-05-13 Sony Computer Entertainment Inc Image processor
US11080012B2 (en) 2009-06-05 2021-08-03 Apple Inc. Interface for a virtual digital assistant
US10795541B2 (en) 2009-06-05 2020-10-06 Apple Inc. Intelligent organization of tasks items
US10283110B2 (en) 2009-07-02 2019-05-07 Apple Inc. Methods and apparatuses for automatic speech recognition
JP2013508817A (en) * 2009-10-14 2013-03-07 クゥアルコム・インコーポレイテッド Method and apparatus for automatic predictive selection of input method for web browser
US11423886B2 (en) 2010-01-18 2022-08-23 Apple Inc. Task flow identification based on user intent
US10706841B2 (en) 2010-01-18 2020-07-07 Apple Inc. Task flow identification based on user intent
US10049675B2 (en) 2010-02-25 2018-08-14 Apple Inc. User profiling for voice input processing
US9633660B2 (en) 2010-02-25 2017-04-25 Apple Inc. User profiling for voice input processing
US10102359B2 (en) 2011-03-21 2018-10-16 Apple Inc. Device access using voice authentication
JP2015520861A (en) * 2012-03-06 2015-07-23 アップル インコーポレイテッド Multilingual content speech synthesis processing
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9953088B2 (en) 2012-05-14 2018-04-24 Apple Inc. Crowd sourcing information to fulfill user requests
US10079014B2 (en) 2012-06-08 2018-09-18 Apple Inc. Name recognition system
US9971774B2 (en) 2012-09-19 2018-05-15 Apple Inc. Voice-based media searching
US10657333B2 (en) 2013-02-08 2020-05-19 Mz Ip Holdings, Llc Systems and methods for multi-user multi-lingual communications
US10417351B2 (en) 2013-02-08 2019-09-17 Mz Ip Holdings, Llc Systems and methods for multi-user mutli-lingual communications
US10366170B2 (en) 2013-02-08 2019-07-30 Mz Ip Holdings, Llc Systems and methods for multi-user multi-lingual communications
US10346543B2 (en) 2013-02-08 2019-07-09 Mz Ip Holdings, Llc Systems and methods for incentivizing user feedback for translation processing
US10685190B2 (en) 2013-02-08 2020-06-16 Mz Ip Holdings, Llc Systems and methods for multi-user multi-lingual communications
US10614171B2 (en) 2013-02-08 2020-04-07 Mz Ip Holdings, Llc Systems and methods for multi-user multi-lingual communications
US10650103B2 (en) 2013-02-08 2020-05-12 Mz Ip Holdings, Llc Systems and methods for incentivizing user feedback for translation processing
JP2016519797A (en) * 2013-03-15 2016-07-07 トランスレート アブロード,インコーポレイテッド System and method for real-time display of foreign language character sets and their translations on resource-constrained mobile devices
US9966060B2 (en) 2013-06-07 2018-05-08 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9620104B2 (en) 2013-06-07 2017-04-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
US10657961B2 (en) 2013-06-08 2020-05-19 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US9966068B2 (en) 2013-06-08 2018-05-08 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
US10185542B2 (en) 2013-06-09 2019-01-22 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
KR101634972B1 (en) 2014-02-20 2016-07-01 주식회사 보형 System, method and computer readable recording medium for informing emergency state
KR20150098493A (en) * 2014-02-20 2015-08-28 권형석 System, method and computer readable recording medium for informing emergency state
KR20150098930A (en) * 2014-02-21 2015-08-31 권형석 System for rescue request during emergency and method therefor
KR101634976B1 (en) 2014-02-21 2016-07-01 주식회사 보형 System for rescue request during emergency and method therefor
KR101614691B1 (en) 2014-02-24 2016-05-12 주식회사 안심동행 System for rescue request using portable electronic apparatus and method for rescue request therefor
US10169329B2 (en) 2014-05-30 2019-01-01 Apple Inc. Exemplar-based natural language processing
US10904611B2 (en) 2014-06-30 2021-01-26 Apple Inc. Intelligent automated assistant for TV user interactions
US9668024B2 (en) 2014-06-30 2017-05-30 Apple Inc. Intelligent automated assistant for TV user interactions
US9986419B2 (en) 2014-09-30 2018-05-29 Apple Inc. Social reminders
JP2017532684A (en) * 2014-10-17 2017-11-02 マシーン・ゾーン・インコーポレイテッドMachine Zone, Inc. System and method for language detection
US10162811B2 (en) 2014-10-17 2018-12-25 Mz Ip Holdings, Llc Systems and methods for language detection
US10699073B2 (en) 2014-10-17 2020-06-30 Mz Ip Holdings, Llc Systems and methods for language detection
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US10356243B2 (en) 2015-06-05 2019-07-16 Apple Inc. Virtual assistant aided communication with 3rd party service in a communication session
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US11500672B2 (en) 2015-09-08 2022-11-15 Apple Inc. Distributed personal assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US11526368B2 (en) 2015-11-06 2022-12-13 Apple Inc. Intelligent automated assistant in a messaging environment
JP2018503147A (en) * 2015-11-27 2018-02-01 小米科技有限責任公司Xiaomi Inc. Interface display method and apparatus
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10765956B2 (en) 2016-01-07 2020-09-08 Machine Zone Inc. Named entity recognition on chat data
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
CN105843944A (en) * 2016-04-08 2016-08-10 华南师范大学 Geographical location information based language acquisition method and system
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US11069347B2 (en) 2016-06-08 2021-07-20 Apple Inc. Intelligent automated assistant for media exploration
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
US10354011B2 (en) 2016-06-09 2019-07-16 Apple Inc. Intelligent automated assistant in a home environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US11037565B2 (en) 2016-06-10 2021-06-15 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10733993B2 (en) 2016-06-10 2020-08-04 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10521466B2 (en) 2016-06-11 2019-12-31 Apple Inc. Data driven natural language event detection and classification
US10089072B2 (en) 2016-06-11 2018-10-02 Apple Inc. Intelligent device arbitration and control
US10269345B2 (en) 2016-06-11 2019-04-23 Apple Inc. Intelligent task discovery
US10297253B2 (en) 2016-06-11 2019-05-21 Apple Inc. Application integration with a digital assistant
US11152002B2 (en) 2016-06-11 2021-10-19 Apple Inc. Application integration with a digital assistant
US10043516B2 (en) 2016-09-23 2018-08-07 Apple Inc. Intelligent automated assistant
US10553215B2 (en) 2016-09-23 2020-02-04 Apple Inc. Intelligent automated assistant
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
US10755703B2 (en) 2017-05-11 2020-08-25 Apple Inc. Offline personal assistant
US11405466B2 (en) 2017-05-12 2022-08-02 Apple Inc. Synchronization and task delegation of a digital assistant
US10791176B2 (en) 2017-05-12 2020-09-29 Apple Inc. Synchronization and task delegation of a digital assistant
US10410637B2 (en) 2017-05-12 2019-09-10 Apple Inc. User-specific acoustic models
US10810274B2 (en) 2017-05-15 2020-10-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback
US10482874B2 (en) 2017-05-15 2019-11-19 Apple Inc. Hierarchical belief states for digital assistants
US11217255B2 (en) 2017-05-16 2022-01-04 Apple Inc. Far-field extension for digital assistant services
US10769387B2 (en) 2017-09-21 2020-09-08 Mz Ip Holdings, Llc System and method for translating chat messages
CN110245356A (en) * 2019-06-24 2019-09-17 付金龙 Offline translation machine
JP2019215876A (en) * 2019-07-03 2019-12-19 エム・ゼット・アイ・ピィ・ホールディングス・リミテッド・ライアビリティ・カンパニーMz Ip Holdings, Llc System and method for language detection

Similar Documents

Publication Publication Date Title
JP2006302091A (en) Translation device and program thereof
JP4047885B2 (en) Machine translation apparatus, machine translation method, and machine translation program
JP4058071B2 (en) Example translation device, example translation method, and example translation program
US20170315992A1 (en) System and method for automatically translating an imaged surface of an object
JP2006277677A (en) Communication support device, method, and program
WO2010010918A1 (en) Information processing device and information processing method
Karim Technical challenges and design issues in bangla language processing
US7136803B2 (en) Japanese virtual dictionary
JP6417649B2 (en) Text processing device, text display system, program
JP2018136900A (en) Sentence analysis device and sentence analysis program
WO2020050894A1 (en) Text to visualization
US11704090B2 (en) Audio interactive display system and method of interacting with audio interactive display system
JP2005215887A (en) Electronic dictionary device and electronic dictionary program
JP7338328B2 (en) Data structure, computer program and image processing device
JP7098897B2 (en) Image processing equipment, programs and image data
JP2019215936A (en) Automatic translation device and automatic translation program
WO2022118720A1 (en) Device for generating mixed text of images and characters
JP2007018158A (en) Character processor, character processing method, and recording medium
US11947580B2 (en) Book search apparatus, book search database generation apparatus, book search method, book search database generation method, and program
JP7115187B2 (en) Information processing device, information processing method and program
JP6729656B2 (en) Text processing device, text display system, information processing device, program
KR101080880B1 (en) Automatic loanword-to-korean transliteration method and apparatus
JP2008269122A (en) Processing unit dividing device, processing unit dividing method and program
JP2010033418A (en) Portable translation device and output method of translation sentence using the same
WO2022146318A1 (en) A method for converting texts into visuals