JP2001043224A - Language processor - Google Patents
Language processorInfo
- Publication number
- JP2001043224A JP2001043224A JP11214691A JP21469199A JP2001043224A JP 2001043224 A JP2001043224 A JP 2001043224A JP 11214691 A JP11214691 A JP 11214691A JP 21469199 A JP21469199 A JP 21469199A JP 2001043224 A JP2001043224 A JP 2001043224A
- Authority
- JP
- Japan
- Prior art keywords
- language
- data
- processing
- category
- domain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Machine Translation (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、文章を音声や文字
を入力し、入力文に対して言語処理を行ない、処理結果
を出力する言語処理装置に関し、特に、音声認識装置、
文解析装置、言語変換装置、対話装置に関するものであ
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a language processing apparatus for inputting speech or characters of a sentence, performing language processing on the input sentence, and outputting a processing result.
The present invention relates to a sentence analysis device, a language conversion device, and a dialogue device.
【0002】[0002]
【従来の技術】以下、従来の画像表示手段付き言語処理
手段を通訳装置を実例として述べる。近年、音声による
入力文を他の言語に翻訳して出力する通訳システムがコ
ンピュータ用ソフトとして実用化されてきており、デー
タ表示部であるディスプレーパネルを用いてユーザが使
いやすい工夫も検討されている。2. Description of the Related Art A conventional language interpreter with image display means will be described below as an example of an interpreter. In recent years, an interpreter system that translates a speech input sentence into another language and outputs the translated speech has been put into practical use as computer software, and a device that is easy for a user to use using a display panel as a data display unit is being studied. .
【0003】図3はこれらの通訳装置の一例である。予
めディスプレーパネルには画像データ記憶部に記憶され
ている2つの窓が表示されている。音声が入力される
と、音声認識部で発声された文が単語列として認識さ
れ、認識結果文字列が外部出力データ合成部で画面の表
示窓1と合成され、ディスプレーパネルに出力される。
次に認識された結果文が言語翻訳部に入力されその翻訳
結果文字列が表示窓2と合成されてディスプレーパネル
に出力される。現在の技術では、発声された音声文を一
字一句正しく認識できるとは限らず、部分的に誤った単
語列を認識結果として出力してしまう。FIG. 3 shows an example of these interpreters. Two windows previously stored in the image data storage unit are displayed on the display panel. When a voice is input, a sentence uttered by the voice recognition unit is recognized as a word string, and the character string of the recognition result is synthesized with the display window 1 of the screen by the external output data synthesis unit and output to the display panel.
Next, the recognized result sentence is input to the language translation unit, and the translation result character string is synthesized with the display window 2 and output to the display panel. In the current technology, a spoken sentence that is uttered cannot always be correctly recognized one by one, and a partially incorrect word string is output as a recognition result.
【0004】この際には、ユーザがディスプレーパネル
上で誤った文字を修正し、改めて修正後の入力を翻訳す
ることで、ユーザが必要とする正しい翻訳結果を得るこ
とができる工夫がなされている(日本電気(株)による
通訳用ソフトCROSSROAD)。[0004] In this case, a device has been devised in which the user corrects an erroneous character on the display panel and translates the corrected input again to obtain a correct translation result required by the user. (Interpreting software CROSSROAD by NEC Corporation).
【0005】[0005]
【発明が解決しようとする課題】しかしながら、上記の
構成では、ユーザが発話する可能性のある内容を予め限
定していないため、発話されると予想される多くの語彙
を対象に認識を行わなければならない。そのため、大語
彙対象の辞書や言語モデルが必要となり、高い認識率を
保持することが困難となるだけでなく、処理速度もかか
ってしまう。また、語彙サイズに限度がある限り、現実
には任意文を認識することは困難であるが、上記の構成
では、ユーザに対して認識できる表現や語彙を示す手段
を講じていないため、ユーザが発話しにくい、といった
課題がある。However, in the above configuration, since the contents which the user may speak are not limited in advance, it is necessary to recognize many vocabularies expected to be spoken. Must. For this reason, a dictionary and a language model for large vocabulary are required, which makes it difficult to maintain a high recognition rate and increases processing speed. Moreover, as long as the vocabulary size is limited, it is actually difficult to recognize an arbitrary sentence, but in the above configuration, the user does not take any means to indicate the recognizable expressions and vocabulary, so There is a problem that it is difficult to speak.
【0006】本発明は上記の課題を考慮し、通訳を行う
前に画像表示手段を用いて使用できるカテゴリ内容を各
々の内容が視覚的にわかりやすい方法でユーザに提示
し、通訳時には提示したカテゴリ内容に相当する表現や
語彙のみを対象にして処理を行うことにより、多量の語
彙や表現を対象にすることによる認識率の低下や処理時
間の増加を防ぎ、しかも、ユーザが発話内容を自然に決
定でき、迷わず入力することができる言語処理装置を提
供するものである。The present invention has been made in consideration of the above problems, and presents category contents that can be used using an image display means to a user in a manner that allows each content to be easily understood before interpreting. By processing only expressions and vocabulary equivalent to, it is possible to prevent a decrease in recognition rate and an increase in processing time due to targeting a large number of vocabulary and expressions, and the user naturally determines the utterance content. It is an object of the present invention to provide a language processing device that can input data without hesitation.
【0007】[0007]
【課題を解決するための手段】上述した課題を解決する
ために、請求項1における言語処理装置が、入力文のカ
テゴリ各種の内容を決定するカテゴリ内容決定部と、ユ
ーザに入力を促すために表示する表示用データと、入力
された文を言語処理する際に使用する処理用データと、
カテゴリ内容決定部にて決定された内容に従って表示用
データと処理用データを選択するデータ選択部と、選択
された表示用データを表示するデータ表示部と、音声ま
たは文字を媒体として文を入力する文入力手段と、入力
された文に対して、選択された処理用データを用いて言
語処理を行なう言語処理部とを備えることにより、多量
の語彙や表現を対象にすることによる認識率の低下や処
理時間の増加を防ぎ、しかも、ユーザが発話内容を自然
に把握でき、迷わず入力することができる言語処理装置
を提供する。In order to solve the above-mentioned problems, a language processing apparatus according to claim 1 includes: a category content determining unit that determines the content of various categories of an input sentence; Display data to be displayed, processing data to be used when language processing the input sentence,
A data selection unit for selecting display data and processing data according to the content determined by the category content determination unit, a data display unit for displaying the selected display data, and inputting a sentence using voice or characters as a medium By providing a sentence input unit and a language processing unit for performing language processing on the input sentence using the selected processing data, the recognition rate is reduced by targeting a large amount of vocabulary and expressions. And a language processing apparatus capable of preventing an increase in processing time and allowing the user to naturally understand the utterance content and input without hesitation.
【0008】また、請求項2における言語処理手段は、
請求項1に記載のデータ表示手段付き言語処理装置にお
いて、表示データは画像データとすることにより、ユー
ザが直感的に自然に発話内容を把握できるよりユーザフ
レンドリーな言語処理装置を提供する。Further, the language processing means in claim 2 is
2. The language processing apparatus with data display means according to claim 1, wherein the display data is image data, thereby providing a more user-friendly language processing apparatus that allows a user to intuitively and naturally grasp speech content.
【0009】また、請求項3における言語処理装置は、
請求項2に記載のデータ表示手段付き言語処理装置にお
いて、画像データは背景と物体に分解可能なデータとす
ることにより、ユーザが複数のカテゴリ内容を瞬間的に
直感的に把握することが可能となるユーザフレンドリー
な言語処理装置を提供する。Further, the language processing device according to claim 3 is:
3. The language processing device with data display means according to claim 2, wherein the image data is data decomposable into a background and an object, so that the user can instantaneously and intuitively grasp the contents of a plurality of categories. User-friendly language processing device.
【0010】また、請求項4における言語処理装置は、
請求項3に記載のデータ表示手段付き言語処理装置にお
いて、カテゴリ種が言語である場合は、言語毎に処理用
データ及び画像データの背景を代えて使用し、画像デー
タの物体は言語に共通に用いることにより、ユーザが複
数のカテゴリ内容を瞬間的に直感的に把握することが可
能となるユーザフレンドリーな言語処理装置を提供す
る。The language processing device according to claim 4 is
4. The language processing device with data display means according to claim 3, wherein when the category type is a language, the processing data and the background of the image data are used instead of each language, and the object of the image data is commonly used for the language. By using this, a user-friendly language processing device that allows a user to instantaneously and intuitively grasp the contents of a plurality of categories is provided.
【0011】また、請求項5における言語処理装置は、
請求項1に記載のデータ表示手段付き言語処理装置にお
いて、処理用データは単語もしくは単語列辞書と言語規
則から構成されることにより、多量の語彙や表現を対象
にすることによる認識率の低下や処理時間の増加を防
ぎ、しかも、ユーザが発話内容を自然に把握でき、迷わ
ず入力することができる言語処理手段を提供する。Further, the language processing device according to claim 5 is
2. The language processing apparatus with data display means according to claim 1, wherein the processing data is composed of a word or a word string dictionary and language rules, thereby reducing a recognition rate by targeting a large amount of vocabulary and expressions. Provided is a language processing unit that prevents an increase in processing time, and that allows a user to naturally grasp utterance contents and input without hesitation.
【0012】また、請求項6における言語処理手段は、
請求項5に記載のデータ表示手段付き言語処理装置にお
いて、カテゴリ種がドメインである場合は、言語規則は
ドメイン共通に使用し、単語もしくは単語列辞書をドメ
インカテゴリの内容毎に代えて使用することにより、多
量の語彙や表現を対象にすることによる認識率の低下や
処理時間の増加を防ぎ、しかも必要な表現は処理できる
言語処理装置を提供する。[0012] Further, the language processing means in claim 6 comprises:
6. The language processing apparatus with data display means according to claim 5, wherein when the category type is a domain, the language rule is used commonly for the domain, and a word or a word string dictionary is used instead of each domain category content. Accordingly, it is possible to provide a language processing apparatus capable of preventing a reduction in recognition rate and an increase in processing time due to a large amount of vocabulary and expressions as well as processing required expressions.
【0013】また、請求項7における言語処理装置は、
請求項5に記載のデータ表示手段付き言語処理装置にお
いて、表示用データは画像データと単語もしくは単語列
辞書の全てまたは一部とからなり、データ表示部では、
カテゴリ内容に対応して上記画像データと辞書を組み合
わせて表示することにより、多量の語彙や表現を対象に
することによる認識率の低下や処理時間の増加を防ぎ、
しかも、ユーザが発話内容を自然に把握でき、迷わず入
力することができる言語処理装置を提供する。Further, the language processing apparatus according to claim 7 is
6. The language processing apparatus with data display means according to claim 5, wherein the display data comprises image data and all or a part of a word or a word string dictionary.
By displaying the image data and the dictionary in combination in accordance with the category content, it is possible to prevent a decrease in recognition rate and an increase in processing time due to targeting a large amount of vocabulary and expressions.
In addition, the present invention provides a language processing device that allows a user to naturally understand the utterance content and input without hesitation.
【0014】[0014]
【発明の実施の形態】以下に本発明の実施の形態につい
て図面を参照して説明する。Embodiments of the present invention will be described below with reference to the drawings.
【0015】図1は本発明の請求項1〜6の言語処理装
置のブロック図である。第1の実施の形態では、言語処
理装置の一つである日英双方向通訳装置に関して述べ
る。日英双方向通訳装置とは、日本語の発声を認識、翻
訳し、英語テキストまたは音声を出力する、また、英語
の発声に対しても同様に処理した後、日本語テキストま
たは音声を出力する装置である。また、本実施例では、
ドメイン内容として、レストランの中、薬局、博物館に
おいて会話するだろう会話音声を通訳する装置を用いて
説明する。FIG. 1 is a block diagram of a language processing apparatus according to claims 1 to 6 of the present invention. In the first embodiment, a bidirectional Japanese-English interpreter, which is one of the language processing devices, will be described. Japanese-English bidirectional interpreter recognizes and translates Japanese utterances and outputs English text or voice, and also processes Japanese utterances and outputs Japanese text or voice. Device. In this embodiment,
The contents of the domain will be described using a device for translating a conversation voice that will be used in a restaurant, a pharmacy, or a museum.
【0016】実施例の通訳装置は、ユーザが選択できる
カテゴリ種として言語とドメインがあり、まず、ユーザ
は発話しようとしている上記カテゴリの内容を処理内容
決定部1に入力する。入力方法はたとえば、画面に日本
語、英語の選択ボタンと各ドメイン選択ボタンがあり、
ユーザがボタンを押すことで選択する。次に、選択され
たカテゴリ内容情報は、外部出力用データ選択部2と、
内部処理用データ選択部3に入力される。外部出力用デ
ータ記憶部4では、背景画像と物体画像とを分けて記憶
してあり、先の外部出力用データ選択部2では、決定さ
れた各カテゴリ種の内容に応じて相当する背景画像と物
体画像各々を各々の記憶部5及び6から選択する。たと
えば、ここでは、背景画像を各言語毎に、物体画像を各
ドメインごとに記憶してあり、カテゴリ内容が日本語で
薬局ドメインであった場合には、日本語に対応した背景
画像と薬局に対応した物体画像を選択する。そして外部
出力用データ合成部7で、上記2つの画像を合成して、
ディスプレーパネル8に出力する。In the interpreting apparatus of the embodiment, there are languages and domains as category types that can be selected by the user. First, the user inputs the content of the category to be spoken to the processing content determining unit 1. For input method, for example, there are Japanese and English selection buttons and each domain selection button on the screen,
The user makes a selection by pressing a button. Next, the selected category content information is output to the external output data selection unit 2,
The data is input to the internal processing data selection unit 3. The external output data storage unit 4 stores the background image and the object image separately, and the external output data selection unit 2 stores the background image and the object image corresponding to the content of the determined category type. Each object image is selected from each of the storage units 5 and 6. For example, here, the background image is stored for each language and the object image is stored for each domain. If the category content is Japanese and the pharmacy domain is, the background image corresponding to Japanese and the pharmacy are stored. Select the corresponding object image. Then, the external output data synthesizing unit 7 synthesizes the two images, and
Output to the display panel 8.
【0017】一方、内部処理用データ記憶部9では音声
認識及び言語翻訳処理に必要な言語規則として語彙辞書
と言語規則とを記憶してあり、先の内部処理用データ選
択部3では、決定された各カテゴリ種の内容に応じて相
当する語彙辞書と言語規則を各々の記憶部10,11か
ら選択する。たとえば、ここでは音声認識用および言語
翻訳用言語規則は各言語ごとに、語彙辞書は各言語とド
メインごとに記憶している。たとえば、カテゴリ内容が
日本語で薬品ドメインであった場合には、日本語の認識
用言語規則と日本語から英語に翻訳するための翻訳用言
語規則と、日本語の薬局ドメインに必要な語彙辞書を選
択し、これらを処理用バッファに記憶する。On the other hand, the internal processing data storage section 9 stores a vocabulary dictionary and language rules as language rules necessary for speech recognition and language translation processing. The corresponding vocabulary dictionary and language rule are selected from the respective storage units 10 and 11 according to the content of each category type. For example, here, the language rules for speech recognition and language translation are stored for each language, and the vocabulary dictionary is stored for each language and domain. For example, if the category content is Japanese and the drug domain, then the Japanese language rules for recognition and the translation rules for translating from Japanese to English, and the vocabulary dictionary required for the Japanese pharmacy domain Are stored in the processing buffer.
【0018】次に音声入力端子から日本語音声が入力さ
れ、選択された認識用言語規則と語彙辞書を用いて音声
認識される。認識結果は言語翻訳部に入力され英語に翻
訳され、翻訳結果テキストがディスプレーパネルに表示
される。Next, Japanese speech is input from a speech input terminal, and speech recognition is performed using the selected recognition language rule and vocabulary dictionary. The recognition result is input to the language translator and translated into English, and the translation result text is displayed on the display panel.
【0019】以上実施例の日英双方向通訳装置は、音声
を入力する前に発声の対象となる言語とドメインとをユ
ーザが選択し、選択された言語に相当する背景画像とド
メインに相当する物体画像とを合成表示してユーザに提
示ことにより、ユーザが発声すべきカテゴリ内容を瞬間
的に直感的に把握することが可能となる。また、通訳処
理は、選択された言語とドメインとに相当する語彙のみ
を対象に行なうことにより、多量の語彙や表現を対象に
することによる認識率の低下や処理時間の増加を防ぐこ
とが可能となる。In the Japanese-English bidirectional interpreting apparatus of the embodiment described above, the user selects a language and a domain to be uttered before inputting a voice, and corresponds to a background image and a domain corresponding to the selected language. By synthesizing and displaying the object image and presenting it to the user, it is possible to instantaneously and intuitively grasp the category contents to be uttered by the user. In addition, the interpretation process is performed only on the vocabulary corresponding to the selected language and domain, so that it is possible to prevent a decrease in recognition rate and an increase in processing time due to the large number of vocabulary and expressions. Becomes
【0020】以下に本発明2の実施の形態について図面
を参照して説明する。Hereinafter, a second embodiment of the present invention will be described with reference to the drawings.
【0021】図2は本発明の請求項7の言語処理装置の
ブロック図である。第1の実施の形態同様、言語処理装
置の一つである日英双方向通訳装置に関して述べる。FIG. 2 is a block diagram of a language processing apparatus according to claim 7 of the present invention. Similar to the first embodiment, a Japanese-English bidirectional interpreter, which is one of the language processors, will be described.
【0022】実施例の通訳装置は、ユーザが選択できる
カテゴリ種を選択し、選択したカテゴリ内容を、外部出
力用データ選択部2と、内部処理用データ選択部3に入
力し、それぞれ画像データと語彙辞書を選択するところ
は、第1の実施形態と同様である。次に外部出力用デー
タ合成部7で、上記2つの画像と選択された語彙を表す
文字列とを組み合わせて、ディスプレーパネル8に出力
する。通訳処理は第1の実施の形態と同様である。The interpreting apparatus of the embodiment selects a category type that can be selected by the user, inputs the selected category content to the external output data selection section 2 and the internal processing data selection section 3, and outputs image data and image data, respectively. The process of selecting a vocabulary dictionary is the same as in the first embodiment. Next, the external output data synthesizing unit 7 combines the above two images with a character string representing the selected vocabulary and outputs the result to the display panel 8. The interpreting process is the same as in the first embodiment.
【0023】以上実施例の日英双方向通訳装置は、第1
の実施形態の効果に加えて、ユーザが発声できる語彙を
文字レベルで確認できることにより、より発声すべきカ
テゴリ内容を瞬間的に直感的に把握することが可能とな
る。The bidirectional Japanese-English bilingual interpreter of the embodiment
In addition to the effects of the embodiment, since the vocabulary that the user can utter can be confirmed at the character level, it is possible to instantaneously and intuitively grasp the category contents to be uttered.
【0024】[0024]
【発明の効果】以上述べたことから明らかなように、請
求項1〜7に係る本発明方法を用いることで、多量の語
彙や表現を対象にすることによる認識率の低下や処理時
間の増加を防ぎ、しかも、ユーザが発話内容を自然に把
握でき、迷わず入力することができるユーザフレンドリ
ーな言語処理手段を提供ことが可能になる。As is apparent from the above description, by using the method of the present invention according to claims 1 to 7, the recognition rate is reduced and the processing time is increased by targeting a large number of words and expressions. In addition, it is possible to provide a user-friendly language processing unit that allows the user to naturally understand the utterance content and input without hesitation.
【図1】本発明の第1の実施の形態におけるブロック図FIG. 1 is a block diagram according to a first embodiment of the present invention;
【図2】本発明の第2の実施の形態におけるブロック図FIG. 2 is a block diagram according to a second embodiment of the present invention.
【図3】従来方法におけるブロック図FIG. 3 is a block diagram of a conventional method.
1 処理内容決定部 2 外部出力用データ選択部 3 内部出力用データ選択部 4 画像データ記憶部 5 背景画像データ記憶部 6 物体画像データ記憶部 7,15 外部出力用データ合成部 8,16 ディスプレーパネル 9 言語処理用データ記憶部 10 語彙辞書記憶部 11 言語規則記憶部 12 バッファ 13 音声認識部 14 言語翻訳部 DESCRIPTION OF SYMBOLS 1 Processing content determination part 2 External output data selection part 3 Internal output data selection part 4 Image data storage part 5 Background image data storage part 6 Object image data storage part 7,15 External output data synthesis part 8,16 Display panel 9 language processing data storage unit 10 vocabulary dictionary storage unit 11 language rule storage unit 12 buffer 13 speech recognition unit 14 language translation unit
───────────────────────────────────────────────────── フロントページの続き (72)発明者 松井 謙二 大阪府門真市大字門真1006番地 松下電器 産業株式会社内 Fターム(参考) 5B091 AA03 BA03 CB12 CC03 CD01 DA02 DA06 ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Kenji Matsui 1006 Kazuma Kadoma, Kadoma City, Osaka Prefecture Matsushita Electric Industrial Co., Ltd. F term (reference) 5B091 AA03 BA03 CB12 CC03 CD01 DA02 DA06
Claims (7)
たはドメイン(これらをカテゴリ種と呼ぶ)の各種の内
容を決定するカテゴリ内容決定部と、ユーザに入力を促
すために表示する複数の表示用データと、入力された文
を言語処理する際に使用する複数の言語処理用データ
と、カテゴリ内容決定部にて決定された内容に従って複
数の表示用データ及び処理用データから適切なデータを
選択するデータ選択と、選択された表示用データを表示
するデータ表示部と、音声または文字を媒体として文を
入力できる文入力端子と、入力された文に対して、選択
された処理用データを用いて言語処理を行なう言語処理
部とを備えた言語処理装置。1. A category content determination unit for determining various contents of a language or style of an input sentence, a task or a domain (these are referred to as category types), and a plurality of display data displayed to prompt a user to input. And a plurality of language processing data to be used in language processing of an input sentence, and data for selecting appropriate data from a plurality of display data and processing data according to the content determined by the category content determining unit. Selection, a data display unit for displaying the selected display data, a sentence input terminal for inputting a sentence using voice or characters as a medium, and a language using the selected processing data for the input sentence A language processing device comprising: a language processing unit that performs processing.
徴とする請求項1記載の言語処理装置。2. The language processing apparatus according to claim 1, wherein the display data is image data.
ータであることを特徴とする請求項2記載の言語処理装
置。3. The language processing apparatus according to claim 2, wherein the image data is data decomposable into a background and an object.
に処理用データ及び画像データの背景を代えて使用し、
画像データの物体は言語に共通に用いることを特徴とす
る請求項3記載の言語処理装置。4. When the category type is language, the background of the processing data and the image data is used for each language instead,
4. The language processing apparatus according to claim 3, wherein the object of the image data is commonly used for a language.
と言語規則からなることを特徴とする請求項1記載の言
語処理装置。5. The language processing apparatus according to claim 1, wherein the processing data comprises a word or word string dictionary and language rules.
語規則はドメイン共通に使用し、単語もしくは単語列辞
書をドメインカテゴリの内容毎に代えて使用することを
特徴とする請求項5記載の言語処理装置。6. The language according to claim 5, wherein when the category type is a domain, the language rule is used commonly for the domain, and a word or a word string dictionary is used instead of each domain category content. Processing equipment.
は単語列辞書の全てまたは一部とからなり、データ表示
手段では、カテゴリ内容に対応して上記画像データと辞
書を組み合わせて表示することを特徴とする請求項5記
載の言語処理装置。7. The display data comprises image data and all or a part of a word or word string dictionary, and the data display means displays the image data and the dictionary in combination in accordance with the category contents. The language processing device according to claim 5, wherein
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11214691A JP2001043224A (en) | 1999-07-29 | 1999-07-29 | Language processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11214691A JP2001043224A (en) | 1999-07-29 | 1999-07-29 | Language processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001043224A true JP2001043224A (en) | 2001-02-16 |
Family
ID=16660011
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11214691A Pending JP2001043224A (en) | 1999-07-29 | 1999-07-29 | Language processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001043224A (en) |
-
1999
- 1999-07-29 JP JP11214691A patent/JP2001043224A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10073843B1 (en) | Method and apparatus for cross-lingual communication | |
US7047195B2 (en) | Speech translation device and computer readable medium | |
US6377925B1 (en) | Electronic translator for assisting communications | |
US9355094B2 (en) | Motion responsive user interface for realtime language translation | |
US8055495B2 (en) | Apparatus and method for translating input speech sentences in accordance with information obtained from a pointing device | |
US8239207B2 (en) | Speech-enabled language translation system and method enabling interactive user supervision of translation and speech recognition accuracy | |
US20040111272A1 (en) | Multimodal speech-to-speech language translation and display | |
US6068487A (en) | Speller for reading system | |
US20100250237A1 (en) | Interactive manual, system and method for vehicles and other complex equipment | |
JP2011504624A (en) | Automatic simultaneous interpretation system | |
WO2011033834A1 (en) | Speech translation system, speech translation method, and recording medium | |
JP7199061B2 (en) | translation device | |
JP2018170743A (en) | Conference support system, conference support method, program of conference support device, and program of terminal | |
JP7117629B2 (en) | translation device | |
JP6676093B2 (en) | Interlingual communication support device and system | |
JP2004295578A (en) | Translation device | |
WO2017122657A1 (en) | Speech translation device, speech translation method, and speech translation program | |
JPS634206B2 (en) | ||
JP2001043224A (en) | Language processor | |
JP2003162524A (en) | Language processor | |
JP2017182395A (en) | Voice translating device, voice translating method, and voice translating program | |
JP6110539B1 (en) | Speech translation device, speech translation method, and speech translation program | |
JPH11120176A (en) | Interpreting device, method and medium storing interpreting device control program | |
JP2002288170A (en) | Support system for communications in multiple languages | |
JP2023006055A (en) | Program, information processing device, and method |